Вымогатели шантажируют художников угрозой обучить ИИ на их работах

Вымогатели шантажируют художников угрозой обучить ИИ на их работах

Вымогатели шантажируют художников угрозой обучить ИИ на их работах

Хакеры нашли новый способ давить на больное место — угрозу для художников использовать их работы в обучении нейросетей. 30 августа площадка Artists&Clients, где авторы находят заказчиков и выполняют индивидуальные проекты, подверглась атаке.

Сайт до сих пор не работает. По данным исследователей, за нападением стоит группировка LunaLock, известная по кампаниям с программами-вымогателями.

Злоумышленники заявили, что зашифровали все файлы и требуют $50 тыс. в Bitcoin или Monero. В противном случае, по их словам, украденные материалы будут добавлены в датасеты для обучения ИИ.

 

Для художников это звучит как худший сценарий: стили, над которыми они работали годами, могут оказаться в открытом доступе и быть скопированы машинами.

Artists&Clients пока никак публично не отреагировал на инцидент, поэтому неизвестно, планирует ли компания платить выкуп.

Теоретически, если у сервиса есть актуальные бэкапы, восстановление может пройти относительно быстро. Но угроза «слить» уникальные работы в базы для обучения ИИ повисла над сообществом как дополнительный удар — и по бизнесу, и по репутации.

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru