Red Teaming в применении к ИИ требует переосмысления

Red Teaming в применении к ИИ требует переосмысления

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

ФБР расследует серию вредоносных игр в Steam и ищет пострадавших игроков

ФБР запустило публичный сбор информации по делу о вредоносных играх в Steam. Ведомство сообщило, что подразделение в Сиэтле ищет возможных пострадавших, которые устанавливали игры из Steam со встроенным вредоносным кодом.

Судя по описанию, речь идёт не о каком-то единичном инциденте, а о целой серии историй, когда под видом обычных игр пользователям подсовывали зловред.

Такие проекты выглядели вполне безобидно, но после запуска могли красть данные, перехватывать аккаунты и вытаскивать конфиденциальную информацию с компьютера. Об этом ранее писали и исследователи, разбиравшие отдельные случаи на Steam.

Среди игр, которые связывают с этой историей, называют Chemia, Dashverse / DashFPS, Lampy, Lunara, PirateFi, Tokenova и BlockBlasters. Особенно заметным оказался случай с BlockBlasters: по данным исследователей, вредоносная активность там проявилась после одного из патчей, а зловред собирал, в частности, данные, связанные с криптокошельками и учётными записями пользователя.

Вообще, схема довольно неприятная: человек просто ставит игру, запускает её как обычно, а дальше вместе с развлечением получает ещё и скрытую нагрузку в виде стилера или другого вредоносного инструмента.

В результате под удар могут попасть не только игровые аккаунты, но и сохранённые сессии в браузере, логины, пароли и криптокошельки. В случае с BlockBlasters исследователи отдельно указывали на сбор данных Steam и другой информации с заражённой системы.

ФБР сейчас предлагает пострадавшим добровольно заполнить специальную форму на своём сайте. Ведомство подчёркивает, что ответы конфиденциальны, а тех, кто предоставит информацию, при необходимости могут позже попросить о дополнительных деталях.

RSS: Новости на портале Anti-Malware.ru