У OpenAl украли внутреннюю переписку об ИИ-технологиях

У OpenAl украли внутреннюю переписку об ИИ-технологиях

У OpenAl украли внутреннюю переписку об ИИ-технологиях

В начале 2023 года неизвестные злоумышленники взломали внутренние системы обмена сообщениями OpenAl и получили доступ к переписке об ИИ-технологиях. Поскольку данные клиентов компании не пострадали, предавать огласке инцидент не стали.

Как стало известно The New York Times, взломщики лишь могли узнать какие-то детали проектов, которые сотрудники в рабочем порядке обсуждали на онлайн-форуме. Добраться до хранилищ кодов и платформ разработки непрошеным гостям не удалось.

Украсть какую-либо информацию о клиентах и партнерах компании авторы атаки тоже не смогли, и потому было решено не разглашать факт атаки. Руководство лишь поставило в известность персонал и совет директоров.

Топ-менеджеры сочли, что автор атаки — частное лицо, в действиях которого не просматриваются связи с каким-либо иностранным правительством. Заключив, что киберинцидент не составляет угрозу национальной безопасности, разработчик ChatGPT не стал информировать о нем правоохранительные органы.

Практика показывает, что ИИ может принести не только пользу, но и вред — зависит от того, в каких руках окажутся столь мощные инструменты. По этой причине некоторые профильные разработчики, в том числе OpenAl, начали закрывать доступ к своим технологическим операциям и ужесточать контроль, чтобы снизить риск утечки.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru