Эксперты нашли в дарквебе сотни тысяч учётных данных OpenAI

Эксперты нашли в дарквебе сотни тысяч учётных данных OpenAI

Эксперты нашли в дарквебе сотни тысяч учётных данных OpenAI

На площадках дарквеба продаются сотни тысяч учётных данных OpenAI. Там же можно получить доступ к вредоносной альтернативе распиаренного ChatGPT. Начинающие киберпреступники могут использовать эти инструменты для создания качественных фишинговых писем.

По данным компании Flare, проанализировавшей площадки «тёмной сети», за шесть месяцев ChatGPT упоминался там более 27 тысяч раз. Учётные данные OpenAI в настоящий момент — один из самых актуальных товаров в дарквебе.

Судя по тому, что исследователи рассказали BleepingComputer, им удалось выявить более 200 000 связок «логин-пароль», которые продавались в виде логов вредоносных программ-стилеров.

Если брать 100 миллионов активных пользователей, то процент кажется небольшим, однако эта цифра всё равно демонстрирует заинтересованность киберпреступников в ИИ-инструментах.

Можно вспомнить также WormGPT, о котором мы рассказывали на днях. Эта тулза помогает организовать целевые атаки на корпоративную почту (так называемый Business Email Compromises, BEC).

Подобные WormGPT инструменты могут использоваться для автоматизации фишинговых кампаний. С их помощью можно как минимум составлять злонамеренные письма, заточенные под каждую жертву.

ИИ находит ошибки быстрее, чем их могут исправлять

Многие команды разработчиков опенсорс-проектов столкнулись с потоком сообщений об ошибках и уязвимостях, которые выявляют ИИ-модели. Для многих проектов, особенно небольших, это стало серьёзной проблемой: устранять такие находки по мере их поступления они попросту не успевают. В результате ситуация начинает нести заметные риски для безопасности.

О проблеме сообщило агентство Bloomberg. Издание приводит слова Дэниела Стенберга из проекта cURL: только за 2025 год команда получила 181 сообщение об ошибках и уязвимостях — больше, чем за 2023 и 2024 годы вместе взятые.

По словам специалиста, рост числа багрепортов напрямую связан с распространением ИИ-моделей. Как отметил Стенберг, ситуация продолжает ухудшаться. С начала 2026 года команда проекта уже получила 87 сообщений об ошибках, а по итогам года их число может приблизиться к 330.

Рост активности связывают с появлением новой ИИ-модели Mythos от Anthropic. Она позволяет находить проблемный код быстрее, чем предыдущие поколения таких систем, не говоря уже о людях, которые проводят аудит вручную или с помощью традиционных инструментов.

Многие другие проекты, столкнувшись с валом отчётов об ошибках, сгенерированных с помощью ИИ, вообще прекратили их приём. Разработчики сравнивают этот поток с DDoS-атакой, называя его «пугающим» и крайне сложным для обработки.

Понимая возможные риски, связанные с тем, что новая модель сможет находить уязвимости быстрее, чем разработчики будут успевать их устранять, Anthropic не стала выпускать Mythos в открытый доступ. Вместо этого компания ограничила доступ к ней, предоставив его только ключевым организациям, включая CrowdStrike и Linux Foundation.

Как подчёркивает Bloomberg, вся индустрия во многом зависит от результатов работы проектов с открытым исходным кодом, которыми нередко занимаются небольшие команды с ограниченными ресурсами. Ситуацию дополнительно осложняет наличие большого объёма устаревшего кода, который может быть использован во вредоносных целях.

Показательный пример — история с WannaCry: авторы этого шифровальщика использовали устаревший драйвер Windows для распространения зловреда. При этом удалить такой компонент не всегда возможно без риска нарушить работу критически важных функций системы.

RSS: Новости на портале Anti-Malware.ru