Эксперты нашли в дарквебе сотни тысяч учётных данных OpenAI

Эксперты нашли в дарквебе сотни тысяч учётных данных OpenAI

Эксперты нашли в дарквебе сотни тысяч учётных данных OpenAI

На площадках дарквеба продаются сотни тысяч учётных данных OpenAI. Там же можно получить доступ к вредоносной альтернативе распиаренного ChatGPT. Начинающие киберпреступники могут использовать эти инструменты для создания качественных фишинговых писем.

По данным компании Flare, проанализировавшей площадки «тёмной сети», за шесть месяцев ChatGPT упоминался там более 27 тысяч раз. Учётные данные OpenAI в настоящий момент — один из самых актуальных товаров в дарквебе.

Судя по тому, что исследователи рассказали BleepingComputer, им удалось выявить более 200 000 связок «логин-пароль», которые продавались в виде логов вредоносных программ-стилеров.

Если брать 100 миллионов активных пользователей, то процент кажется небольшим, однако эта цифра всё равно демонстрирует заинтересованность киберпреступников в ИИ-инструментах.

Можно вспомнить также WormGPT, о котором мы рассказывали на днях. Эта тулза помогает организовать целевые атаки на корпоративную почту (так называемый Business Email Compromises, BEC).

Подобные WormGPT инструменты могут использоваться для автоматизации фишинговых кампаний. С их помощью можно как минимум составлять злонамеренные письма, заточенные под каждую жертву.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Четверть ИТ-специалистов считает дипфейки главным оружием киберпреступников

Аналитики «Кибердома» опросили 1325 ИТ-специалистов из российских мегаполисов и выяснили, что четверть респондентов считает дипфейки главным оружием кибермошенников. Ещё 17% назвали угрозой автоматизированный подбор и взлом паролей, 12% — мошеннические чат-боты, 8% — подделку документов. А каждый третий вообще полагает, что опасно всё, что создаётся с помощью ИИ.

Насколько реальны угрозы?

С прямыми случаями применения ИИ в атаках сталкивались 14% специалистов, но массовым явлением это пока не стало. Большинство (80%) лично не видели таких инцидентов, хотя признают: в будущем от этого никто не застрахован.

Эксперты отмечают, что ИИ делает мошенничество проще и дешевле: можно сымитировать голос знакомого человека, создать фальшивое видео или грамотно «вытащить» личные данные из соцсетей. Всё это снижает порог входа в киберпреступность и ведёт к росту числа атак.

Что может помочь компаниям?

Большинство опрошенных (62%) уверены, что бороться с ИИ-угрозами можно только комплексно. Среди конкретных мер:

  • антифрод-системы и многофакторная аутентификация (46%);
  • проверка голоса и видео на подделку;
  • внедрение собственных ИИ-решений для защиты.

При этом пятая часть специалистов считает, что никакая техника не обеспечит стопроцентной защиты. А 32% уверены: без внимательности людей даже самые умные системы бесполезны. Поэтому половина респондентов (48%) назвали ключевым оружием обучение сотрудников — тренинги, тестовые атаки и регулярные практики кибергигиены.

Где слабое звено?

Специалисты подчёркивают: чаще всего уязвимыми оказываются не технологии, а люди. От топ-менеджеров до обычных сотрудников — именно невнимательность персонала становится «точкой входа» для злоумышленников. Поэтому задача компаний — не только внедрять новые технологии, но и системно повышать цифровую грамотность сотрудников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru