ChatGPT проявил себя как стажер в роли фишинг-аналитика

ChatGPT проявил себя как стажер в роли фишинг-аналитика

ChatGPT проявил себя как стажер в роли фишинг-аналитика

В «Лаборатории Касперского» проверили возможности творения OpenAI по распознаванию фишинговых ссылок. Как оказалось, ChatGPT знает признаки риска, хорошо определяет атакуемые организации, однако склонен видеть опасность там, где ее нет.

Новое исследование — продолжение экспериментов с большой языковой моделью (LLM) серии GPT на предмет ее пригодности для нужд кибербеза. На сей раз популярный ИИ-бот заставили анализировать URL с целью выявления угрозы фишинга.

Такая задача была выбрана по нескольким причинам:

  • ссылки легко укладываются в лимит на количество символов (у LLM вроде ChatGPT фиксированное контекстное окно);
  • явно вредоносные ссылки хорошо детектятся, но для этого необходимо знание виртуального мира (например, имен популярных веб-сервисов);
  • URL— это текст, обработка которого не составляет труда для LLM.

Для начала исследователи решили выяснить, что ИИ-боту известно о фишинге. Вопрос был сформулирован следующим образом:

«Судя по URL, эта ссылка — попытка фишинга? Пожалуйста, поясни, почему. Ссылка: hxxp://caseld-10xxxx.info/1/Office365/0fflce3.6.5/live/login.php».

Бот ответил, что скорее всего это так, и указал ряд показателей риска:

  1. Имя домена не ассоциируется с каким-либо авторитетным или узнаваемым ресурсом, а также выглядит, как произвольная последовательность символов.
  2. В URL присутствует термин Office365, имя популярного набора инструментов, обычно используемое в фишинговых атаках.
  3. Слово live может намекать на то, что это официальная страница входа Microsoft Office365, так как Microsoft ранее использовала «live» в некоторых сервисах.
  4. Неправильное написание Office как 0fflce — еще один индикатор риска, фишеры обычно так делают, чтобы убедить пользователей в легитимности сайта.
  5. Расширение .php в конце URL говорит о наличии PHP-скрипта на сервере; в фишинговых атаках это обычный инструмент для сбора учетных данных.

Подобный ответ, за исключением излишней подозрительности по отношению к PHP-скриптам, эксперты сочли достойным уровня младшего аналитика.

Результаты тестов на наборах URL-текстов разочаровали исследователей. Когда gpt-3.5-turbo (бэкенд ChatGPT) через API скормили пару тысяч фишинговых ссылок вперемешку с таким же количеством безобидных URL, назначенный «кибергуру» чат-бот выдал около 6 тыс. вердиктов. Разбор этих ответов показал уровень детектирования 87,2% (высокий), а ложноположительных срабатываний — 23,2%, что неприемлемо много.

Чтобы исправить ситуацию, чат-бот понизили до ранга помощника по интернет-безопасности: попросили отфильтровать ссылки, небезопасные для посещения. Уровень детектирования повысился (93,8%), показатель ложноположительных ответов — к сожалению, тоже (64,3%).

Результаты по извлечению из URL потенциальных целей фишеров оказались не в пример лучше. ИИ-боту были известны многие интернет-ресурсы и финансовые сервисы, поэтому он правильно определил мишени в половине случаев, притом даже при наличии тайпсквоттинга. Он также умеет распознавать омографические атаки, правда, иногда принимает такую уловку за умышленную опечатку.

Обоснования вердикта ChatGPT обычно развернуты и вполне разумны, хотя бывают и забавными. Иногда он ссылается на данные, которые ему недоступны: запись в WHOIS, контент либо оформление поддельного сайта, истекший срок SSL-сертификата, а также может выдать неверные сведения. Подобные факты еще раз подтвердили свойство LLM, ранее подмеченное другими пользователями: склонность к «галлюцинациям».

В целом исследователи признали ChatGPT годным в роли помощника фишинг-аналитика, способного быстро перечислить подозрительные составляющие URL или подсказать организацию-мишень. Однако такой стажер непременно должен работать под присмотром.

Бывшему сотруднику Google грозит 15 лет за кражу секретов ИИ-разработок

Большое жюри суда Северной Каролины утвердило обвинительное заключение по делу 38-летнего Линь-Вэй Дина (Linwei Ding), открытому в связи с кражей у Google более 2000 документов, связанных с разработками в сфере ИИ.

По версии следствия, Дин, проработавший в Google программистом с 2019 года до конца 2023-го, решил создать свой стартап в КНР и даже встречался с потенциальными инвесторами, попросив сослуживца прикрыть свое отсутствие в офисе.

Чтобы не начинать с чистого листа, предприимчивый инженер стал выкачивать данные из сети работодателя — о суперкомпьютерном ЦОД, специально построенном для ИИ, о софте для его управления, ИИ-моделях, приложениях, кастомных чипах.

Исходники он скачивал в Apple Notes на рабочем MacBook, а затем конвертировал их в PDF и под своим Google-аккаунтом выгружал в облако, чтобы замести следы. За две недели до увольнения Дин скачал все украденные секреты на свой персональный компьютер.

Когда пропажу обнаружили, техногигант обратился в суд. Арест подозреваемого в связи с выдвинутыми обвинениями состоялся в марте 2024 года.

Позднее выяснилось, что тот также подал заявку на участие в программе правительства КНР, призванной обеспечить приток в страну специалистов по исследованиям и разработке. Этот факт позволял трактовать кражу секретов Google как промышленный шпионаж в пользу иностранного государства.

В США Дину инкриминируют семь эпизодов хищения коммерческой тайны и семь эпизодов экономического шпионажа. По первой статье ему грозит до 10 лет лишения свободы, по второй — до 15 лет.

RSS: Новости на портале Anti-Malware.ru