В AES обнаружен серьезный недостаток

Исследователи в области криптографии еще на один шаг приблизились к возможности взлома алгоритма шифрования AES. В результате смоделированной атаки оказалось, что  скорость расшифровки ключа в четыре раза выше, нежели ранее предполагалось.

Трое специалистов Андрей Богданов, Дмитрий Ховратович и Кристиан Рехбергер, в результате своей исследовательской работы, в рамках проекта Microsoft Research выяснили, что на самом деле длина ключа шифрования короче на 2 бита. То есть, как пояснили ученые, ключ AES-128 на самом деле имеет 126 битное слово, AES-192 -190 бит, а AES-256 это AES-254.

Заметим, что многие исследователи проверяли AES на прочность, однако серьезных уязвимостей у него обнаружено не было. Настоящая атака применима ко всем версиям AES. Однако, усилия на нее придется затратить гигантские: количество итераций для поиска ключа к AES-128 выражается числом 8*1037; у 1 трлн компьютеров, способных проверять по 1 млрд ключей в секунду, на поиск ключа уйдет 2 млрд лет. Для сравнения, ныне существующие компьютеры могут проверять лишь по 10 млн ключей за секунду. Таким образом, практического влияния на безопасность AES атака не имеет, но это первый серьезный недостаток, обнаруженный в алгоритме и подтвержденный его разработчиками.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Яндекс Дзен, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Забытые в коде ключи доступа к OpenAI API позволяют спиратить GPT-4

Разработчики, встраивающие технологии OpenAI в свои приложения, зачастую оставляют API-ключи в коде. Злоумышленники этим пользуются: собирают такие секреты из общедоступных проектов и расшаривают их в соцсетях и чатах, провоцируя пиратство.

Оказалось, что только на GitHub можно с легкостью заполучить более 50 тыс. ключей к OpenAI API, неумышленно слитых в паблик. Украденные данные позволяют использовать ассоциированный аккаунт OpenAI для бесплатного доступа к мощным ИИ-системам вроде GPT-4.

Недавно модераторы Discord-канала r/ChatGPT забанили скрипт-кидди с ником Discodtehe, который упорно рекламировал свою коллекцию ключей OpenAI API, собранных на платформе для совместной работы Replit. Такие же объявления доброхот с марта публиковал в канале r/ChimeraGPT, суля бесплатный доступ к GPT-4 и GPT-3.5-turbo.

Как выяснилось, скрейпинг API-ключей OpenAI на Replit тоже не составляет большого труда. Нужно лишь создать аккаунт на сайте и воспользоваться функцией поиска.

В комментарии для Motherboard представитель OpenAI заявил, что они регулярно сканируют большие публичные репозитории и отзывают найденные ключи к API. Пользователям рекомендуется не раскрывать сгенерированный токен и не хранить его в клиентском коде (браузерах, других приложениях). Полезно также периодически обновлять API-ключ, а в случае компрометации его следует немедленно сменить.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Яндекс Дзен, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru