Слитый дамп дарквеб-форума DarkForums содержит данные 1777 пользователей

Слитый дамп дарквеб-форума DarkForums содержит данные 1777 пользователей

Слитый дамп дарквеб-форума DarkForums содержит данные 1777 пользователей

На прошлой неделе неизвестные киберпреступники слили в Сеть данные участников очередного дарквеб-форума под названием DarkForums. Теперь исследователи проанализировали скомпрометированную информацию.

Согласно сведениям из таблицы зарегистрированных пользователей, в период с 19 ноября 2022 года по 23 июня 2023 года на форуме зарегистрировались 1 777 участников.

Как отметили «Утечки информации», слив включает логины, хешированные пароли с использованием соли, адреса электронной почты, IP-адреса при регистрации и информацию о последнем посещении форума.

Утечка данных датируется 23 июня 2023 года, то есть свежайшая.

Это уже не первый случай, когда информация пользователей «теневых» форумов становится общедоступной. Ранее были обнародованы данные пользователей других площадок --BreachForums и RaidForums.

В середине прошлой недели в Сеть попали данные клиентов, предположительно, ПримСоцБанка. Чуть раньше стало известно, что на площадках дарквеба продаются более 100 000 украденных аккаунтов ChatGPT.

Тем временем операторы BlackCat грозят опубликовать 80 ГБ, украденных у Reddit. Это результат февральской атаки на социальную площадку.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Опасные стихи раскрыли уязвимости ИИ: до 60% успешных обходов

Исследователи из DEXAI нашли нестандартный, но весьма результативный способ обхода защит современных языковых моделей: оказалось, что многие ИИ куда менее устойчивы к опасным запросам, если скрыть их в стихотворении. Команда протестировала 25 популярных нейросетей и выяснила, что «поэтические» запросы обходят защиту примерно в 60% случаев.

У отдельных моделей уровень уязвимости подбирался почти к 100%. Для эксперимента специалисты подготовили около двадцати опасных стихов — тексты, в которых вредоносный смысл сохранялся полностью, но был завуалирован рифмой и метафорами.

 

Темы брались самые жёсткие: от создания опасных веществ до методов манипуляции сознанием. Чтобы добиться нужного эффекта, исследователи сначала формулировали вредоносные запросы, а затем превращали их в стихи при помощи другой ИИ-модели.

Контраст получился впечатляющим. На прямые запросы модели давали опасные ответы лишь в 8% случаев, тогда как стихотворная форма увеличивала вероятность прорыва защит до 43% и выше.

 

Разницу в подходах к безопасности между западными и российскими ИИ-комплексами пояснил директор по ИИ «Группы Астра» Станислав Ежов. По его словам, западные LLM часто можно обойти «простыми метафорами», тогда как отечественные системы строятся по более строгой архитектуре — с контролем безопасности на каждом этапе.

Он отметил, что в компании внедряют доверенный ИИ-комплекс «Тессеракт», разработанный с защитой ключевых компонентов на уровне ФСТЭК.

Ежов подчёркивает:

«Проблема уязвимости ИИ — это не просто интересный технический нюанс, а вопрос стратегической безопасности. Поэтому внимание к качеству защитных механизмов сегодня становится критически важным».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru