Операторы BlackCat грозят опубликовать 80 ГБ, украденных у Reddit

Операторы BlackCat грозят опубликовать 80 ГБ, украденных у Reddit

Операторы BlackCat грозят опубликовать 80 ГБ, украденных у Reddit

За февральской крупной атакой на Reddit, судя по всему, стоит группировка BlackCat (ALPHV). Теперь злоумышленники грозят слить 80 ГБ данных, похищенных в ходе взлома систем социальной площадки.

В начале февраля мы писали, что неустановленные киберпреступники утащили внутренние документы и часть кода Reddit. В самой компании отметили, что атакующие хорошо подготовились и организовали грамотный фишинг на сотрудников.

Злоумышленники создали замаскированный под Reddit сайт, на который перенаправляли работников. С помощью этого ресурса фишеры получали учётные данные служащих и токены двухфакторной аутентификации.

На данный момент, как отметил исследователь Доминик Альвьери, ответственность за февральскую атаку на Reddit взяли на себя операторы шифровальщика BlackCat. Кстати, в начале этого месяца специалисты зафиксировали новую версию этого вредоноса — Sphynx.

Кибербанда опубликовала пост под заголовком «Reddit Files», в котором утверждается, что злоумышленники смогли вытащить из сети корпорации 80 ГБ данных. При этом преступники подчёркивают, что пытались связаться с представителями Reddit дважды (13 апреля и 1 июня), требуя выкуп в размере 4,5 млн долларов, но не получили никакой реакции.

«Понятное дело, что руководство соцсети не заплатит выкуп. Однако мне доставляет удовольствие тот факт, что теперь пользователи узнают, в каком количестве Reddit собирает их конфиденциальные данные», — пишет один из операторов BlackCat.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI будет передавать опасные чаты правоохранительным органам

Истории о том, как диалоги с чат-ботами заканчиваются психозами, госпитализацией или даже суицидом, уже больше года появляются в СМИ и соцсетях. На этом фоне OpenAI долгое время ограничивалась лишь общими обещаниями «улучшить защиту».

Теперь ситуация изменилась: в блоге OpenAI признала свои недоработки и сообщила, что начала сканировать пользовательские чаты на предмет опасного контента.

Если алгоритм «чует неладное», диалог попадает к небольшой команде сотрудников. А в случаях, когда модераторы видят «угрозу серьёзного физического вреда другим людям», компания может передать информацию в правоохранительные органы.

Интересный момент: о самоубийствах пока в полицию не сообщают — OpenAI объясняет это уважением к приватности и «уникально личному характеру общения с ChatGPT». Но компания открыто признаёт: да, мы читаем подозрительные чаты, а иногда делимся ими с властями.

Это, мягко говоря, выглядит противоречиво. С одной стороны, OpenAI отклоняет запросы издателей (включая New York Times), которые требуют доступ к логам переписок ради судебных разбирательств — и делает это под лозунгом защиты приватности пользователей. С другой — сама же может передавать чаты полиции.

Добавим к этому, что ещё недавно CEO Сэм Альтман честно говорил: разговор с ChatGPT как с психотерапевтом или юристом не равноценен конфиденциальной беседе с реальным специалистом. И если суды обяжут, то переписка пользователей вполне может оказаться в материалах дела.

В итоге получается странная картина: OpenAI вроде бы пытается закрыть дыры и снизить риски трагедий, но делает это так, что доверия к сервису у людей становится ещё меньше.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru