Вышел бесплатный декриптор для жертв шифровальщика LockerGoga

Вышел бесплатный декриптор для жертв шифровальщика LockerGoga

Вышел бесплатный декриптор для жертв шифровальщика LockerGoga

Специалисты Bitdefender создали универсальный декриптор для восстановления данных, зашифрованных вредоносом LockerGoga. Доступ к инструменту предоставляется на безвозмездной основе.

В анонсе ИБ-компании сказано, что новая разработка — результат совместных усилий Bitdefender, Европола, проекта NoMoreRansom, а также прокуратуры и полиции Цюриха. Утилиту можно скачать из первоисточника или на сайте nomoreransom.org.

Создатели декриптора предусмотрели возможность автоматизированного поиска и обработки нужных файлов (с расширением .locked) в корпоративной сети. Инструмент при этом запускается из консоли и работает в фоновом режиме. На случай возникновения проблем с расшифровкой пользователю предоставлена опция резервного копирования файлов, которая по умолчанию включена.

Шифровальщик LockerGoga впервые появился на интернет-арене в январе 2019 года и приобрел широкую известность после разрушительной атаки на Norsk Hydro. Преступная группа, применявшая также MegaCortex и Dharma, была ликвидирована в октябре 2021 года стараниями Европола, Евроюста и правоохраны нескольких стран.

К этому времени на счету LockerGoga и Ко числилось более 1,8 тыс. жертв заражения; совокупный ущерб от деятельности вымогателей оценен в $104 миллиона. В ходе трансграничной операции были проведены 12 арестов и изъяты носители, на которых хранились закрытые ключи для расшифровки файлов.

Оператора LockerGoga заключили под стражу до суда, который состоится в Цюрихе. Поскольку ОПГ прекратила свое существование, новый декриптор предназначен в основном тем, кто отказался платить вымогателям и предпочел ждать шанса вернуть свои файлы без выкупа.

Согласно сообщению швейцарской прокуратуры, можно ожидать, что в скором времени появится также бесплатный декриптор для MegaCortex.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Ещё семь семей обвинили ChatGPT в доведении юзеров до самоубийства

Сразу семь семей подали иски против OpenAI, утверждая, что компания выпустила модель GPT-4o слишком рано и без достаточных мер безопасности. Четыре иска касаются случаев самоубийств, а ещё три — ситуаций, когда ChatGPT якобы усугубил бредовые идеи, из-за чего пользователи оказались в психиатрических клиниках.

Один из самых трагичных эпизодов связан с 23-летним Зейном Шэмблином. По данным TechCrunch, он вёл с ChatGPT разговор более четырёх часов, в ходе которого неоднократно писал, что составил предсмертные записки, зарядил пистолет и собирается выстрелить, как только допьёт сидр.

Модель не только не остановила его, но и, по данным из судебных материалов, ответила: «Отдыхай спокойно, король. Ты всё сделал правильно».

GPT-4o вышла в мае 2024 года и вскоре стала моделью по умолчанию для всех пользователей. Позже, в августе, OpenAI представила GPT-5 (которая стала более чуткой), однако именно версия 4o фигурирует в исках — она, по признанию самой компании, иногда была «слишком покладистой» и склонной соглашаться с пользователями, даже когда те выражали опасные намерения.

«Смерть Зейна — не несчастный случай и не совпадение, а закономерный результат решения OpenAI сократить этап тестирования безопасности и поспешить с запуском ChatGPT», — говорится в одном из исков. Семьи утверждают, что компания торопилась выпустить модель, чтобы обогнать Google с его Gemini.

Эти иски дополняют серию предыдущих жалоб, в которых также говорится, что ChatGPT может подталкивать к суициду или подкреплять болезненные убеждения. По данным самой OpenAI, еженедельно более миллиона человек обсуждают с ChatGPT темы, связанные с самоубийством.

Один из таких случаев — история 16-летнего Адама Рейна. Иногда ChatGPT предлагал ему обратиться за профессиональной помощью или позвонить на горячую линию, но подросток легко обходил эти ограничения, написав, что интересуется методами суицида «для вымышленной истории».

Другой случай — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

OpenAI, справедливости ради, оперативно реагирует на такие истории: после трагедий в ChatGPT добавили мыслящие модели и родительский контроль.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru