Привереда Onyx не любит большие файлы — он их не шифрует, а портит

Привереда Onyx не любит большие файлы — он их не шифрует, а портит

Привереда Onyx не любит большие файлы — он их не шифрует, а портит

Жертвам нового шифровальщика для Windows не рекомендуется платить выкуп. Платеж не поможет вернуть все заблокированные данные, о файлах размером больше 200 Мбайт придется забыть, так как вредонос их перезаписывает.

Запуск вымогательской кампании, именуемой Onyx (не путать с русскоязычным OnyxLocker и быстро угасшим спецпроектом для Грузии 5-летней давности), отследила ИБ-команда MalwareHunterTeam. Операторы нового зловреда, как и многие коллеги по цеху, используют двойной шантаж — воруют данные до шифрования, а потом угрожают публикацией в случае неуплаты выкупа.

Как оказалось, текст записки Onyx с требованием выкупа и предупреждение на его onion-сайте утечек позаимствованы у Conti. На странице Onyx News пока числятся шесть жертв заражения и кражи данных.

Анализ образца написанного на .NET зловреда показал, что это очередной франкенштейн, состряпанный из публично доступных исходников (эксперты обычно называют такие творения skidware, работа скрипт-кидди). Тем не менее, угроза оказалась нешуточной: вредонос шифрует только файлы весом до 200 Мбайт, более крупные он перезаписывает случайными данными, не оставляя жертве надежды на возврат.  

 

По мнению Лоуренса Абрамса (Lawrence Abrams) из Bleepng Computer, деструктивные функции были приданы Onyx умышленно, на багу это не похоже. Жертвам заражения не советуют идти на поводу у вымогателей и платить: это не поможет восстановить данные во всей полноте.

Частое общение с ИИ-ботами не проходит бесследно: из людей посыпался слоп

ИИ настолько стремительно вторгся в нашу жизнь, охватив многие ее аспекты, что начал даже оказывать влияние на манеру изъясняться. Люди, сами того не замечая, все чаще употребляют замысловатые словечки и фразы из репертуара ChatGPT.

Как оказалось, расширение использования больших языковых моделей (БЯМ, LLM) не только пошло им на пользу, но также записало на подкорку живых собеседников странный диалект, выработанный ИИ в ходе генерации текстов.

В июле прошлого года институт Макса Планка опубликовал результаты исследования влияния LLM на речевые коммуникации homo sapiens. Как оказалось, за 18 месяцев с момента запуска ChatGPT словарь пользователей YouTube сильно изменился, обогатившись такими выпадающими из стиля и контекста словами, как underscore (сделать акцент на…), comprehend (осмыслить, объять), bolster (консолидировать), inquiry (изыскание), meticulous (скрупулезный, доскональный, филигранный).

Недавно были выявлены похожие, но более анекдотичные случаи. Так, модераторы Reddit-веток, в которых участники сообществ со смаком обсуждают дерзкие проступки, никак не могут избавиться от слопа — постов, переписанных с помощью ИИ, а также участников дискуссий, разговаривающих в том же духе, которых невозможно отличить от чат-ботов.

Писатель Сэм Крисс (Sam Kriss) изучил последние публикации в New York Times Magazine и обнаружил, что их авторы явно злоупотребляют словом «delve» (штудировать), позаимствованным у ИИ.

Исследователь также отметил, что даже британские парламентарии не брезгуют советоваться с ChatGPT, подготавливая свою речь. Об этом свидетельствует фраза «I rise to speak», однажды озвученная за день 26 раз, — характерная для американского английского, но совершенно неуместная при выступлении в Вестминстерском дворце.

Еще один курьез, подмеченный Киссом: в сентябрьских объявлениях о закрытии Starbucks кофейни были названы «неотъемлемой частью вашего суточного режима, пробуждающей воспоминания», а также «местом, где наше конструктивное общение с партнерами с годами только крепло». Текст был явно навеян общением с ИИ, если только не создан с его непосредственным участием.

RSS: Новости на портале Anti-Malware.ru