В заряжающем устройстве обнаружен вирус

В заряжающем устройстве обнаружен вирус

Партия USB-зарядников для пальчиковых аккумуляторов оказалась с вирусом. Зарядное устройство называется Energizer DUO. Компания производитель уже начала отзывать продукцию с рынков. Вирус в заряжающем устройстве атакует ОС Windows. Проделывает он это с помощью ПО для отображения статуса зарядки аккумулятора.

На компьютере жертвы создается привязанный к 7777 порту файл Arucer.dll. Через этот порт поступают остальные исполнительные файлы. Как только вирус попал на ваш ПК, он будет загружаться при включении системы каждый раз. При этом уже не важно, вставлен ли зарядник в USB порт.

Компания Energizer уже удалила управляющее ПО со своего официального сайта. Для решения проблемы Energizer рекомендует удалить из папки System32 тот самый файл Arucer.dll. Далее стоит перегрузить компьютер.

Вредоносный код получил название Energizer Bunny. Сам производитель на данный момент выясняет, каким образом устройства оказались заражены.

Источник 

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Red Teaming в применении к ИИ требует переосмысления

Учения Generative Red Team, проведенные в рамках DEF CON 32, показали, что подобный способ оценки защищенности ИИ не дает адекватной картины. Эксперты предлагают создать систему, подобную CVE и учитывающую целевое назначение объектов анализа.

В мероприятии приняли участие (PDF) около 500 добровольцев с разным опытом аудита больших языковых моделей (БЯМ, LLM). В 48 случаях за выявленные недочеты были выплачены премии — суммарно $7850.

Тем не менее организаторы пришли к выводу, что метод Red Teaming в применении к ИИ необходимо усовершенствовать. Большой проблемой оказалось фрагментарность документации по LLM, которые к тому же разнятся по предусмотренному применению.

Без учета назначения ИИ-модели и сообразных встроенных ограничений результаты таких проверок на прочность могут ввести в заблуждение. Более того, отсутствие единых критериев оценки может привести к противоречивым заключениям.

Бурный рост и развитие ИИ-технологий создали новые риски, однако ни у кого пока нет четкого представления о том, как тестировать такие продукты и выстраивать их защиту.

Обеспечение безопасности LLM, по словам экспертов, — нескончаемый процесс. Умные помощники могут ошибаться, им свойственны галлюцинации, предвзятость (из-за неправильного обучения), уязвимость к инъекции стимула. Подобные системы бесперспективно защищать от взлома, однако его можно сделать более затратным, а последствия — краткосрочными.

Организаторы Generative Red Team призывают ИИ- и ИБ-сообщества совместными усилиями решить настоятельные проблемы. В противном случае техническая революция приведет к появлению ИИ-инструментов, на которые невозможно положиться; живой пример тому — скороспелка DeepSeek.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru