Злоумышленники притворяются дружелюбными офисными принтерами

Злоумышленники притворяются дружелюбными офисными принтерами

Новые способы обмана людей для открытия вредоносных приложений а электронной почте и заражения компьютеров вредоносными программами были замечены исследователями Symantec.



Хакеры изобрели новый приём обмана людей для открытия вредоносных приложений: они рассылают мейлы, которые якобы пришли от офисных принтеров, многие из которых сейчас способны отправлять отсканированные документы на электронную почту, сообщает xakep.ru

"Это новая тактика, с которой мы раньше не сталкивались", - говорит Пол Вуд, старший аналитик отдела разведки Symantec.cloud.

Все мейлы неизменно содержат один из видов загрузчиков, которые используются для загрузки других вредоносных программы или кражи документов с компьютера.

Symantec опубликовал примеры таких недавно полученных писем в последнем отчете, выпущенном во вторник. На первый взгляд сообщения с темой "Fwd: Отсканировано HP Officejet" выглядят весьма убедительно. Далее читаем - "Прикреплённый документ был отсканирован и выслан вам с помощью Hewlett-Packard HP Officejet 05701J" и затем - "Отправитель Мортон".

Вуд заявил, что это объединяет всех злоумышленников: они выдумывают имя отправителя и создают впечатление, что письмо пришло с такого же домена, к которому относится получатель. Некоторые из сообщений, перехваченных Symantec, на первый взгляд кажутся внутренней электронной почтой компании. Это значительно повышает вероятность того, что человек, получивший письмо, откроет вложение.

Вложение представляет собой файл .zip, что уже является странным. Вуд сказал: "Oчень маловероятно, что большинство принтеров, обладающих способностью рассылать электронную почту, действительно могут отправить файл .zip; обычно такие принтеры посылают графические файлы".

"Хотя Windows способен открывать файлы .zip, очевидно, что мошенники пытаются скрыть это расширение от тех, кто пользуется альтернативными инструментами, чтобы разархивировать содержимое. В некоторых инструментах архивации вредоносное приложение появляется с расширением .doc или .jpg. Хакеры манипулируют именами файлов, чтобы вызывать меньше подозрений", - пояснил Вуд.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru