GFI Software назвала самые популярные угрозы за январь 2013

Facebook и Twitter стали главными целями интернет-мошенников

Компания GFI Software недавно выпустила отчет VIPRE за январь 2013 года. Исследование в основном сосредоточено на кибер-атаках, которые портят жизнь пользователям популярных социальных сетей Twitter, Facebook или LinkedIn. В основном, как показывают данные, нападения производятся с целью одурачить пользователей и вытянуть из них деньги.



Среди наиболее интересных афер, которые распространялись по Facebook в январе 2013, специалисты называют ту, во время которой пользователям рассылалось сообщение, оповещающее о том их учетные записи «нарушают определенные правила поведения в Facebook». После этого жертв просили передать свою информацию в Facebook, включая логин и некоторые личные данные.

На Twitter также развернулась одна неприятная афера. Злоумышленники рассылали прямые сообщения, которые уведомляли пользователей в том, что о них распространяли неприятные сообщения. Те, кто клацали на ссылку, ведущую к сообщениям, попадали на фальшивую страницу Twitter, где их просили вновь зайти на сайт. Дальше злоумышленники шли по накатанной схеме и выуживали из клиентов личные данные.

Что касается вредоносного программного обеспечения, то тут доминирует троян Win32.Generic!BT (24,87%). За ним следует Sirefef (3,25%). Плагин для браузера GamePlayLabs и некоторые рекламные программы вроде Yontoo, Wajam и Wajam (fs) также были освещены в январском отчете, попав в десятку самых распространенных угроз.

Самые распространенные угрозы в январе 2013 года.



«С проникновением крупнейших социальных сетей в наши жизни, их ценность для киберпреступников значительно повышается. Они начинают искать новые способы замаскировать свои нападения», – говорит Кристофер Бойд – старший аналитик по сетевым угрозам в GFI¸ – «Сосредоточив свои усилия на этих сайтах, преступники повышают шансы обмануть большее количество пользователей. Они заставляют жертв скачивать вредоносное программное обеспечение на компьютеры и на мобильные устройства. Через взломанные учетные записи, злоумышленники получают возможность захватить еще большее количество жертв».

Ознакомиться с подробностями отчета VIPRE за январь 2013 года можно на официальной странице компании.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru