Переписка россиян всё чаще утекает: за 6 месяцев — 11,3 млн логинов

Переписка россиян всё чаще утекает: за 6 месяцев — 11,3 млн логинов

Переписка россиян всё чаще утекает: за 6 месяцев — 11,3 млн логинов

За первое полугодие 2025 года специалисты Innostage SOC CyberART зафиксировали заметные изменения в активности киберугроз против российских компаний. Главное — хакеры стали чаще использовать персонализированные рассылки вместо массовых фишинговых атак.

Теперь злоумышленники всё чаще рассылают таргетированные письма, которые внешне не отличить от обычной переписки с контрагентами, официальных уведомлений или внутренних сообщений.

Чтобы сделать такие атаки более убедительными, они используют искусственный интеллект и информацию о внутренних процессах компаний. Этот подход делает атаки эффективнее и сложнее для обнаружения.

А вот популярность атак с подменой голоса или личности руководителя — так называемых FakeBoss — начала снижаться. В 2025 году среди клиентов Innostage не было ни одного успешного случая такого обмана.

OSINT-инциденты: плюс 50%

Общее число инцидентов, отнесённых к категории OSINT, выросло на 50% и почти достигло 10 тысяч. Более 70% из них связаны с изменениями на периметре ИТ-инфраструктуры: появление новых портов, изменение конфигурации, добавление ресурсов и т. д. Ещё около 12% касаются утечек через репозитории.

Интересно, что несмотря на это, упоминания IP-адресов компаний в таргет-листах для DDoS стали появляться реже — но только по количеству ссылок, а не по числу самих атак.

Утечки аккаунтов: «чистых» учёток всё меньше

В первом полугодии зафиксировано 694 упоминания об утечках, при этом общее количество скомпрометированных учёток составило 11,3 миллиона. Из них почти 10 миллионов — уникальные. Но по-настоящему «новых» — только 5,7 миллиона. Это значит, что большинство пользователей уже хотя бы раз «засветились» в каких-то сливах.

И 98% всех утечек — это данные небольших компаний. Причины — слабая защита и отсутствие базовых мер профилактики. Хакеры, к тому же, выбирают момент для публикации: обычно — перед праздниками или в дни, когда внимание к инфобезопасности ослабевает.

Один из новых векторов атак — использование логов программ-инфостилеров, которые крадут чувствительные данные с компьютеров или смартфонов. Чаще всего злоумышленники не сами собирают эти данные, а покупают уже готовые дампы.

Как защищаются компании

Растёт популярность подхода «абсолютного минимума»: оставить только сайт-визитку, корпоративную почту и VPN. Это уменьшает поверхность атаки и облегчает контроль. Также компании регулярно чистят лишние директории CMS, обновляют ПО и следят за тем, какие файлы могут индексироваться поисковиками.

DDoS-атаки: прицельно и по IP

Всё ещё актуальны атаки, при которых онлайн-сервисы перегружают трафиком. За полгода на отражение крупных DDoS-атак специалисты потратили в общей сложности 37 суток. Число атакуемых IP-адресов выросло в четыре раза — до более чем 900 тысяч, а число атакуемых доменов осталось примерно на прежнем уровне — чуть больше 3600.

Среди инструментов, которые применяют для DDoS, всё меньше используются старые решения вроде MHDDoS или DB1000N — их трафик уже неплохо блокируется провайдерами. На смену им приходят более сложные утилиты, такие как Gorgon Stress и Distress. Они лучше имитируют обычный трафик, поэтому их сложнее поймать и остановить.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru