Блумберг сообщил о новом деле ФБР против кибервымогателей

Блумберг сообщил о новом деле ФБР против кибервымогателей

Блумберг сообщил о новом деле ФБР против кибервымогателей

ФБР ведет расследование в отношении хакеров, требующих выкупы за нераскрытие информации с групп либеральных активистов в США, обвиненных ранее президентом США Дональдом Трампом в организации протестов против него, сообщает агентство Блумберг со ссылкой на источник, близкий к расследованию. При этом само ФБР отказалось от комментариев.

Атаке хакеров после президентских выборов в США подверглись как минимум 12 групп активистов, сообщили агентству источники. Хакерам удалось получить переписку из электронной почты сотрудников организаций, а также похитить данные из популярных приложений, например, SharePoint, сообщил агентству источник.

Злоумышленники требовали выкупа в биткойнах в эквиваленте от 30 до 150 тысяч долларов, приложив к требованиям образцы похищенной информации, сообщил агентству источник, знакомый с ходом расследования. Агентство сообщает, что "несколько" групп уже заплатили требуемые суммы, пишет ria.ru.

В одной из переписок группа обсуждала с одним из спонсоров способы "покрыть за счет гранта расходы протестующих против Трампа". "Личности не раскрывались, и не ясно, заплатили ли протестующим", — отмечает агентство.

Атакам подверглась в том числе либеральная американская организация Center for American Progress Action Fund, связанная с администрациями Клинтона и Обамы. Представители Центра отказались прокомментировать ситуацию. Трамп в своем Twitter 21 февраля обвинил либеральные группы в том, что они организовали против него протесты.

При этом агентство сообщает, что не в курсе осведомленности Трампа или его советников о ходе расследования. Блумберг утверждает без ссылок на источники, что атака схожа с методами группы хакеров CozyBear, якобы связанной с РФ и ранее обвинявшейся в атаке на сайты Демократической партии США.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru