Онлайн-сервисы ВГТРК подверглись хакерской атаке

Онлайн-сервисы ВГТРК подверглись хакерской атаке

Онлайн-сервисы ВГТРК подверглись хакерской атаке

Атаке подверглись внутренние сервисы медиахолдинга ВГТРК, а также онлайн-сервисы компании. В холдинг ВГТРК входят федеральные каналы «Россия 1», «Россия -24», «Россия Культура», международный телеканал «РТР Планета», более 80 региональных телерадиокомпаний, а также радиостанции «Радио России», «Маяк», «Культура», «Вести ФМ», «Юность».

«ВГТРК подверглась беспрецедентной хакерской атаке. Не работает онлайн-вещание и внутренние сервисы, даже интернета нет и телефонии.

Это надолго. Слышал, что стерли все с серверов, включая резервные копии. Они работают в аврале с 6 утра. Проблема, как я понял, очень серьезная, и восстановление займет много времени», — сообщил источник издания «Газета Ру».

От официальных комментариев, как отметил автор публикации «Газеты Ру», в ВГТРК отказались, сославшись на отсутствие технических возможностей. Аналогичным образом в холдинге отвечали на просьбы о комментариях и представителям других изданий.

Однако в 10:55 «Интерфакс» со ссылкой на пресс-службу ВГТРК сообщил:

«В ночь на 7 октября онлайн-сервисы ВГТРК подверглись беспрецедентной хакерской атаке, однако существенный урон работе медиахолдинга нанесен не был. Специалисты холдинга ведут работу над устранением последствий этого вредоносного вмешательства».

Также в ВГТРК сообщили об отсутствии угроз эфиру. Теле- и радиоэфир каналов и радиостанций между тем действительно не прерывался. Вещание шло в нормальном режиме как эфирных, так и кабельных и спутниковых каналов.

Работали и сайты компаний холдинга. Однако при попытке просмотра или прослушивания эфира появляется или пустое окно, или сообщения об ошибках — как правило, о недоступности сервиса.

По данным сервиса Сбой.РФ, резкий скачок количества жалоб произошел между 6 и 7 часами 7 октября. При этом картина по онлайн-эфиру радиостанции «Маяк», телеканалов «Россия 1» и «Россия 24» практически идентичная. В общей сложности половина жалоб на сбои приходится на Москву и Санкт-Петербург.

Раннее именно ВГТРК, наряду с «Роскосмосом», называли одной из наиболее приоритетных целей для антироссийских кибергруппировок, которые являются операторами шифровальщиков. В частности, среди таких называлась NB65.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru