В Ростехе обсудили способы защиты от кибер-вирусов Petya и WannaCry

В Ростехе обсудили способы защиты от кибер-вирусов Petya и WannaCry

В Ростехе обсудили способы защиты от кибер-вирусов Petya и WannaCry

В Подмосковье состоялось заседание клуба ИБ-директоров Государственной корпорации «Ростех» (КИБР), организуемое «РТ-ИНФОРМ» (Центр компетенции в области ИТ и ИБ Госкорпорации Ростех). Главной темой встречи стало обсуждение актуальных угроз информационной безопасности и способов их предотвращения.

По информации экспертов «РТ-ИНФОРМ», только в 2017 году на предприятиях Ростеха было зафиксировано более 200 компьютерных атак. 

В мероприятии приняли участие представители департамента безопасности Госкорпорации, ФСБ России, руководители направлений ИБ холдингов и ключевых предприятий Ростеха, сотрудники «РТ-ИНФОРМ» и крупнейших вендоров в области информационной безопасности. Всего более 70 человек.

Программа заседания включала презентацию успешных кейсов по предотвращению киберугроз и обсуждение механизмов действия самых современных кибер-вирусов «Petya» и вирусов-шифровальщиков WannaCry, число инцидентов с применением которых, в последнее время резко возросло. Актуален вопрос, а какие средства противодействия кибер-вирусам есть у компаний. 

Ростех и  прежде пресекал попытки кибератак на своих предприятиях, только за 2017 год специалистами центра было выявлено более 200 компьютерных атак, в том числе связанных с шифрованием данных злоумышленниками. Исходя из полученного опыта и новейших средств противодействия кибер-вирусам, Ростех намерен не допустить киберугроз, в том числе и с участием «Petya», на предприятиях входящих в Госкорпорацию.

Команда по информационной безопасности «РТ-ИНФОРМ» подвела итоги работы за год Корпоративного Центра Обнаружения, Предупреждения и Ликвидации последствий компьютерных атак (КЦОПЛ) и рассказала о перспективах его развития. Напомним, что КЦОПЛ дает возможность осуществлять оперативный контроль и предупреждать компьютерные атаки и инциденты на предприятиях Ростеха. 

Дополнительно состоялось обсуждение вопросов реагирования и расследования масштабных компьютерных атак в системе ГосСОПКА, организации системы ИБ в Госкорпорации, проблем развития ИБ на предприятиях, инновационных подходов в решении практических задач.

«Одной из приоритетных задач для «РТ-ИНФОРМ» как центра компетенции в области информационной безопасности Ростеха является обеспечение информационной безопасности корпорации и предприятий, - отметил генеральный директор «РТ-ИНФОРМ» Камиль Газизов. «РТ-ИНФОРМ» намерен и далее повышать качество средств защиты информации, а также выработать унифицированный подход к их применению на всех предприятиях Госкорпорации. В дальнейшем это должно способствовать сокращению затрат для компаний Ростеха на обеспечение информационной безопасности почти на 10%, а по ряду позиций – до 30%».

Сообщество ИБ-директоров Ростеха собирается по инициативе «РТ-ИНФОРМ» с 2015 года. В числе участников таких встреч - представители «Вертолетов России», «Швабе», «Рособоронэкспорта», «Высокоточных комплексов», «Объединенной двигателестроительной корпорации», «Технодинамики», «Техмаша», «Уралвагонзавода», «Росэлектроники», «РТ-Химкомпозита», «КАМАЗа», «Новикомбанка» и других компаний.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru