Миллионы дырявых ПЛК, свитчей, IoT-устройств угрожают безопасности КИИ

Миллионы дырявых ПЛК, свитчей, IoT-устройств угрожают безопасности КИИ

Миллионы дырявых ПЛК, свитчей, IoT-устройств угрожают безопасности КИИ

Одиннадцать уязвимостей, объединенных под именем Urgent/11, были обнародованы в августе 2019 года. Пять багов с общим названием CDPwn объявились в начале этого года и тогда же получили заплатки. Тем не менее, 97% устройств, подверженных Urgent/11, и 80% устройств, уязвимых к CDPwn-атакам, до сих пор не пропатчены.

Критические уязвимости Urgent/11 (PDF) были выявлены в операционной системе VxWorks производства Wind River и ряде других RTOS (real time operating system, ОС реального времени). Все опасные проблемы, включая шесть RCE, привязаны к стеку протоколов TCP/IP и присутствуют во всех версиях VxWorks, выпущенных за последние 13 лет.

Большинство багов Urgent/11 позволяют захватить контроль над целевым устройством без аутентификации и взаимодействия с пользователем. По оценке Armis, на момент раскрытия уязвимостей они затрагивали свыше 2 млрд устройств, используемых для управления медицинским оборудованием, объектами корпоративной значимости, технологическими процессами в промышленности.

Наличие Urgent/11 публично признали более 30 вендоров, в том числе Rockwell Automation, Schneider Electric и Siemens. Многие из них опубликовали предупреждения и выпустили патчи для своих продуктов. Насколько известно, злоумышленники даже не пытались использовать эти уязвимости в атаках.

В появлении CDPwn (PDF) повинен проприетарный протокол обнаружения сетевых устройств — CDP (Cisco Discovery Protocol, протокол обнаружения сетевых устройств Cisco). Проблемы этого протокола, по оценкам, затрагивают десятки млн продуктов Cisco, включая роутеры, свитчи, IP-камеры и устройства VoIP-связи с версиями прошивок, вышедшими за последние 10 лет. Одна из уязвимостей CDPwn недавно засветилась в целевых атаках китайских хакеров.

Аналитики из ИБ-компании Armis имеют возможность отслеживать уязвимость оборудования по версии прошивки. В настоящее время облачная платформа Armis позволяет мониторить 280 млн устройств, используемых в критически важных отраслях.

Для выявления уровня патчинга Urgent/11 исследователи составили контрольную выборку из ПЛК производства Rockwell Automation и Schneider Electric. Присутствие CDPwn они отслеживали по состоянию свитчей Cisco Nexus и VoIP-устройств серий 78xx и 88xx. Результаты проверки в обоих случаях оказались плачевными.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru