Власти обеспокоены внедрением зловредов в медицинские приборы

Власти обеспокоены внедрением зловредов в медицинские приборы

Программные ошибки — одна из основных причин, почему медицинские приборы выходят из строя. Администрация научно-технических лабораторий в Управлении по контролю качества пищевых продуктов и лекарственных средств США опубликовала отчёт с угрожающей статистикой: 24% всех поломок в 2011 году списано на ошибки в софте. Другими словами, качество кода всё больше влияет на работу медицинского оборудования.

Программное обеспечения является неотъемлемой частью большого количества медицинских приборов. Размер программ увеличивается, они становятся сложнее и функциональнее. С количеством строк кода растёт и количество ошибок. Это выглядит довольно опасно, ведь от работы медицинских приборов зависят жизни людей, а теперь эти жизни, фактически, в руках программистов. Впрочем, таковы реалии научно-технического прогресса — это неизбежная цена за увеличение сложности медицинского оборудования, которое становится компьютеризированным.

В связи с этим, Управление по контролю качества пищевых продуктов и лекарственных средств (FDA) намерено набрать дополнительных сотрудников в лаборатории, которые занимаются тестированием программ, оценкой их качества и безопасности.

Любопытно, что отчёт FDA опубликован почти в тот же день, когда СМИ облетела новость об инъекции вредоносного кода на сайте медицинской компании, с которого распространялись апдейты для больничных респираторов. Сайт был заражён в течение двух месяцев. Конечно, инъекция не имеет никакого отношения к апдейтам, но можно представить, что в будущем хакеры заинтересуются этой сферой.

Даже эксперты FDA признают такую угрозу. В отчёте сказано, что нужно дополнительно изучить вопрос по «выявлению зловредов в медицинских приборах... и обратному инжинирингу определённых типов зловредов для определения конкретных мер защиты, которые должен применить производитель».

Эксперты по безопасности давно говорят о слабой защите медицинских приборов. Например, в октябре прошлого года хакер Бэрнэби Джек (Barnaby Jack) продемонстрировал способ дистанционного управления инсулиновым имплантатом от компании Medtronic. Атака позволяет с расстояния до 150 метров выпустить смертельную дозу инсулина в организм человека, у которого в теле установлен такой прибор (на фото). Похожую презентацию делали хакеры на конференции DEFCON в августе 2011-го.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Исследователи показали, как управлять «мыслями» ИИ на лету

Команда из T-Bank AI Research предложила новый подход к интерпретации и управлению большими языковыми моделями — вроде тех, что лежат в основе современных чат-ботов. Разработку представили на международной конференции ICML в Ванкувере, одном из крупнейших событий в области машинного обучения.

Речь идёт о модифицированном методе SAE Match, который позволяет не просто наблюдать за тем, как модель обрабатывает информацию, но и влиять на это поведение без переобучения или вмешательства в архитектуру.

Что нового?

Вместо того чтобы просто смотреть, какие признаки активируются в слоях модели, исследователи научились строить граф потока признаков. Он показывает, как определённые смысловые элементы (например, тема или стиль ответа) зарождаются и проходят через внутренние механизмы модели — от attention до feedforward.

Самое интересное — теперь можно точечно усиливать или подавлять эти элементы. Например, изменить тональность текста или убрать нежелательную тему. Причём это делается не путём настройки модели заново, а с помощью управления внутренними активностями на нужных этапах.

Почему это важно?

  • Можно контролировать поведение модели более точно, если воздействовать сразу на несколько уровней обработки.
  • Не нужны дополнительные данные или переобучение, метод работает с уже обученными моделями.
  • Прозрачность — можно проследить, откуда берётся тот или иной фрагмент текста: из контекста или из внутренних «знаний» модели.
  • Безопасность — если модель сгенерировала что-то нежелательное, теперь можно понять, почему так вышло, и в будущем избежать повторения.

В чём уникальность?

Раньше интерпретация ИИ сводилась к тому, чтобы просто наблюдать, как он работает. Теперь же появляется возможность вмешиваться в процесс генерации — причём быстро и точечно. Это может быть полезно не только в научных задачах, но и в реальных продуктах, где важно избегать неожиданных или опасных ответов от ИИ.

Так что теперь исследователи могут не просто догадываться, что происходит внутри модели, а действительно видеть и управлять этими процессами. И это, по сути, шаг к более контролируемому и предсказуемому искусственному интеллекту.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru