ЛК и AVL займутся разработкой защиты для умных автомобилей

ЛК и AVL займутся разработкой защиты для умных автомобилей

ЛК и AVL займутся разработкой защиты для умных автомобилей

«Лаборатория Касперского» и компания AVL – разработчик технологий, применяемых в автомобильных двигателях, – объединяют усилия в целях обеспечения кибербезопасности умных автомобильных систем нового поколения.

Соответствующее соглашение о сотрудничестве было подписано 1 июня в Регенсбурге председателем совета директоров и генеральным директором AVL Гельмутом Листом (Helmut List) и директором по продажам «Лаборатории Касперского» Александром Моисеевым.

В рамках этого партнерства компании планируют работать над созданием программного решения, которое обеспечит безопасное соединение как самого автомобиля, так и его компонентов с внешней облачной или сетевой инфраструктурой и исключит возможность несанкционированного вмешательства в эти процессы. Помимо этого, «Лаборатория Касперского» и AVL предложат способы интеграции лучших технологий и методов киберзащиты во встраиваемые автомобильные системы, а также разработают набор тренингов и образовательных программ по безопасности современных автомобилей.

Одним из главных результатов сотрудничества станет создание надежной и гибкой IT-платформы, которая позволит автопроизводителям внедрять в машины модуль безопасного соединения (Secure Communication Unit – SCU), используя программные и аппаратные компоненты, предусмотренные технологией производства. Такое комплексное решение не только даст автомобильной индустрии необходимые технологии защиты, но также поможет разработать новые концепции отражения киберугроз – в итоге все это позволит продумывать безопасность автомобилей еще на стадии их проектирования и производства. Прототип нового SCU-решения «Лаборатория Касперского» и AVL планируют представить на форуме New Mobility World / IAA 2017, который будет проходить во Франкфурте с 12 по 17 сентября.  

«Эксперты «Лаборатории Касперского» уже давно изучают уязвимости умных автомобилей и исследуют все многообразие киберугроз, представляющих опасность для автоиндустрии и автовладельцев. Мы уверены, что объединение усилий и знаний секьюрити-экспертов и автопроизводителей – единственный действенный способ обеспечить безопасность экосистемы умных машин. Наше партнерство с AVL – важный шаг в этом направлении, который поможет разработать новые методы и технологии защиты всех соединений автомобиля как с внутренней, так и с внешней инфраструктурой», – отметил Александр Моисеев, директор по продажам «Лаборатории Касперского». 

«AVL уделяет большое внимание безопасности и надежности каналов коммуникации между автомобилем и окружающей его инфраструктурой. Наше сотрудничество с «Лабораторией Касперского» поможет нам реализовать комплексный подход к обеспечению защиты автомобильных систем и стать одним из ведущих партнеров в области транспортной безопасности», – пояснил Георг Шваб (Georg Schwab), управляющий директор компании AVL.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Исследователи показали, как управлять «мыслями» ИИ на лету

Команда из T-Bank AI Research предложила новый подход к интерпретации и управлению большими языковыми моделями — вроде тех, что лежат в основе современных чат-ботов. Разработку представили на международной конференции ICML в Ванкувере, одном из крупнейших событий в области машинного обучения.

Речь идёт о модифицированном методе SAE Match, который позволяет не просто наблюдать за тем, как модель обрабатывает информацию, но и влиять на это поведение без переобучения или вмешательства в архитектуру.

Что нового?

Вместо того чтобы просто смотреть, какие признаки активируются в слоях модели, исследователи научились строить граф потока признаков. Он показывает, как определённые смысловые элементы (например, тема или стиль ответа) зарождаются и проходят через внутренние механизмы модели — от attention до feedforward.

Самое интересное — теперь можно точечно усиливать или подавлять эти элементы. Например, изменить тональность текста или убрать нежелательную тему. Причём это делается не путём настройки модели заново, а с помощью управления внутренними активностями на нужных этапах.

Почему это важно?

  • Можно контролировать поведение модели более точно, если воздействовать сразу на несколько уровней обработки.
  • Не нужны дополнительные данные или переобучение, метод работает с уже обученными моделями.
  • Прозрачность — можно проследить, откуда берётся тот или иной фрагмент текста: из контекста или из внутренних «знаний» модели.
  • Безопасность — если модель сгенерировала что-то нежелательное, теперь можно понять, почему так вышло, и в будущем избежать повторения.

В чём уникальность?

Раньше интерпретация ИИ сводилась к тому, чтобы просто наблюдать, как он работает. Теперь же появляется возможность вмешиваться в процесс генерации — причём быстро и точечно. Это может быть полезно не только в научных задачах, но и в реальных продуктах, где важно избегать неожиданных или опасных ответов от ИИ.

Так что теперь исследователи могут не просто догадываться, что происходит внутри модели, а действительно видеть и управлять этими процессами. И это, по сути, шаг к более контролируемому и предсказуемому искусственному интеллекту.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru