Сбер начал внедрять отечественную систему удаленного доступа

Сбер начал внедрять отечественную систему удаленного доступа

Сбер начал внедрять отечественную систему удаленного доступа

Сбер внедрил новую систему удалённого доступа для сотрудников, работающих дистанционно, заменив её на отечественное решение Remote Access VPN. Проект реализуется совместно с компаниями «Амикон» и «ИТ-Экспертиза».

Remote Access VPN представляет собой виртуальную частную сеть (VPN), обеспечивающую защищённое соединение.

Технология шифрует передаваемые данные, снижая риск их перехвата и несанкционированного доступа, что позволяет повысить безопасность удалённой работы.

Новая система охватывает всю корпоративную инфраструктуру банка, включая центральный офис и региональные филиалы. Одним из ключевых требований при её разработке стала совместимость с различными операционными системами.

Совместная разработка с российскими ИТ-компаниями

По словам заместителя генерального директора «Амикон» Георгия Кораблёва, новая система «Амиконнект» объединяет передовые отечественные технологии и экспертный опыт.

«Мы создали "Амиконнект", интегрировав лучшие российские разработки, чтобы предложить рынку решение, соответствующее высоким стандартам безопасности и надёжности. Партнёрство с "ИТ-Экспертизой" и их продуктом "Сакура", а также успешный опыт Сбера в использовании отечественного ПО позволяют нам выйти на новый уровень киберзащиты, обеспечивая стабильную работу систем в любых условиях», — отметил Кораблёв.

Старший вице-президент, руководитель блока «Технологии» Сбербанка Кирилл Меньшов подчеркнул значимость сотрудничества с российскими разработчиками:

«Мы подбираем лучшие инструменты, исходя из конкретных задач и потребностей. Сбер не только создаёт собственные решения, но и использует передовые отечественные ИТ-разработки, обеспечивая надёжность и бесперебойную работу инфраструктуры. Совместно с российскими вендорами мы реализуем проект по внедрению VPN-системы, которая гарантирует стабильность работы независимо от внешних факторов. Этот шаг не только укрепляет отечественную ИТ-индустрию, но и способствует развитию цифровых технологий в стране, а также совершенствованию качества программного обеспечения».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru