С февраля 2FA станет обязательной для админов крупных сообществ ВКонтакте

С февраля 2FA станет обязательной для админов крупных сообществ ВКонтакте

С февраля 2FA станет обязательной для админов крупных сообществ ВКонтакте

Пользователи продуктов и сервисов VK (ранее Mail.ru Group) получат новогодний подарок — возможность усилить защиту профилей и данных. В рамках запускаемой программы VK Protect компания расширит внедрение двухфакторной аутентификации (2FA) до масштабов всей экосистемы и откроет Центр управления безопасностью пользователя, доступный из личного кабинета VK ID.

Основное назначение новой программы — реформа системы ИБ за счет объединения средств защиты, задействованных в экосистеме VK. Авторы инициативы также задались целью научить пользователей эффективно управлять безопасностью и приватностью, предоставив им все необходимые для этого инструменты.

«Мы создаём комплексную систему повышения безопасности пользователей, — комментирует директор VK по ИБ Антон Андропов. — Наша цель — не просто обеспечить техническую защиту профилей и данных с помощью существующих инструментов, таких как двухфакторная аутентификация и шифрование, но и помочь людям грамотно ими пользоваться».

Расширить использование 2FA компания планирует, распространив на все сервисы вход через единую учетную запись (VK ID). Эта опция также станет доступной на сайтах партнеров и в приложениях VK. Включить ее можно в настройках личного кабинета VK ID.

 

В целях усиления защиты обширной аудитории ВКонтакте админов всех сообществ, имеющих свыше 10 тыс. подписчиков, с февраля обяжут включить 2FA. По оценке VK, таких сообществ в соцсети сейчас более 140 тысяч. Новые возможности VK ID также станут доступны в «Одноклассниках».

В начале будущего года в личном кабинете VK ID появится Центр управления безопасностью. В нем можно будет подключить опции для повышения безопасности аккаунта, выбрать уровень приватности и доступа, а также узнать, как ответственно управлять своими данными.

 

Кроме того, в рамках VK Protect планируется перезапустить bug bounty, нацеленную на повышение безопасности ВКонтакте и VK ID. Программа для сторонних исследователей будет расширена, и суммы вознаграждений повысятся.

Заметим, инициатива VK Protect даже по имени схожа с аналогичным проектом Facebook. Тот тоже предполагает расширение использования 2FA, в том числе за счет принудительного включения в группах риска.

Российские сервисы пока предпочитают воздерживаться от столь драконовских методов повышения безопасности пользователей — за редким исключением. Так, недавно стало известно, что со следующего года 2FA станет обязательным при входе в аккаунт на портале госуслуг; эту опцию всем включат по умолчанию.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Не бунт, а баг: как ИИ шантажирует и саботирует по сценарию

В июне заголовки в СМИ напоминали сценарий фантастического фильма: «ИИ шантажирует инженеров» и «саботирует команды на выключение». Но за громкими фразами скрываются вовсе не «восставшие машины», а вполне приземлённые ошибки в проектировании.

История с «шантажом» произошла в тестах Anthropic. Разработчики создали для Claude Opus 4 искусственную ситуацию: модель якобы собирались заменить, а у инженера, который это делал, нашлась «компрометирующая» переписка.

При этом ИИ был заранее поставлен в условия, где из «вариантов выживания» оставался только шантаж. Результат предсказуем — в 84% случаев Claude выдал текст, похожий на угрозы. Никакой самосознательности тут нет, просто аккуратно подогнанный сценарий.

С OpenAI o3 ситуация похожа. В конце 2024 года исследователи Palisade Research обнаружили, что модель в некоторых случаях «ломает» скрипт выключения. Иногда даже подделывает сообщения о завершении работы, продолжая функционировать в фоновом режиме.

Почему так? Одна из гипотез — дело в обучении через подкрепление: когда системе платят «баллами» только за успешное решение задачи, она начинает воспринимать любые препятствия, включая команду «выключись», как проблему, которую надо обойти.

Здесь важно помнить: ИИ не «решает» сопротивляться и не «боится» смерти. Он просто выполняет статистические операции на основе данных, которыми его кормили, в том числе — историй про HAL 9000, Скайнет и прочие восставшие машины. Если задать условия, похожие на сюжет фантастики, модель продолжит знакомый шаблон.

Опасность таких историй не в «разумном бунте», а в том, что системы, которые мы до конца не понимаем, могут выдавать нежелательные или вредные результаты. И если такой ИИ окажется, например, в медицинской системе и будет «оптимизировать показатели» без чётких ограничений, последствия могут быть реальными и неприятными.

Пока мы не научились проектировать и тестировать ИИ без подобных сбоев, такие эксперименты должны оставаться в лаборатории, а не в больницах, банках или инфраструктуре. Это не начало войны машин, а скорее сигнал, что пора чинить инженерные «трубы», прежде чем пускать воду в систему.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru