Использование порнодипфейков становится одним из приемов кибербуллинга

Использование порнодипфейков становится одним из приемов кибербуллинга

Использование порнодипфейков становится одним из приемов кибербуллинга

Использование нейросетевых технологий для создания порнографических дипфейков сверстников стало широко распространённой практикой в разных странах. Эксперты предупреждают, что подобные случаи могут массово появиться и в России — предпосылки к этому уже есть, а надёжных механизмов противодействия пока не существует.

На проблему активного распространения дипфейков с интимным содержанием как формы подросткового кибербуллинга обратил внимание Центр киберполитики Стэнфордского университета. Ни законодательство, ни школа, ни родители, ни правоохранители пока не готовы к системной реакции на эту угрозу.

В России проблема кибербуллинга также стоит остро. Согласно исследованию проекта «#МЫСЧИТАЕМ», каждый пятый школьник сталкивался с травлей в интернете. По данным центра «Безопасность 2.0», на кибербуллинг приходится 23% всех сетевых конфликтов.

Одна из самых распространённых форм такой травли — это распространение фотомонтажей. Однако, как отмечает Александр Вураско, директор по развитию центра мониторинга внешних цифровых угроз, на смену им может прийти использование нейросетей:

«Если раньше для создания фейкового изображения требовались навыки работы с графикой, то теперь достаточно пары кликов — нейросеть сама сгенерирует нужное фото или даже видео. Подростки вполне могут начать использовать дипфейки как способ давления. Такие случаи, скорее всего, уже фиксировались в России, и их будет становиться больше».

Ранее СМИ сообщали об использовании интимных материалов, в том числе сфабрикованных, для шантажа, вымогательства или мести. Как правило, жертвами становились публичные или обеспеченные люди, а также участники острых личных конфликтов.

Павел Коваленко, директор Центра противодействия мошенничеству, отмечает, что современные инструменты позволяют легко «подтвердить» любую сплетню, усиливая давление на жертву. По словам эксперта по социотехническому тестированию Якова Филевского, несмотря на санкции, доступ к таким инструментам сохраняется — в том числе у подростков.

Особую тревогу вызывает эмоциональная уязвимость подростков. Как подчёркивает Вураско, в случае с дипфейками травля может перейти за пределы онлайна и серьёзно повлиять на психоэмоциональное состояние ребёнка.

«Распространение подобных материалов может привести к социальной изоляции жертвы. Не все способны отличить дипфейк от реальности, и это ведёт к травмам, ощущению враждебности и несправедливости», — добавляет Коваленко.

В качестве основных мер защиты эксперты называют повышение осведомлённости. Подростки должны понимать, что подобные действия могут разрушить чью-то жизнь. Также необходимо развивать цифровую грамотность — в том числе навыки распознавания дипфейков. Их могут выдать искажённый фон, странная мимика, неестественные движения или артефакты звука.

Филевский советует не выкладывать в открытый доступ фотографии в откровенных образах, например в купальнике — такие снимки проще всего использовать для создания дипфейков интимного характера.

Екатерина Едемская, инженер-аналитик в области ИБ, подчёркивает важность поддержки подростков, ставших жертвами подобных атак. Важно, чтобы ребёнок чувствовал, что его защищают, а не обвиняют. Обязательно нужна и психологическая помощь — дипфейк с интимным содержанием способен вызвать серьёзную травму.

Также специалист рекомендует сохранять доказательства: ссылки, скриншоты, имена пользователей и адреса страниц. Эти материалы помогут обратиться в администрацию школы, к родителям и в правоохранительные органы. Кроме того, важно подать жалобы в администрацию интернет-платформ, где размещён вредоносный контент.

Cloud.ru представила фильтр, скрывающий конфиденциальные данные от ИИ

На конференции GoCloud 2026 компания Cloud.ru анонсировала Guardrails Filter — инструмент для более безопасной работы с генеративным ИИ. Его задача довольно понятная: не дать конфиденциальным данным случайно утечь в большую языковую модель.

Схема работы выглядит так: сервис проверяет текст запроса, ищет в нём конфиденциальные данные — например, персональные сведения, банковские реквизиты, API-ключи и другие секреты, — затем маскирует их и только после этого отправляет обезличенный запрос в модель. Когда модель возвращает ответ, система подставляет реальные значения обратно.

Иначе говоря, пользователь получает нормальный результат, но сами чувствительные данные не уходят за пределы корпоративного контура в исходном виде.

Сейчас инструмент рассчитан на работу с моделями из сервиса Cloud.ru Foundation Models. В этой платформе доступно более 20 моделей разных типов, включая text-to-text, audio-to-text и image-text-to-text. При этом Cloud.ru отдельно уточняет, что механизм фильтрации будет доступен и в формате on-premise, то есть для установки на стороне самого заказчика.

Появление такого инструмента хорошо вписывается в общий тренд: компании всё активнее используют генеративный ИИ, но тема утечек данных остаётся одной из главных причин, почему внедрение идёт не так быстро, как хотелось бы. Особенно это чувствительно для отраслей, где много персональной и служебной информации, — например, для здравоохранения, ретейла и госсектора.

Кроме того, Cloud.ru сообщила, что добавила в Foundation Models LLM-модель российской компании HiveTrace с Guardrails-механизмом. По заявлению компании, такая модель должна лучше справляться с рисками вроде промпт-инъекций, утечки системных инструкций и некорректной обработки выходных данных.

RSS: Новости на портале Anti-Malware.ru