Полиция Южной Кореи расследует роль Telegram в распространении дипфейков

Полиция Южной Кореи расследует роль Telegram в распространении дипфейков

Полиция Южной Кореи расследует роль Telegram в распространении дипфейков

Инициированное в Южной Корее расследование касается распространения через мессенджер Telegram изображений сексуального характера.

Расследованию дало старт массовое общественное возмущение по поводу распространения цифровой порнографии, сгенерированной на основе изображений реальных людей.

Согласно отчету Security Hero за 2023 год о дипфейках по всему миру, на который ссылается агентство Reuter, более половины всех изображений сексуального характера сгенерированы на основе южнокорейских знаменитостей.

Раннее власти страны обещали, что будут бороться с преступным использованием Telegram, в том числе и с различными проявлениями сексуальной эксплуатации. Это совпало по времени с французским расследованием в отношении Павла Дурова.

Расследованием, по данным ТАСС, стал материал газеты «Хангёрё» от 22 августа о телеграм-каналах, участники которых в чатах создавали и распространяли дипфейк-видео сексуального характера. Большая часть правонарушителей по таким делам — несовершеннолетние.

Комиссар Национального полицейского агентства Чо Джи Хо анонсировал аналогичные расследования и в отношении других мессенджеров. Выступая в парламенте, он назвал эти расследования сложными и трудоемкими.

Администрация Telegram неоднократно заявляла, что активно модерирует вредный контент на своей платформе. Платформа предоставила властям Южной Кореи «новый эксклюзивный адрес электронной почты» для коммуникации.

Платформа также сообщила об удалении 25 видеоматериалов откровенного содержания по запросу комиссии. Власти Южной Кореи выразили уверенность в том, что это положит начало созданию «горячей линии» для быстрого реагирования на различные инциденты.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru