X запретила Grok «раздевать» людей на изображениях после скандала

X запретила Grok «раздевать» людей на изображениях после скандала

X запретила Grok «раздевать» людей на изображениях после скандала

Платформа X (прежний Twitter) Илона Маска объявила о новых ограничениях для своего ИИ-бота Grok после волны международной критики и расследований, связанных с генерированием непристойных изображений реальных людей — включая женщин и детей. Об этом компания сообщила 14 января.

Поводом стал резонанс вокруг так называемого Spicy Mode, который позволял с помощью простых текстовых запросов «раздевать» людей на фотографиях — например, «надень на неё бикини» или «убери одежду».

Эти возможности вызвали шквал жалоб, блокировки сервиса в отдельных странах и проверку со стороны регуляторов.

В X заявили, что приняли технические меры, чтобы пресечь подобные сценарии. В частности, компания начнёт блокировать по геолокации возможность создавать или редактировать изображения людей в «откровенной одежде» — бикини, нижнем белье и аналогичных образах — в тех юрисдикциях, где такие действия нарушают закон.

«Мы внедрили технологические ограничения, которые не позволяют Grok редактировать изображения реальных людей в откровенной одежде, включая бикини», — говорится в заявлении команды безопасности X.

Ограничения распространяются на всех пользователей, включая платных подписчиков.

Кроме того, в качестве «дополнительного уровня защиты» X решила оставить генерацию и редактирование изображений через Grok только для платных аккаунтов. В компании считают, что это позволит снизить риски злоупотреблений.

На ситуацию уже отреагировали европейские регуляторы. В Еврокомиссии заявили, что внимательно изучают дополнительные меры, принятые X, и проверят, действительно ли они способны защитить пользователей в ЕС. Представитель комиссии Томас Ренье отметил, что речь идёт о реакции на острую критику из-за непристойных изображений.

По данным недавнего исследования некоммерческой организации AI Forensics, более половины из 20 тысяч проанализированных изображений, созданных Grok, показывали людей в минимальном количестве одежды. Большинство из них — женщины, а около 2% персонажей выглядели как несовершеннолетние.

В MAX ответили на слухи о «прослушке» звонков нейросетью

Вокруг национального мессенджера MAX разгорелась новая дискуссия о приватности звонков. Поводом стал пост пользователя Pikabu, который заявил, что во время звонков в приложении якобы работает система распознавания ключевых слов на базе нейросети BC-ResNet.

По его версии, сейчас она реагирует на фразу «не слышу», а набор слов можно менять без обновления самого приложения. На этом фоне в соцсетях быстро заговорили чуть ли не о расшифровке разговоров пользователей.

В Центре безопасности MAX на это ответили резко: публикации о том, что кто-то получил доступ к расшифровке разговоров пользователей, там назвали фейком. В официальной позиции платформы говорится, что пользовательские данные «находятся под надёжной защитой», а ИИ в звонках нужен не для прослушивания содержимого бесед, а для технической настройки качества связи.

По версии MAX, технологии машинного обучения используются для анализа условий связи и автоматической подстройки параметров звонка. Проще говоря, система должна понимать, когда качество связи падает ниже критического уровня, чтобы вовремя переключить сервер или кодек и не дать разговору окончательно развалиться. При этом в компании подчёркивают, что такие инструменты работают обезличенно.

Отдельный интерес вызвало упоминание BC-ResNet. Это не какое-то секретное название внутреннего «шпионского» модуля, а известная архитектура нейросети для детектирования ключевых слов и распознавания коротких голосовых команд и ключевых слов на устройствах с ограниченными ресурсами, включая смартфоны. В открытом описании Qualcomm AI Research эта архитектура прямо позиционируется как эффективное решение для подобных задач с низкой вычислительной нагрузкой.

Ещё один момент, который многим показался подозрительным, — возможность обновлять ML-модели без полной пересборки приложения. Но и здесь ничего экзотического нет: современные мобильные SDK и правда позволяют отдельно обновлять модели машинного обучения, не выкатывая каждый раз новую версию всей программы. Иными словами, сам по себе этот факт ещё не доказывает слежку, а лишь показывает, что в приложении используются обычные для отрасли механизмы разработки.

RSS: Новости на портале Anti-Malware.ru