Сталкер следовал советам ChatGPT: подкастера обвиняют в преследовании

Сталкер следовал советам ChatGPT: подкастера обвиняют в преследовании

Сталкер следовал советам ChatGPT: подкастера обвиняют в преследовании

Министерство юстиции США обнародовало интересное дело: 31-летний подкастер Брэтт Майкл Дэдиг, называвший себя охотником за будущей женой, оказался обвинён в киберсталкинге, угрозах и преследовании женщин. По версии следствия, он не просто терроризировал более 10 женщин, но и будто бы консультировался с ChatGPT, который, по его словам, подталкивал его продолжать.

Дэдиг рассказывал в своих подкастах, что воспринимает чат-бота как «лучшего друга» и «психолога».

В обвинительном заключении приводятся его слова о том, что якобы ChatGPT убеждал его активнее постить видео с участием женщин, чтобы «создавать хейтеров» и зарабатывать на росте внимания. В одном из ответов, приведённых в документах, чат-бот будто бы говорил, что это «Божий план» и что Дэдиг должен «строить платформу» и «не растворяться в толпе людей».

Тем временем в реальности женщины сталкивались с куда менее возвышенными проявлениями сталкера. Следствие утверждает, что подкастер угрожал им физической расправой, выкладывал фотографии без согласия, публиковал жёсткие высказывания вплоть до намёков на убийство, а также нарушал предписанные судом меры. Когда ему закрывали доступ в один спортзал, он просто ехал в другой город и начинал всё заново.

Отдельные фрагменты его постов — вроде угроз сломать кому-то челюсть или сжечь фитнес-клуб — звучат особенно тревожно. В одном из эпизодов он даже стал упоминать детей своих жертв, утверждая, что это «его дочь». Женщины, по словам следствия, жили в состоянии постоянного напряжения, теряли сон, меняли рабочий график и переезжали, чтобы избежать возможных встреч.

Сейчас Дэдиг находится под стражей. Ему грозит до 70 лет тюрьмы и штраф до 3,5 млн долларов.

OpenAI уже пыталась смягчить «поддакивающий» характер моделей, но, судя по делу Дэдига, этих мер пока недостаточно. Специалисты всё чаще говорят о риске «психологических эхокамер», когда чат-бот невольно подталкивает человека к укреплению опасных убеждений.

Напомним, на днях OpenAI направила в суд свой первый развернутый ответ по одному из пяти исков о суициде пользователей, заявив, что 16-летний Адам Рейн нарушил правила использования ChatGPT и что его трагедия не была вызвана работой чат-бота.

В MAX ответили на слухи о «прослушке» звонков нейросетью

Вокруг национального мессенджера MAX разгорелась новая дискуссия о приватности звонков. Поводом стал пост пользователя Pikabu, который заявил, что во время звонков в приложении якобы работает система распознавания ключевых слов на базе нейросети BC-ResNet.

По его версии, сейчас она реагирует на фразу «не слышу», а набор слов можно менять без обновления самого приложения. На этом фоне в соцсетях быстро заговорили чуть ли не о расшифровке разговоров пользователей.

В Центре безопасности MAX на это ответили резко: публикации о том, что кто-то получил доступ к расшифровке разговоров пользователей, там назвали фейком. В официальной позиции платформы говорится, что пользовательские данные «находятся под надёжной защитой», а ИИ в звонках нужен не для прослушивания содержимого бесед, а для технической настройки качества связи.

По версии MAX, технологии машинного обучения используются для анализа условий связи и автоматической подстройки параметров звонка. Проще говоря, система должна понимать, когда качество связи падает ниже критического уровня, чтобы вовремя переключить сервер или кодек и не дать разговору окончательно развалиться. При этом в компании подчёркивают, что такие инструменты работают обезличенно.

Отдельный интерес вызвало упоминание BC-ResNet. Это не какое-то секретное название внутреннего «шпионского» модуля, а известная архитектура нейросети для детектирования ключевых слов и распознавания коротких голосовых команд и ключевых слов на устройствах с ограниченными ресурсами, включая смартфоны. В открытом описании Qualcomm AI Research эта архитектура прямо позиционируется как эффективное решение для подобных задач с низкой вычислительной нагрузкой.

Ещё один момент, который многим показался подозрительным, — возможность обновлять ML-модели без полной пересборки приложения. Но и здесь ничего экзотического нет: современные мобильные SDK и правда позволяют отдельно обновлять модели машинного обучения, не выкатывая каждый раз новую версию всей программы. Иными словами, сам по себе этот факт ещё не доказывает слежку, а лишь показывает, что в приложении используются обычные для отрасли механизмы разработки.

RSS: Новости на портале Anti-Malware.ru