Экс-инженер Google предупредила об опасности создания роботов-убийц

Экс-инженер Google предупредила об опасности создания роботов-убийц

Экс-инженер Google предупредила об опасности создания роботов-убийц

Инженер, работавшая в Google над печально известным проектом военных дронов, предупредила об очередной опасности, которую несут современные разработки. По словам экс-сотрудницы американской корпорации, людям стоит опасаться создания роботов-убийц.

Лаура Нолан проработала в Google четыре года, после чего её задействовали в проекте, над которым интернет-гигант трудился совместно с Министерством обороны США. В 2017 году этому проекту было присвоено имя — Project Maven.

Основная задача Project Maven была сосредоточена вокруг усовершенствования военных дронов с помощью искусственного интеллекта. Специалисты трудились над созданием ИИ-систем, которые бы вычисляли вражеские объекты и при этом различали людей и неодушевлённые предметы.

Google пришлось заморозить проект после того, как сотрудники взбунтовались — многие подписали петицию против Project Maven. Ещё десятки людей выразили свой протест, просто перестав работать над проектом.

В числе тех, кто задумывался над опасностью реализации таких ИИ-систем, была и Лаура Нолан.

«Все это может потенциально привести к незаконным убийствам и неоправданному зверству. Даже учитывая условия и законы войны, если выпустить сотни или тысячи таких машин, они могут навредить больше, чем помочь», — передаёт слова специалиста Business Insider.

Тем не менее многие страны продолжают все плотнее внедрять искусственный интеллект в военные системы, создавая все более смертоносную коллаборацию. Именно поэтому Нолан предлагает запретить создание роботов-убийц и регламентировать это так же, как сейчас регламентировано использование химического оружия.

В WhatsApp появится приватный режим для разговоров с ИИ

Meta (признана экстремисткой и запрещена в России) добавит в WhatsApp возможность запускать приватные разговоры с чат-ботом Meta AI. Компания обещает, что такие сессии не будут сохраняться, а сообщения исчезнут после закрытия чата.

Новый режим можно будет включить через отдельную иконку в личном чате с Meta AI. Позже он появится и в самостоятельном приложении Meta AI. Развёртывание функции в WhatsApp и Meta AI App займёт несколько месяцев.

В Meta объясняют, что пользователи всё чаще обращаются к ИИ с личными вопросами — от финансов и здоровья до советов по сложным перепискам с друзьями или коллегами. Поэтому компания хочет дать возможность задавать такие вопросы более приватно.

Инкогнито-сессия будет завершаться, если пользователь закроет чат, заблокирует телефон или выйдет из приложения. После этого Meta AI потеряет контекст разговора и не сможет продолжить беседу с учётом предыдущих сообщений.

Для работы таких чатов Meta использует инфраструктуру private processing. Корпорация рассказывала о ней в прошлом году: она нужна для запуска ИИ-функций в WhatsApp без нарушения сквозного шифрования. На этой архитектуре уже работают, например, ИИ-сводки сообщений.

По словам Meta, новый режим использует модель Muse Spark, представленную в прошлом месяце. Ранее для некоторых ИИ-функций в WhatsApp применялись более компактные модели.

Компания также готовит ещё одну функцию — Side Chat. Она позволит обращаться к Meta AI прямо внутри обычных переписок, но так, чтобы другие участники чата не видели запрос и ответ. Сейчас для общения с ИИ в групповом или личном чате нужно явно упоминать ассистента, и ответ видят все участники.

Meta выходит с приватными ИИ-чатами на рынок, где похожие режимы уже есть у ChatGPT и Claude. Кроме того, свои приватные чат-боты развивают DuckDuckGo и Proton.

Тема приватности ИИ-переписок становится всё важнее: пользователи всё чаще обсуждают с чат-ботами чувствительные темы, а юристы уже предупреждают, что такие диалоги в отдельных случаях могут всплывать в судебных разбирательствах.

RSS: Новости на портале Anti-Malware.ru