ChatGPT может впасть в ступор от просьбы назвать публичную персону

ChatGPT может впасть в ступор от просьбы назвать публичную персону

ChatGPT может впасть в ступор от просьбы назвать публичную персону

Пользователи платформы ChatGPT заметили странную особенность: ИИ-собеседник иногда отвечает отказом на просьбу подсказать правописание имен и рассказать об их носителях. Как выяснилось, эти люди когда-то пеняли OpenAI на неверные, порочащие их данные.

Так, умный чат-бот упорно не желал давать искомый ответ на ввод «David Mayer». Узнав об этом, завсегдатаи Reddit стали придумывать всякие уловки, чтобы добиться иной реакции, однако все попытки оказались безуспешными.

 

Ситуация стала проясняться, когда репортер TechCrunch отыскал в интернете информацию о загадочном Дэвиде Мейере.

Профессор с таким именем долгое время преподавал театроведение в Великобритании и США. В интернет-источниках его постоянно путали с террористом, избравшим ровно такой псевдоним, и мэтр потратил много усилий, чтобы избавиться от ассоциации, из-за которой он стал невыездным.

Тем временем пытливые пользователи обнаружили и другие похожие табу для ChatGPT. ИИ-сервис отказывался воспроизвести имена Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber, Guido Scorza.

Как оказалось, это тоже более-менее известные личности. Брайан Худ, например, работает в администрации графства Хепберн (штат Виктория, Австралия) и в прошлом году пригрозил OpenAI судом из-за ложного утверждения, что он якобы сидел за взяточничество.

Дэвид Фабер с 1993 года трудится на телеканале CNBC. Правоведа Джонатана Терли ChatGPT в прошлом году по ошибке (вместо тезки) внес в список юристов, уличенных в сексуальных домогательствах.

Юрист Джонатан Зиттрейн некогда активно пропагандировал право на забвение (в связи с наличием персональных данных в поисковой выдаче Google). Гвидо Скорца входит в состав итальянского Комитета по защите персональных данных, который в прошлом году пытался заблокировать в стране доступ к ChatGPT из-за проблем с конфиденциальностью.

Похоже, из-за официально высказанного недовольства и претензий на ИИ-сервисе скорректировали фильтры либо создали какие-то правила в отношении этих имен, и чат-бот OpenAI теперь реагирует на них так же, как на внесение имени в списки кандидатов от политических партий.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru