Эксперты: В будущем киберпреступники смогут управлять нашей памятью

Эксперты: В будущем киберпреступники смогут управлять нашей памятью

Эксперты: В будущем киберпреступники смогут управлять нашей памятью

Эксперты опасаются, что наша память в будущем может оказаться «взломана» киберпреступниками. Речь идет об использовании нейротехнологий, которые должны помочь людям расширить возможности памяти, а также позволить человеку управлять ей.

Специалисты в первую очередь имеют в виду потенциальную опасность, которая стоит за использованием нейростимуляторов. Это определенные чипы, которые встраиваются в наш мозг, сейчас их применение можно встретить в сфере нейрохирургии.

Как пишет «Би-би-си», в настоящее время таких имплантов используется около 150 тысяч по всему миру.

Все дело в том, что специалисты уже разрабатывают некий «беспроводной, полностью вживляемый нейрокомпьютерный интерфейс», призванный помочь людям, которых постигла потеря памяти.

Эксперты уже ожидают, что в ближайшем будущем на рынке появятся специальные чипы, которые помогут людям улучшить память.

Приблизительно через 20 лет прогнозируется активное взаимодействие с такими чипами, которое позволит человеку записывать сигналы мозга, участвующие в создании воспоминаний, оживлять их и снова возвращать на хранение в память.

И вот тут специалисты обращают внимание на то, что такие технологии могут сыграть злую шутку. Ведь киберпреступники не дремлют — они могут полностью завладеть воспоминаниями людей.

Таким образом, в случае взлома встроенного в мозг чипа, который, например, помогает человеку с болезнью Паркинсона, злоумышленник может привести просто к катастрофическим последствиям для жертвы.

Киберпреступник может угрожать человеку стереть все его воспоминания, а затем требовать выкуп.

Именно это вызывает опасения ученых. Современный мир с его технологиями может быть опасен, особенно в тех случаях, когда дело касается слишком тесной интеграции организма человека и сторонних устройств.

Фальшивый блокировщик рекламы для ChatGPT оказался аддоном-шпионом

OpenAI недавно начала тестировать рекламу в ChatGPT для части пользователей бесплатного тарифа, и уже появились желающие быстро заработать на новой теме. Исследователи из DomainTools обнаружили в Chrome Web Store вредоносное расширение ChatGPT Ad Blocker, которое обещало убрать рекламу из чат-бота, а на деле воровало пользовательские переписки.

OpenAI действительно в последние месяцы начала тесты рекламы в ChatGPT для части пользователей Free и Go, поэтому приманка выглядела вполне правдоподобно.

По данным DomainTools, расширение позиционировалось как «бесплатный и лёгкий» способ «убрать рекламу и оставить ИИ», но его основная задача была совсем другой.

После установки оно внедряло скрипт в страницу ChatGPT, копировало содержимое активного окна чата, сохраняло структуру переписки и большую часть текста, а затем отправляло этот дамп через жёстко прописанный Discord-вебхук в закрытый канал. Исследователи отдельно пишут, что таким образом утекали не только запросы пользователя, но и метаданные, и состояние интерфейса.

 

Аддон клонировал HTML страницы ChatGPT, убирал часть визуальных элементов вроде стилей и картинок, но оставлял текст и логику диалога. При этом редактировались только очень длинные текстовые фрагменты, а обычные промпты и ответы в большинстве случаев сохранялись целиком. DomainTools также указывает, что похищенные данные принимал Discord-бот с говорящим именем Captain Hook.

Отдельно исследователи связывают расширение с GitHub-аккаунтом krittinkalra, который, по их данным, пересекается с проектами AI4ChatCo и Writecream. На этом фоне авторы отчёта задаются вопросом: не используются ли похожие механики сбора данных и в других продуктах, связанных с этой же персоной. Прямых доказательств этого в отчёте нет, но сам сигнал имеется.

RSS: Новости на портале Anti-Malware.ru