Эксперты показали, как обмануть функцию сканирования фото Apple CSAM

Эксперты показали, как обмануть функцию сканирования фото Apple CSAM

Эксперты показали, как обмануть функцию сканирования фото Apple CSAM

Исследователи из Имперского колледжа Лондона показали лёгкий способ обмануть систему сканирования медиаконтента. В качестве примера взяли технологию Apple CSAM, которая создала немало шума летом этого года.

Напомним, что CSAM (Child Sexual Abuse Material) была разработана с целью вычислять и пресекать распространение порнографических материалов, в которых фигурируют несовершеннолетние лица.

Из-за большого давления пользователей и специалистов по защите информации техногиганту из Купертино пришлось отложить введение этой функции в эксплуатацию до 2022 года. За это время разработчики обещали усовершенствовать CSAM и сделать саму технологию более прозрачной.

Основная идея разработки Apple опирается на сравнение хешей изображений, которые передаются с помощью iOS-устройств, с базой данных NCMEC и других организаций, занимающихся вопросами защиты детей.

Если CSAM найдёт совпадения, специалисты Apple изучат содержимое подозрительных материалов, а затем, если алерт подтвердится, передадут правоохранителям информацию о распространении детской порнографии.

Однако на симпозиуме USENIX специалисты продемонстрировали интересный способ, доказывающий, что ни Apple CSAM, ни любая другая аналогичная система не способна эффективно детектировать нелегальный контент.

По словам исследователей, алгоритмы детектирования достаточно легко обмануть — в 99,9% случаев, причём для этого даже не потребуется визуально менять изображения. Сам фокус заключается в использовании специального хеш-фильтра, который заставит систему сканирования воспринимать этот контент иначе. Для глаза человека разница будет незаметна:

 

В отчёте (PDF) специалисты указали на контрмеры — увеличить порог срабатывания, однако это неизбежно приведёт к ложноположительным детектам.

Напомним, в прошлом месяце стало известно, что Евросоюз уже давно хотел сканировать фото на iPhone пользователей, ещё до самого анонса технологии Apple CSAM.

Роботов можно взломать голосом и превратить в оружие за минуты

Коммерческие роботы оказались куда уязвимее, чем принято считать. Эксперты по кибербезопасности предупреждают: некоторые модели можно взломать за считаные минуты, причём без сложных инструментов — достаточно голоса или беспроводного соединения.

Это наглядно продемонстрировали китайские исследователи в недавних тестах и на хакерских соревнованиях GEEKCon в Шанхае.

Специалисты показали, как уязвимости в роботах позволяют получить полный контроль над машиной, а затем распространить атаку на другие устройства поблизости.

Оказалось, что современные гуманоидные роботы можно буквально «перехватить» с помощью голосовых команд. В ходе эксперимента был использован коммерческий робот Unitree стоимостью около 100 тысяч юаней (примерно $14,2 тыс.), оснащённый встроенным ИИ-агентом для автономного управления и взаимодействия с человеком.

Из-за уязвимости в системе управления исследователям удалось обойти защитные механизмы и получить полный контроль над роботом, пока тот был подключён к интернету. Но на этом эксперимент не закончился. Уже взломанный робот передал эксплойт другому устройству — даже без подключения к Сети, используя беспроводную связь на короткой дистанции. Через несколько минут второй робот также оказался под контролем атакующих.

Чтобы показать, что речь идёт не о теоретических рисках, исследователи дали роботу агрессивную команду. Машина двинулась к манекену на сцене и ударила его. Демонстрация стала наглядным напоминанием: даже отключение от интернета не гарантирует безопасность, если роботы работают в группе.

Проблемы с безопасностью роботов Unitree всплывали и ранее. В октябре исследователи сообщили об уязвимости в Bluetooth, которая позволяет получить root-доступ по воздуху. Это открывает путь к созданию своеобразных «робо-ботнетов», когда один взломанный робот заражает остальные.

В отличие от классических кибератак, где последствия ограничиваются утечками данных или финансовыми потерями, взлом роботов несёт прямую физическую угрозу. По мере того как машины становятся мобильнее и автономнее, они потенциально могут причинить вред людям или нарушить работу критически важных процессов.

Как отмечает South China Morning Post, пока интеллектуальные роботы в основном используются в демонстрационных зонах, офисах и учебных проектах. Но их всё чаще рассматривают для задач в инфраструктуре, медицине, охране и уходе за пожилыми людьми — и здесь цена ошибки резко возрастает.

Эксперты предупреждают: взломанный домашний робот может тайно собирать конфиденциальную информацию или представлять угрозу для жильцов. В промышленности скомпрометированные машины способны выводить из строя производственные линии, вызывать остановки и даже приводить к жертвам. А в случае автономного транспорта речь может идти уже не о сбое, а о целенаправленно «вооружённой» системе.

RSS: Новости на портале Anti-Malware.ru