Google заблокировал аккаунт отца, отправившего врачам обнажённого сына

Google заблокировал аккаунт отца, отправившего врачам обнажённого сына

Google заблокировал аккаунт отца, отправившего врачам обнажённого сына

Автоматическая система Google по распознанию детского порно блокирует аккаунты родителей, обратившихся за помощью к педиатрам. Техногигант заявляет на пользователей в полицию, восстановить доступ к сервисам невозможно.

О таких историях пишет The New York Times. Технологические гиганты ежегодно отмечают миллионы детских фотографий как потенциально опасный контент. В 2021 году только один Google отправил 600 тыс. подобных отчетов и отключил 270 тыс. аккаунтов.

Журналисты приводят истории двух американских отцов, которые обращались за помощью к педиатрам. Беспокойство родителей вызывали половые органы подростков. Для онлайн-консультации клиники просили сфотографировать гениталии детей.

Через два дня после того, как родители сделали фото на свои Android-смартфоны и отправили снимки по электронной почте врачам, аккаунты отцов были заблокированы. Они потеряли доступ к облачным хранилищам, контактам, почте и мессенджеру.

Google также уведомил полицию о недопустимом контенте. В обоих случаях шериф разобрался в ситуации и закрыл дела. При этом сам Google отказался вернуть доступ к заблокированным ресурсам. На все запросы техногигант ответил отказом без дальнейших объяснений.

Первым шагом в борьбе с распространением детского порно стала база PhotoDNA, выпущенная Microsoft в 2009 году. Изображения недопустимого характера преобразовываются в уникальные цифровые коды. На вооружение систему взяли многие технологические компании, включая запрещенный в России Facebook (Facebook принадлежит Meta, признанной экстремистской в России).

Эта технология и отметила фотографии детей, отправленные педиатрам через сервисы Google. На обвинения во вмешательстве в частную жизнь, представители техногиганта отвечают, что система сканирует фотоальбомы только в том случае, если владелец Android-устройства добровольно соглашается на это, например, когда сохраняет фото в облаке.

В январе 2020 года стало известно, что Apple тоже сканирует “облачные” фотография пользователей на предмет эксплуатации детских изображений.

ИИ заполонил хакерские форумы и начал раздражать самих киберпреступников

Форумы «чёрных» хакеров и киберпреступников заполонил контент, сгенерированный нейросетями. Его активно продвигают владельцы площадок, нередко на платной основе. Однако самих пользователей таких форумов всё сильнее раздражают большие объёмы низкокачественного ИИ-контента.

К такому выводу пришли исследователи из Эдинбургского университета. Они проанализировали почти 100 тыс. переписок с хакерских форумов, посвящённых искусственному интеллекту, за период с ноября 2022 года — момента выхода первой публично доступной версии ChatGPT — до конца 2025 года.

Как оказалось, пользователей раздражает вмешательство ИИ-ассистентов, которых продвигают владельцы площадок, а также большое количество контента, созданного нейросетями. Кроме того, появление ИИ-резюме в поисковых системах привело к снижению посещаемости форумов.

Между тем такие форумы выстраивали свою репутацию годами. Эти площадки стали не только местом поиска заказов, обмена инструментами и торговли массивами украденных данных, но и пространством для обычного общения. Однако всё чаще пользователи не пишут посты сами, а делегируют это ИИ-ассистентам. Это раздражает тех, кто приходит на такие форумы именно за живым взаимодействием.

Злоумышленники также пытаются использовать искусственный интеллект в атаках. В некоторых сценариях это действительно даёт заметный эффект — например, при автоматизации операций социальной инженерии или генерации фишинговых сообщений. В таких случаях ИИ позволяет даже в массовых атаках повысить конверсию до уровня, который раньше был характерен скорее для целевого фишинга.

Авторы исследования также указывают на активное применение ИИ в схемах с ботами в мессенджерах и мошенничестве на сайтах знакомств, где используются дипфейки и образы несуществующих людей.

Однако при написании вредоносного кода с помощью ИИ результаты, как правило, не впечатляют — примерно так же, как и при создании легитимного кода. Качество обычно остаётся низким. А в случае хакерских инструментов ошибки и уязвимости, характерные для ИИ-сгенерированного кода, могут даже раскрывать инфраструктуру их авторов.

Пока исследователи не видят радикального эффекта от использования ИИ в киберпреступной среде. Особенно это касается заметного снижения порога входа. Также не зафиксировано существенного влияния ИИ на бизнес-модели и другие процессы таких сообществ — ни в положительную, ни в отрицательную сторону.

RSS: Новости на портале Anti-Malware.ru