Apple обвинили в использовании пиратских книг для обучения ИИ

Apple обвинили в использовании пиратских книг для обучения ИИ

Apple обвинили в использовании пиратских книг для обучения ИИ

Apple оказалась в центре нового скандала вокруг авторских прав и искусственного интеллекта. На компанию подали коллективный иск два американских писателя — Грэйди Хендрикс и Дженнифер Роберсон. Они утверждают, что Apple использовала пиратские библиотеки электронных книг для обучения своих ИИ-моделей, включая те, что работают в сервисе Apple Intelligence.

По словам авторов, их произведения оказались в обучающих датасетах без разрешения и без выплаты лицензий.

Более того, иск утверждает, что Apple фактически копировала и эксплуатировала защищённые работы, чтобы создавать ИИ-модели, которые конкурируют с оригинальными текстами и снижают их рыночную ценность.

Если дело признают коллективным иском, оно может затронуть тысячи писателей.

Подобные конфликты для индустрии уже стали привычными: OpenAI продолжает судиться с The New York Times, а Anthropic в этом году согласилась выплатить $1,5 млрд по делу, охватившему полмиллиона авторов.

Для Apple же ситуация особенно чувствительна. Компания традиционно делает упор на конфиденциальность и прозрачность работы с данными, но если суд докажет использование пиратских источников, её стратегия в области AI может оказаться под угрозой.

Эксперты считают, что это дело способно стать прецедентом и подтолкнуть индустрию к более чётким правилам лицензирования и компенсаций авторам.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Whisper Leak: новая атака раскрывает темы диалогов с ИИ даже при шифровании

Исследователи Microsoft рассказали о новом векторе кибератаки под кодовым названием Whisper Leak. Он позволяет злоумышленникам вычислять, о чём человек разговаривает с искусственным интеллектом, даже если весь трафик зашифрован.

Наблюдая за сетевым трафиком между пользователем и языковой моделью, атакующий может анализировать размеры и интервалы передачи пакетов, чтобы определить тему диалога.

При этом содержимое сообщений остаётся зашифрованным, но характер обмена данными оказывается достаточно информативным, чтобы классифицировать разговор.

Как предупредила Microsoft, в зоне риска находятся пользователи, чей трафик может быть перехвачен — например, на уровне интернет-провайдера, в локальной сети или при подключении к общему Wi-Fi.

Исследователи отмечают, что атака может применяться для слежки за темами вроде финансовых операций, политических обсуждений или других конфиденциальных запросов.

Whisper Leak использует особенности потоковой генерации ответов (streaming mode), когда языковая модель отправляет текст постепенно, а не целиком после завершения обработки. Это даёт злоумышленнику возможность фиксировать различия в размерах и частоте пакетов данных, а затем с помощью алгоритмов машинного обучения — таких как LightGBM, Bi-LSTM и BERT — определять, к какой теме относится запрос.

 

По данным Microsoft, при тестировании многие модели — включая решения от Alibaba, DeepSeek, Mistral, Microsoft, OpenAI и xAI — показали точность классификации выше 98%. У моделей Google и Amazon результаты были лучше за счёт иной архитектуры, но и они оказались не полностью защищены.

После уведомления об уязвимости компании OpenAI, Microsoft, Mistral и xAI внедрили меры защиты. Одним из эффективных методов стало добавление случайных текстовых вставок переменной длины в ответы модели. Это делает размеры пакетов менее предсказуемыми и мешает анализировать поток данных.

Microsoft также рекомендует пользователям избегать обсуждения конфиденциальных тем при работе с чат-ботами через общественные сети, использовать VPN, по возможности выбирать непотоковые версии моделей и отдавать предпочтение сервисам, уже внедрившим защиту от подобных атак.

По сути, Whisper Leak показывает, что даже шифрование не всегда гарантирует приватность, если злоумышленник умеет «слушать» не слова, а ритм и объём разговора с искусственным интеллектом.

Подробнее о тёмной стороне искусственного интеллекта, а также угрозах, которые он несёт, можно почитать в нашей статье.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru