В Италии заблокировали ChatGPT

В Италии заблокировали ChatGPT

В Италии заблокировали ChatGPT

Италия стала первой страной в мире, временно заблокировавшей на своей территории ChatGPT. Власти будут расследовать утечки и нарушения правил конфиденциальности со стороны разработчика — американской компании OpenAI.

О том, что власти Италии блокируют ChatGPT незамедлительно, пишет издание Politico. Причиной “бана” стало нарушение основополагающего закона ЕС о конфиденциальности — Общего регламента по защите данных (GDPR). При этом подчеркивается, что решение носит временный характер и может быть пересмотрено при условии, если OpenAI станет соответствовать европейским стандартам информационной безопасности.

Итальянский регулятор по защите данных (Garante per la Protezione dei Dati Personali) настаивает на том, что у компании OpenAI нет правовых оснований, оправдывающих “массовый сбор и хранение персональных данных… для “обучения” алгоритмов” ChatGPT. Кроме того, сами сведения об итальянских пользователях собираются с нарушениями.

Только на прошлой неделе из ChatGPT “утекли” разговоры и платежные данные пользователей.

Еще одно серьезное нарушение норм ИБ — OpenAI не проверяет возраст пользователей и выдает несовершеннолетним неподходящие возрасту и развитию ответы.

Призывы притормозить новые выпуски ChatGPT и провести расследование в отношении его создателя OpenAI звучат всё громче как в Европе, так и в Америке.

Накануне Илон Маск, Стив Возняк и ещё больше тысячи учёных и предпринимателей подписали открытое письмо. В нем они просят разработчиков ИИ приостановить хотя бы на полгода обучение новых больших языковых моделей, если их целью является создание более мощной версии взамен OpenAI GPT-4.

Группа защиты прав потребителей BEUC также призвала власти ЕС и регуляторов провести расследование в отношении ChatGPT.

Хотя у компании OpenAI нет своего офиса в ЕС, у его представителя в Европейской экономической зоне есть 20 дней, чтобы сообщить, как он планирует привести ChatGPT в соответствие с правилами конфиденциальности Евросоюза. В противном случае OpenAI грозит штраф до 4% от глобального оборота.

Добавим, Италия стала первой страной в мире, ограничившей ChatGPT. Официальных комментариев от OpenAI пока нет поступало.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый метод освещения поможет выявлять дипфейки и поддельные видео

Исследователи из Корнелльского университета придумали способ, который может серьёзно помочь в борьбе с поддельными видео. Они предложили встраивать невидимые цифровые водяные знаки прямо в источники света на съёмочной площадке. Эта технология получила название «шумокодированное освещение» (noise-coded illumination) и была представлена 10 августа на конференции SIGGRAPH 2025 в Ванкувере.

Вместо того чтобы встраивать водяные знаки в сам видеофайл (как это делалось раньше и требовало совместимых камер или ПО), новый метод меняет свет, которым освещается сцена.

Камера — хоть профессиональная, хоть обычный смартфон — автоматически «захватывает» эти едва заметные колебания яркости и частоты света. Глазом их не увидеть, но специальный анализ легко их распознаёт.

Программируемые источники (вроде мониторов или студийных ламп) можно закодировать с помощью софта. Обычные лампы тоже подойдут, если оснастить их небольшой микросхемой размером с почтовую марку.

Каждая лампа получает уникальный код, который создаёт что-то вроде «второго видео» — с временной меткой и немного изменённым освещением.

Если кто-то пытается подделать кадры или вставить в них фальшивые элементы, эти кодированные видео тут же «выдают» нестыковки. Пропавшие куски появляются как пробелы, а сгенерированные объекты — как чёрные пятна. Причём в одной сцене можно использовать сразу несколько независимых кодов, что делает задачу подделки ещё сложнее.

 

По словам авторов, технология работает даже в некоторых условиях на улице и одинаково надёжно с людьми разного цвета кожи. Однако они подчёркивают: это не панацея. С развитием генеративного ИИ подделывать видео будет всё проще, а значит, и методы защиты должны постоянно совершенствоваться.

Как отметил один из создателей, профессор Эйб Дэвис, раньше видео считалось доказательством, а теперь его можно «снять» о чём угодно. Это может быть весело, но и опасно, ведь отличить правду от вымысла становится всё труднее.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru