Вам не понравится: стартапы критикуют инициативу по отключению рекомендаций

Вам не понравится: стартапы критикуют инициативу по отключению рекомендаций

Вам не понравится: стартапы критикуют инициативу по отключению рекомендаций

Разработчики алгоритмов для сайтов и сервисов выступили против законопроекта, который позволяет пользователям отключать рекомендации. В последнем варианте инициатива коснется всех ресурсов и приложений. Авторы обещали подумать.

Законопроект неделю назад обсуждали на площадке Фонда развития интернет-инициатив (ФРИИ). По задумке авторов, онлайн-платформы обязаны:

  1. Дать пользователю возможность отключать алгоритм, который формирует в ленте специально подобранный контент;
  2. Предупреждать клиентов о “включенных” рекомендациях.

Такая перспектива беспокоит технологические стартапы, для которых рекомендательный алгоритм — ядро сервиса. Об этом в своем Telegram-канале написал автор законопроекта, единоросс Антон Горелкин.

Сначала говорили, что под действие законопроекта попадут только соцсети, новостные и поисковые агрегаторы, аудиовизуальные сервисы.

Источники “Ъ”, побывавшие на встрече с депутатами, утверждают, что в последней версии инициатива регулирует технологию, а не отдельные категории информационных ресурсов или сервисов. То есть под закон попадает любая компания.

По данным “Ъ”, на встрече также были представители VK и “Яндекс”.

Ключевая проблема в том, что документ не определяет четко субъект регулирования, рассказывает директор по правовым инициативам во ФРИИ Александра Орехович.

“Сейчас круг субъектов регулирования не ограничивается только значимыми ресурсами, а фактически включает любые приложения и интернет-сайты вне зависимости от размера аудитории, — говорит Орехович. — Кроме того, формально юридически под регулирование подпадают компании, в которых рекомендательные технологии используются исключительно по запросу самих пользователей, то есть человек заходит на сайт и предоставляет информацию о себе или доступ к ней именно с целью разработки рекомендаций, например, по развитию карьеры”.

Сам депутат Горелкин еще в апреле писал, что “законопроект готов на 99%”.

“Остался один дискуссионный вопрос. Мы ждем, что этот один процент мы доработаем в этом месяце”, — приводит весеннюю цитату депутата “Ъ”.

После встречи с резидентами фонда, инициатор законопроекта об отключении рекомендаций обещал учесть критику.

“Все опасения и предложения зафиксировал, будем с ними работать”, — написал Горелкин в Telegram.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ-помощник Claude провел для шпионов 30 атак, несколько — с успехом

Зафиксирован первый случай злоупотребления ИИ для почти полной (на 80-90%) автоматизации шпионских атак на госструктуры и крупные компании. Суммарно с помощью Claude было атаковано около 30 целей; в нескольких случаях взлом завершился успехом.

Инициатором необычной кампании, по данным Anthropic, являлась китайская APT-группа, идентифицируемая как GTG-1002. Мишени для проведения атак ее участники выбирали сами; их интересовали секреты госсектора, ИТ, финансовой сферы и химической промышленности.

Операторы ИИ-дирижера в ходе каждой многоступенчатой атаки вмешивались лишь 4-6 раз — когда надо было принять стратегическое решение по результатам выполнения задач агентскими Claude.

Эти исполнители определяли площадь атаки, сканировали целевую инфраструктуру в поисках уязвимостей, разрабатывали способы их использования и эксплойт-коды, воровали учетки и проверяли их дееспособность, собирали конфиденциальные данные.

Дискретные задачи ставились компонентам ИИ с тщательной формулировкой промптов и без раскрытия контекста, который бы мог выдать недобрые намерения.

 

Обнаружив атаки с использованием ее продукта, Anthropic запустила расследование, определила масштабы вредоносных операций и по итогам заблокировала ассоциированные аккаунты, а также уведомила потенциальных жертв и правоохранительные органы.

К счастью, в новой бочке дегтя присутствовала ложка меда: из-за склонности в галлюцинациям ИИ зачастую выдавал желаемое за действительное: рапортовал об успехах (краже актуальных учеток, обнаружении якобы неизвестных ранее уязвимостей), хотя действительность свидетельствовала об обратном.

Подобные ошибки говорят о том, что интеллектуальные помощники не способны самостоятельно проводить хакерские атаки — по крайней мере, на современном этапе развития ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru