Баг Facebook раскрывал имена администраторов страниц в письмах

Баг Facebook раскрывал имена администраторов страниц в письмах

Баг Facebook раскрывал имена администраторов страниц в письмах

На днях мексиканский исследователь безопасности Мохамед Басет заявил, что обнаружил ошибку в работе Facebook. Вместо того, чтобы просто приглашать пользователей подписаться на заинтересовавшую их страницу, соцсеть раскрывала имя администратора, непосредственно пригласившего пользователя.

Facebookmail

Мохамед получил автоматически сгенерированное письмо от Facebook с предложением подписаться на страницу, на которой он только что лайкнул один из постов. Ему стало интересно, как выглядит письмо в HTML-формате, и оказалось, что в таком виде Facebook показывает имя администратора страницы, пригласившего пользователя, который только что проявил активность. 

RawHTML

Это не является проблемой для небольших страниц или малого бизнеса, где контакты администраторов часто открыты и люди стараются общаться напрямую, чтобы привлечь пользователей. Однако для сотрудников крупных компаний это может стать неприятным моментом.

Хотя ошибка не представляла серьезной угрозы для работы социальной сети, Facebook тут же устранил баг и выплатил Басету 2500 долларов.

Пару дней назад мы писали о том, как Facebook заваливает подписчиков спамом. Однако многие исследователи полагают, что это не баг, а часть маркетинговой кампании корпорации.

Регулирование ИИ в России смягчили после критики бизнеса

Законопроект о регулировании искусственного интеллекта, подготовленный Минцифры, заметно скорректировали с учётом замечаний бизнеса. Требования к национальным и суверенным моделям стали более сбалансированными, изменились нормы по маркировке ИИ-контента, а часть спорных положений убрали из текста документа.

Обновлённый текст законопроекта оказался в распоряжении «Российской газеты». Как отметили источники издания, близкие к работе над документом, разработчики постарались максимально учесть замечания, высказанные бизнесом.

Ряд положений прежней версии документа участники рынка называли фактически невыполнимыми. Кроме того, по оценке более чем 150 экспертов, соблюдение ключевых требований могло привести к удорожанию ИИ-проектов до 40%.

«Видим в законопроекте потенциал стать полезным инструментом для развития и применения ИИ. Регулирующие органы открыты к диалогу с отраслью — это позволяет дорабатывать проект документа, выстраивая долгосрочные правила с учётом баланса интересов заинтересованных сторон. Рассчитываем, что при дальнейшей работе этот баланс будет сохранён», — прокомментировали результаты корректировки в пресс-службе Яндекса.

Прежде всего изменились требования к национальным и суверенным моделям ИИ. В первоначальной версии законопроекта речь шла о полной локализации. В обновлённой редакции достаточно, чтобы разработчик был российским юридическим лицом и самостоятельно определял и изменял существенные характеристики модели.

«Критерии для отечественных ИИ-моделей не должны становиться дополнительными ограничениями для разработчиков, особенно с учётом высокой международной конкуренции и наличия открытых моделей на рынке. Именно на это было направлено большинство замечаний бизнеса, которые учли в ходе работы над законопроектом», — прокомментировали корректировку в Ассоциации больших данных.

Для использования ИИ-модели в госструктурах больше не требуется её включение в реестр доверенных моделей. Это требование также вызывало опасения у участников рынка: они считали, что реестр может стать «бутылочным горлышком» и затормозить внедрение ИИ. Теперь сфера применения доверенных моделей ограничена только объектами критической информационной инфраструктуры.

Требование уведомлять пользователей об использовании ИИ-сервисов сохранили только для госструктур. На коммерческий сектор оно больше не распространяется.

Из текста также убрали норму, которая обязывала сервисы с аудиторией более 500 тыс. человек хранить информацию о пользователях в течение трёх лет. Кроме того, сняты ограничения на трансграничную передачу данных ИИ. Ранее многие участники рынка расценивали это требование как фактический запрет на использование зарубежных ИИ-моделей.

Сняты и ограничения на использование открытых данных для обучения нейросетей. В прежних редакциях соответствующие формулировки были недостаточно чёткими.

Наконец, изменились требования к маркировке контента. Она должна быть машиночитаемой, но делать её различимой для людей не обязательно.

«Международная практика двигается к созданию стандартов машиночитаемой маркировки такого контента, но до определения универсальных правил ещё достаточно далеко. Поэтому случаи установления машиночитаемой маркировки ИИ-контента будут дополнительно определены правительством», — отметил один из источников издания.

RSS: Новости на портале Anti-Malware.ru