Facebook заплатит больше за уязвимости в сторонних смежных сервисах

Facebook заплатит больше за уязвимости в сторонних смежных сервисах

Facebook заплатит больше за уязвимости в сторонних смежных сервисах

Facebook обновил условия своей программы по поиску уязвимостей в сторонних сервисах, интегрируемых с платформой. Теперь исследователи в области кибербезопасности смогут заработать больше денег.

Соцсеть готова заплатить за проблемы безопасности, найденные в ходе тестирования на проникновение во внешних приложениях и сайтах.

Обо всех найденных уязвимостях можно сообщать Facebook непосредственно через специальную программу.

«Чтобы быть максимально корректными, мы просим исследователей сначала сообщать о проблемах безопасности представителям сторонних сервисов, а потом уже нам», — объясняет сотрудник Facebook Дэн Гарфинкель.

Социальная платформа хочет повысить безопасность и конфиденциальность пользователей. Искать бреши не только в коде Facebook, но и в коде связанных сервисов — хорошая идея.

«Эти меры, на наш взгляд, помогут не только повысить безопасность пользователей Facebook, но и всей экосистемы», — добавил Гарфинкель.

Комитет Госдумы уличили в использовании ChatGPT

В пояснительной записке к законопроекту «О государственной поддержке молодёжных и детских общественных объединений» обнаружили следы использования ChatGPT. В одной из ссылок присутствовала характерная метка, которую оставляет зарубежный чат-бот.

Об этом сообщил портал Rozetked, ссылаясь на многочисленные обсуждения в соцсетях и телеграм-каналах.

История быстро получила широкий резонанс. Так, член СПЧ, глава проекта «Белый Интернет», профессор МГИМО Элина Сидоренко назвала произошедшее вопиющим случаем:

«Ну вот и приехали. ИИ в пояснительных записках Госдумы — открыто, без стеснения и стыда… А ведь это не просто констатация невнимательности аппарата Госдумы, это показатель того, что данные сливаются в американский ИИ, это становится нормой, никто не задумывается о безопасности данных».

Пост Сидоренко перепостил и официальный телеграм-канал Совета при Президенте по развитию гражданского общества и правам человека.

Ранее ФСТЭК отнесла утечки данных к числу наиболее специфичных рисков, связанных с использованием ИИ, включая генеративные модели. С декабря 2025 года такие угрозы включены в базу данных угроз (БДУ) регулятора.

В то же время комитет Госдумы по молодёжной политике опроверг использование чат-бота при подготовке текста законопроекта. При этом там признали, что один из сотрудников аппарата применял ChatGPT на этапе поиска и анализа материалов.

«Материалы к законопроекту готовились на протяжении двух лет исключительно депутатами совместно с командой юристов аппарата комитета. Сама пояснительная записка написана человеком, что подтверждается анализом, проведённым рекомендованным к использованию в государственных органах российским ИИ-ассистентом GigaChat. При этом подготовка законопроекта — настолько сложная и профессиональная задача, что ИИ в принципе не способен с ней справиться», — заявили в пресс-службе Комитета Госдумы по молодёжной политике.

RSS: Новости на портале Anti-Malware.ru