Facebook будет проверять фото и видео на достоверность

Facebook будет проверять фото и видео на достоверность

Facebook будет проверять фото и видео на достоверность

Социальная сеть Facebook продолжает бороться с недостоверной информацией, для этого в компании вводят все новые меры. На этот раз одной из таких мер стала проверка достоверности информации на фото и видео.

О нововведениях говорится в официальном блоге соцсети. Разработчики реализовали модель на основе машинного обучения, которая будет учитывать различные сигналы взаимодействия вроде обратной связи от пользователей платформы.

Именно за счет использования этой модели социальная сеть планирует выявлять ложный контент. Похожий принцип уже используется при работе с публикациями пользователей или сообществ.

«В выявлении ложного контента нам помогут 27 партнеров в 17 разных странах по всему миру. Будет проводится фактчекинг, что поможет оперативно принимать меры против дезинформации», — пишет компания.

В частности, партнеры, о которых идет речь, имеют опыт объективной оценки медиаконтента вроде фотографий и видео.

В это месяце также стало известно о проблемах Facebook — значительное количество пользователей решили попрощаться с социальной сетью после ряда скандалов, касающихся персональных данных. Соответствующее данные показывает исследование Pew Research Center, которым поделился центр.

Мошенники подделывают голоса следователей с помощью ИИ

Злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов. Нейросети также применяются для создания убедительных текстовых сообщений. Такой подход позволяет мошенникам выманивать персональные данные и убеждать людей передавать деньги или ценности.

О распространении этой практики рассказал ТАСС руководитель регионального управления Следственного комитета по Калининградской области Дмитрий Канонеров.

По его словам, использование нейросетевых технологий позволяет создавать крайне правдоподобный контент, который легко воспринимается как подлинный.

«Мошенники используют должности и фамилии сотрудников нашего ведомства, которые нередко выступают по телевидению с комментариями по уголовным делам. Они задействуют искусственный интеллект, способный сгенерировать голос. Недавно к моему заместителю пришло голосовое сообщение “от меня”. Звучало действительно очень похоже», — отметил Дмитрий Канонеров.

Как пояснил представитель Следственного комитета, действуя от имени ведомства, злоумышленники часто ведут себя агрессивно и грубо. Таким образом они усиливают психологическое давление на потенциальных жертв и пытаются вывести их из эмоционального равновесия.

Дмитрий Канонеров также напомнил, что порядок проведения следственных действий строго регламентирован. Сотрудники правоохранительных органов не проводят такие действия дистанционно — они осуществляются исключительно в очном формате. Вызов граждан производится с помощью повестки или телефонограммы. Кроме того, представители следствия никогда не требуют перевода денег или передачи каких-либо товарно-материальных ценностей.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru