Telegram начал блокировать каналы, собирающие личные данные

Telegram начал блокировать каналы, собирающие личные данные

Telegram начал блокировать каналы, собирающие личные данные

Администрация мессенджера Telegram начала масштабную кампанию по блокировке каналов, которые занимаются сбором и публикацией личных данных пользователей с целью шантажа — так называемым «доксингом». Под удар попали сообщества, распространявшие конфиденциальную информацию и вымогавшие деньги за её удаление.

О массовой блокировке таких ресурсов заявил лично основатель Telegram Павел Дуров:

«После моего поста 20-дневной давности пользователи прислали нам сотни сообщений о мошенничестве и шантаже. Основываясь на этих сообщениях, на этой неделе мы блокируем многочисленные каналы для доксинга и вымогательства».

Дуров уточнил, что блокировка производится только после получения неопровержимых доказательств того, что конкретный канал публиковал дискредитирующую информацию, а затем удалял её после получения оплаты от пострадавших. Некоторые администраторы были пойманы с поличным при продаже так называемых «защитных блоков» — гарантий, что определённые сведения не будут обнародованы.

«Telegram — это не место для доксинга или шантажа. И тем, кто ведёт подобные каналы: не тратьте своё время на создание клонов — мы сами вас найдём», — резюмировал Павел Дуров.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Российские учёные научили ИИ ловить фейковые фото и нелепые изображения

Исследователи из AIRI, Сколтеха, MWS AI и МФТИ по-новому решили одну из наиболее сложных задач компьютерного зрения — выявление изображений с нелогичным содержанием, вроде рыцаря с мобильником или пингвина на велосипеде.

Разработанный ими метод TLG (Through the Looking Glass, «В Зазеркалье») использует ИИ для создания текстовых описаний картинок и обнаружения противоречий при сопоставлении с визуальным содержанием.

В комментарии для «Известий» один из соавторов проекта, доктор компьютерных наук Александр Панченко пояснил: существующие ИИ-модели хорошо распознают элементы картинок, но плохо улавливают контекст — далеко не всегда понимают совместимость представленных объектов с точки зрения здравого смысла.

Чтобы проверить действенность своего подхода, экспериментаторы создали датасет, включив него 824 изображения с нелепыми ситуациями. Тестирование алгоритма показало точность распознавания до 87,5%, что на 0,5-15% выше показателей других существующих моделей, а также большую экономию вычислительных ресурсов.

Новаторская разработка, по словам Панченко, способна повысить надежность систем компьютерного зрения. После доработки и дообучения ее также можно будет использовать для модерации контента — к примеру, для выявления фейковых фото.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru