Бесчеловечно: киберпреступники поглумились над авиакатастрофой на Синае

Бесчеловечно: киберпреступники поглумились над авиакатастрофой на Синае

Бесчеловечно: киберпреступники поглумились над авиакатастрофой на Синае

Бесчеловечный поступок совершили неизвестные киберпреступники, взломав страницу одной из жертв крушения A321 над Синайским полуостровом. Злоумышленники разместили ложную информацию о том, что в живых осталась 10-месячная пассажирка рейса. Напомним, что крупная авиационная катастрофа произошла 31 октября 2015 года над центральной частью Синайского полуострова.

Преступники взломали страницу матери девочки в социальной сети «ВКонтакте», опубликовав запись, в которой утверждалось, что ребенок жив.

Подоплека этого мерзейшего поступка, как оказалось, крылась в отсылке к «смерти» российского журналиста Аркадия Бабченко, которая тоже в итоге оказалась неправдой.

Официальные представители «ВКонтакте» оперативно отреагировали, удалив проблемную запись и изменив настройки приватности страницы Татьяны Громовой.

«Контент, который был размещён при жизни владелицы страницы, полностью сохранён — основная информация в профиле стала доступна только для друзей. Кроме того, по просьбе родственников страница может быть удалена», — процитировали СМИ пресс-службу соцсети.

10-месячная Дарина Громова стала известна как «главный пассажир» потерпевшего крушения рейса — мама девочки опубликовала фото ребенка из аэропорта, подписав его: «Главный пассажир». На фотографии Дарина наблюдает за самолетами…

Дипфейки невозможно распознать без специальных технических средств

Сгенерированные нейросетями изображения, аудио- и видеоматериалы практически невозможно распознать без специальных технических средств. В МВД России заявили, что эксперты-криминалисты используют для этого специализированные детекторы.

О методах выявления дипфейков рассказал в интервью ТАСС начальник Экспертно-криминалистического центра МВД России генерал-лейтенант полиции Вадим Казьмин.

По его словам, современные дипфейки — будь то видео, аудио, изображения или даже прямые трансляции — отличаются высокой степенью реалистичности. Без применения специальных инструментов отличить их от подлинных материалов практически невозможно.

«Мы прекрасно осведомлены не только о возможностях нейросетей, но и об их недостатках. С помощью современных нейросетевых детекторов эксперт может распознавать различные манипуляции с голосовыми сообщениями, видеозаписями и фотографиями», — отметил руководитель экспертного подразделения МВД.

Массовое использование дипфейков в преступных схемах стало заметным в середине 2025 года. Тогда широкое распространение получила схема с просьбами о срочной финансовой помощи якобы от знакомых или родственников жертвы — с использованием поддельных голосов и видеоизображений. В тот период фальшивки зачастую были низкого качества и их можно было выявить по характерным артефактам.

Кроме того, дипфейки активно применяются в мошеннических сценариях с ложными свиданиями (Fake Date). Уже в феврале 2025 года было зафиксировано не менее десяти подобных случаев, причинивших значительный ущерб.

RSS: Новости на портале Anti-Malware.ru