Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Google оснастил сервис электронной почты Gmail усовершенствованными возможностями сканирования. По словам поискового гиганта, этот шаг помог существенно увеличить общий процент детектирования вредоносных документов.

Специалисты Google утверждают, что существующие модели машинного обучения вкупе с другими защитными мерами помогают заблокировать «более 99,9% киберугроз, пытающихся пробраться в ящики пользователей Gmail».

При этом уточняется, что сканер сервиса электронной почты покрывает огромные объёмы, обрабатывая более 300 миллиардов вложений каждую неделю.

Около 63% от общего числа обнаруженных вредоносных документов меняются каждый день, поэтому Google решил внедрить сканеры нового поколения, которые помогут повысить процент детектирования злонамеренных вложений с помощью глубокого обучения.

«С конца 2019 года работа новых сканеров помогла повысить на 10% число ежедневно детектируемых документов Office, содержащих вредоносные скрипты», — заявили сотрудники Google.

В особенности сканеры зарекомендовали себя в случае обнаружения «взрывных» атак (DDoS с высокой частотой) — детектирование увеличилось на 150%.

Как объяснил Google, в Gmail используется модель глубокого обучения, известная как TensorFlow, ему в помощь работает кастомный анализатор документа для каждого типа файлов. Их задача — парсить документы, искать типичные признаки вредоносных составляющих, извлекать макросы, деобфусцировать контент и так далее.

Дипфейки невозможно распознать без специальных технических средств

Сгенерированные нейросетями изображения, аудио- и видеоматериалы практически невозможно распознать без специальных технических средств. В МВД России заявили, что эксперты-криминалисты используют для этого специализированные детекторы.

О методах выявления дипфейков рассказал в интервью ТАСС начальник Экспертно-криминалистического центра МВД России генерал-лейтенант полиции Вадим Казьмин.

По его словам, современные дипфейки — будь то видео, аудио, изображения или даже прямые трансляции — отличаются высокой степенью реалистичности. Без применения специальных инструментов отличить их от подлинных материалов практически невозможно.

«Мы прекрасно осведомлены не только о возможностях нейросетей, но и об их недостатках. С помощью современных нейросетевых детекторов эксперт может распознавать различные манипуляции с голосовыми сообщениями, видеозаписями и фотографиями», — отметил руководитель экспертного подразделения МВД.

Массовое использование дипфейков в преступных схемах стало заметным в середине 2025 года. Тогда широкое распространение получила схема с просьбами о срочной финансовой помощи якобы от знакомых или родственников жертвы — с использованием поддельных голосов и видеоизображений. В тот период фальшивки зачастую были низкого качества и их можно было выявить по характерным артефактам.

Кроме того, дипфейки активно применяются в мошеннических сценариях с ложными свиданиями (Fake Date). Уже в феврале 2025 года было зафиксировано не менее десяти подобных случаев, причинивших значительный ущерб.

RSS: Новости на портале Anti-Malware.ru