Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Новые алгоритмы сканирования Gmail ловят 99,9% вредоносных вложений

Google оснастил сервис электронной почты Gmail усовершенствованными возможностями сканирования. По словам поискового гиганта, этот шаг помог существенно увеличить общий процент детектирования вредоносных документов.

Специалисты Google утверждают, что существующие модели машинного обучения вкупе с другими защитными мерами помогают заблокировать «более 99,9% киберугроз, пытающихся пробраться в ящики пользователей Gmail».

При этом уточняется, что сканер сервиса электронной почты покрывает огромные объёмы, обрабатывая более 300 миллиардов вложений каждую неделю.

Около 63% от общего числа обнаруженных вредоносных документов меняются каждый день, поэтому Google решил внедрить сканеры нового поколения, которые помогут повысить процент детектирования злонамеренных вложений с помощью глубокого обучения.

«С конца 2019 года работа новых сканеров помогла повысить на 10% число ежедневно детектируемых документов Office, содержащих вредоносные скрипты», — заявили сотрудники Google.

В особенности сканеры зарекомендовали себя в случае обнаружения «взрывных» атак (DDoS с высокой частотой) — детектирование увеличилось на 150%.

Как объяснил Google, в Gmail используется модель глубокого обучения, известная как TensorFlow, ему в помощь работает кастомный анализатор документа для каждого типа файлов. Их задача — парсить документы, искать типичные признаки вредоносных составляющих, извлекать макросы, деобфусцировать контент и так далее.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru