Эксперты создали систему для блокировки прослушки на смартфонах

Эксперты создали систему для блокировки прослушки на смартфонах

Эксперты создали систему для блокировки прослушки на смартфонах

Исследователи из Колумбийского университета представили новый алгоритм, способный блокировать несанкционированную прослушку через микрофон на смартфонах, голосовых помощниках и любых других подключённых устройствах.

Одно из ключевых отличий новой разработки — предиктивность. Алгоритм предсказывает, что пользователь скажет, после чего создаёт фоновый шум в режиме реального времени. Этот шум должен перекрыть звук речи для подслушивающего злоумышленника.

К сожалению, на данном этапе система работает только с английским языком, а при тестах демонстрирует 80% успешных блокировок прослушки. Уровень шума выстроен таким образом, чтобы не препятствовать комфортному общению с собеседником.

Кроме того, новая система существенно затрудняет работу технологии распознавания речи. При этом неважно, какой софт или положение микрофона будут использоваться. По словам специалистов, они продолжат работать над алгоритмом и обещают добавить поддержку других языков.

 

Исследователи тестировали свою систему при помощи восьми видеокарт NVIDIA RTX 2080Ti на многочасовых записях речи. Как отмечается в отчёте, специалистам удалось найти оптимальное время для предиктивного механизма — 0,5 секунды.

После этого эксперты «натравили» несколько систем для распознавания речи на результаты своей работы. В 80% случаев эти системы не смогли извлечь слова.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru