ИИ помог ученым извлечь звук из фото и немого видео

ИИ помог ученым извлечь звук из фото и немого видео

ИИ помог ученым извлечь звук из фото и немого видео

Метод, разработанный университетскими исследователями, позволяет получать аудиоданные из фотографий и видео, снятого с выключенным микрофоном. Созданный учеными ИИ-инструмент способен даже определить пол комментатора, созерцавшего фотосессию.

Концепция, нареченная Side Eye, предполагает использование стабилизатора изображения и механизма скользящего затвора, присутствующих во встроенных камерах многих современных телефонов. Созданный в ходе исследования инструмент использует средства машинного обучения, и его можно натренировать на аудиозаписях с тем, чтобы он научился распознавать часто употребляемые слова — например, «да» и «нет».

«Представьте себе, что кто-то снимает для TikTok видео, отключив звук, чтобы наложить музыку, — говорит профессор Кевин Фу (Kevin Fu) из Северо-Восточного университета в Бостоне. — А вдруг кому-нибудь захочется узнать, что сказал герой ролика? Вспомнил детский стишок про арбуз или выдал свой пароль? И о чем это шушукаются за его спиной? Все это можно выяснить».

Оказалось, что разговор рядом с объективом камеры вызывает слабые вибрации в стабилизаторе, компенсирующем дрожание рук при съемке. Угол света при этом почти незаметно изменяется.

Извлечь звуковую частоту из этих микровибраций трудно, однако задачу исследователям облегчил эффект скользящего затвора — когда сканирование пикселей происходит построчно, за сотни тысяч прогонов для каждого изображения. Это открывает возможность для детализации изменений, вызванных речью фотографа, его модели или наблюдателя.

По словам исследователей, Side Eye исправно работает даже с материалами, отснятыми при плохом освещении. Не смущают его и неудачные снимки вроде потолка во весь кадр, однако чем больше отображаемой информации, тем лучше.

На выходе вначале получались приглушенные звуки, похожие на человеческую речь. После обучения Side Eye начал извлекать больше полезной информации и стал узнавать людей по голосу — в тех случаях, когда образцы присутствовали в тренировочных наборах данных.

С точки зрения кибербезопасности подобные инструменты составляют потенциальную угрозу, однако их также можно использовать в криминалистике для получения цифровых свидетельств. Так, например, обработанная по методу Side Eye запись с камеры видеонаблюдения сможет подтвердить или опровергнуть алиби подозреваемого в совершении преступления.

Злоумышленники обманывают россиянок от имени звезд

Компания F6 предупреждает о резком росте числа мошеннических схем, в которых злоумышленники выманивают деньги у россиянок, представляясь звёздами шоу-бизнеса — как российскими, так и зарубежными. Для убедительности аферисты активно используют дипфейки, а также мессенджеры и социальные сети. В ход идут сгенерированные нейросетями голосовые и видеосообщения.

О новой волне дипфейк-атак на россиянок рассказал изданию «Фонтанка» эксперт F6 Сергей Золотухин.

«Главный тренд года в схемах “про любовь” — использование искусственного интеллекта. С помощью нейросетей киберпреступники уже давно создают фейковые фото и видео со знаменитостями, которые сложно отличить от настоящих. Известны случаи, когда для обмана использовались образы Димы Билана, Сергея Лазарева, Брэда Питта, Райана Гослинга и Леонардо Ди Каприо», — рассказал Сергей Золотухин.

Сценарий обычно начинается с комплиментов и виртуального флирта, после чего злоумышленники переходят к отработке различных схем. Самая распространённая — просьба о финансовой помощи. В качестве повода могут называться болезнь, блокировка счетов, необходимость купить билеты или иная «экстренная» ситуация. После получения денег мошенники чаще всего исчезают, хотя иногда продолжают выманивать средства повторно.

Так, в январе жительницу Саратовской области обманул злоумышленник, представившийся Филиппом Киркоровым. Он попросил оплатить поездку и прекратил общение сразу после перевода денег.

Существуют и схемы без прямого требования перевода средств. Например, аферисты выдают себя за владельцев сети салонов красоты и предлагают бесплатное посещение. Для записи нужно перейти по ссылке, которая ведёт на заражённый сайт. После этого устройство жертвы может быть скомпрометировано, а злоумышленники получают над ним контроль.

Как отмечает Сергей Золотухин, не исчезла и классическая схема Fake Date, рассчитанная преимущественно на мужчин. В этом году злоумышленники чаще всего заманивают жертв на фишинговые сайты якобы для покупки билетов в театр или на концерт. В результате в их распоряжении оказываются платёжные данные. По аналогичной схеме аферисты действовали и ранее.

В 2026 году появился и новый предлог для перехода по фишинговой ссылке — «бесплатная фотосессия». Злоумышленники представляются фотографами, а ссылка якобы ведёт на сайт студии. Также участились попытки вовлечь жертв в инвестиционные мошеннические схемы.

RSS: Новости на портале Anti-Malware.ru