InfoWatch Traffic Monitor научился мониторить сотрудников в соцсетях

InfoWatch Traffic Monitor научился мониторить сотрудников в соцсетях

InfoWatch Traffic Monitor научился мониторить сотрудников в соцсетях

ГК InfoWatch выпустила новую версию флагманского решения InfoWatch Traffic Monitor – 6.11 для контроля информационных потоков, защиты от угроз информационной безопасности и предотвращения утечек конфиденциальной информации. Основной фокус сделан на технологиях контентного анализа и интеграционных возможностях решения, что значительно расширяет круг решаемых задач.

Одним из свойств обновленного InfoWatch Traffic Monitor 6.11 является интеграция с системой мониторинга соцмедиа «Крибрум», позволяющая отслеживать утечки корпоративной информации в публичных постах сотрудников компаний.

«Это уникальный функционал, которого нет ни в одной системе контроля информационных потоков. Использование инструмента анализа соцсетей выводит DLP за периметр организации. Сейчас мы пробуем первую версию», - отмечает президент ГК InfoWatch Наталья Касперская.

В обновленном решении реализована возможность более тонкой настройки мониторинга и блокировки перемещения файлов между элементами сетевой инфраструктуры: между сетевыми папками и FTP, терминальными подключениями, съемными накопителями, в том числе, с указанием конкретных папок.

Traffic Monitor 6.11 перехватывает и блокирует файлы, содержащие конфиденциальную информацию, в случае их копирования. По словам руководителя направления InfoWatch Traffic Monitor Александра Клевцова, «таким образом обеспечивается контроль соблюдения требований конфиденциальности информации, которая может быть доступна только ограниченному кругу сотрудников организации и не должна покинуть определенный внутренний контур. Возможность описать детальные политики позволяет управлять перемещением файлов между разными элементами сетевой инфраструктуры».

В рамках релиза пользователям доступна запатентованная InfoWatch технология векторного копирайтного анализа для защиты AutoCAD чертежей, одобренная ведущим разработчиком программных продуктов для проектирования - компанией AutoDesk.

Детальный анализ векторных изображений предотвращает несанкционированную передачу как всего чертежа, так и его фрагментов, в любых сценариях. «Для предприятий, где конструкторская документация является коммерческой тайной или содержит ноу-хау, необходимо обеспечение безопасного внутрикорпоративного периметра.

Разработанная нами и не имеющая аналогов на рынке технология по защите чертежей в векторном формате, способствует  эффективному   контролю  над сложными типами данных», - говорит Александр Клевцов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Новый метод освещения поможет выявлять дипфейки и поддельные видео

Исследователи из Корнелльского университета придумали способ, который может серьёзно помочь в борьбе с поддельными видео. Они предложили встраивать невидимые цифровые водяные знаки прямо в источники света на съёмочной площадке. Эта технология получила название «шумокодированное освещение» (noise-coded illumination) и была представлена 10 августа на конференции SIGGRAPH 2025 в Ванкувере.

Вместо того чтобы встраивать водяные знаки в сам видеофайл (как это делалось раньше и требовало совместимых камер или ПО), новый метод меняет свет, которым освещается сцена.

Камера — хоть профессиональная, хоть обычный смартфон — автоматически «захватывает» эти едва заметные колебания яркости и частоты света. Глазом их не увидеть, но специальный анализ легко их распознаёт.

Программируемые источники (вроде мониторов или студийных ламп) можно закодировать с помощью софта. Обычные лампы тоже подойдут, если оснастить их небольшой микросхемой размером с почтовую марку.

Каждая лампа получает уникальный код, который создаёт что-то вроде «второго видео» — с временной меткой и немного изменённым освещением.

Если кто-то пытается подделать кадры или вставить в них фальшивые элементы, эти кодированные видео тут же «выдают» нестыковки. Пропавшие куски появляются как пробелы, а сгенерированные объекты — как чёрные пятна. Причём в одной сцене можно использовать сразу несколько независимых кодов, что делает задачу подделки ещё сложнее.

 

По словам авторов, технология работает даже в некоторых условиях на улице и одинаково надёжно с людьми разного цвета кожи. Однако они подчёркивают: это не панацея. С развитием генеративного ИИ подделывать видео будет всё проще, а значит, и методы защиты должны постоянно совершенствоваться.

Как отметил один из создателей, профессор Эйб Дэвис, раньше видео считалось доказательством, а теперь его можно «снять» о чём угодно. Это может быть весело, но и опасно, ведь отличить правду от вымысла становится всё труднее.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru