Вышла новая R-Vision TIP с расширенной моделью данных

Вышла новая R-Vision TIP с расширенной моделью данных

Вышла новая R-Vision TIP с расширенной моделью данных

Компания R-Vision выпустила новую версию платформы управления данными киберразведки R-Vision Threat Intelligence Platform (TIP) 1.17. Ключевые изменения затронули модель данных продукта, возможности распределенных сенсоров обнаружения индикаторов компрометации, обработку свободно распространяемых потоков данных об угрозах и формирование бюллетеней.

Для повышения качества описания угроз в R-Vision TIP 1.17 расширили модель данных. Теперь в правилах автоматизации продукта появились фильтры, позволяющие формировать атомарные выборки индикаторов компрометации, связанные с конкретной угрозой, киберпреступной группировкой или вредоносной программой. Для максимального сужения выборки аналитики SOC могут добавлять сразу несколько фильтров. Полученные данные можно экспортировать или, например, отправить в SIEM-систему для поиска релевантных индикаторов компрометации.

В новой версии платформы разработчики также улучшили распределенные сенсоры, предназначенные для сбора индикаторов на удаленных площадках рядом с потоком данных SIEM-системы. Теперь для каждого из них можно добавить свою политику, определяющую срок автоматического удаления собранных данных.

Еще одно новшество R-Vision TIP 1.17 касается обработки open source фидов об угрозах. Теперь при добавлении CSV-фидов пользователю доступен конструктор, в котором можно указать, какие объекты и из каких колонок должна собирать платформа. Это дает возможность собирать из CSV-фидов не только индикаторы компрометации, но и ценный контекст для получения более точной информации об угрозе, например, имена вредоносного ПО, временные метки, название вредоносной группировки или кампании.

Кроме того, в R-Vision TIP 1.17 расширены возможности по формированию информационных материалов об угрозах и уязвимостях. Ранее для каждой уязвимости в платформе нужно было создавать отдельные бюллетени, теперь же можно сформировать единый бюллетень о множественных угрозах. Эта функция призвана повысить удобство работы ИБ-аналитиков при необходимости распространить информацию и рекомендации по защитным мерам от связанных угроз.

«Мы планомерно развиваем как движок обработки TI-данных, так и возможности по удобному и быстрому поиску угроз внутри инфраструктуры. Первое позволяет более эффективно и качественно собирать данные TI, дает пользователям широкий кругозор и охват источников, второе помогает гибко и оперативно определять, подвержена ли инфраструктура организации актуальным для нее угрозам. Широкие возможности по сбору данных из различных источников, нормализация, валидация, механизмы управления жизненным циклом крайне важны, так как позволяют получать знания о ландшафте угроз и своевременно реагировать на них», — отметил Антон Соловей, менеджер продукта R-Vision Threat Intelligence Platform.

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru