IBM Security Intelligence научилась вычислять «стукачей»

Новый инструмент IBM позволит минимизировать утечки данных

IBM сегодня анонсировала новый защитный инструмент IBM Security Intelligence with Big Data, который помогает ИТ-менеджерам определять внутренние и внешние угрозы безопасности новыми способами. Система умеет сканировать электронные письма и социальные сети, находя ненадежных сотрудников, которые часто разбалтывают секреты компании.



IBM Security Intelligence with Big Data – по-своему уникальное программное обеспечение. Эта система может анализировать буквально терабайты самых разных электронных сообщений, финансовых счетов и веб-траффика, определяя угрозы для систем безопасности и потенциальные возможности мошенничества. Кроме просто предотвращения угроз, новая платформа, основанная на Hadoop, позволит ИТ-менеджерам проводить анализ электронных сообщений конкретного пользователя, определяя, насколько он предрасположен к распространению секретных данных. Болтливость пользователя определяется разницей в том, как человек отзывается о своей работе с коллегами и с публикой в социальных сетях. Компьютер сможет находить пользователей, затаивших обиду на компанию.

 



Например, программа может проанализировать письма пользователя, в которых рассказывается о положительных моментах работы, и сравнить эти данные с тем, как он высказывается в разговорах с друзьями о месте своей работы. Учитывая эти отличия и многие другие факторы, IBM Security Intelligence with Big Data может дать IT-команде наводку на неблагонадежного сотрудника. В основе системы анализа лежит специальный алгоритм распознавания фраз, позволяющий определять их позитивную или негативную окраску.

Платформа также помогает компаниям защищаться от хакерских атак и мошенничества, позволяя специалистам по системам безопасности быстрее находить методы, которыми хакеры пользовались во время предыдущих атак (определять время вторжения, место из которого проводилась атака, устанавливать какие программы использовались для взлома).

Один из первых клиентов, купивших IBM Security Intelligence with Big Data, по имени Марк Клэнси работает в Depository Trust & Clearing Corp. По его словам он не собирается использовать аналитические возможности Security Intelligence. Вместо этого он планирует делать специальные запросы, которые используют другие аналитические механизмы, исследующие не только почту, но и записи о путешествиях пользователя.

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru