Google Sec-Gemini: новый помощник в защите от сложных угроз на основе ИИ

Google Sec-Gemini: новый помощник в защите от сложных угроз на основе ИИ

Google Sec-Gemini: новый помощник в защите от сложных угроз на основе ИИ

Компания Google анонсировала выпуск Sec-Gemini v1 — экспериментальной большой языковой модели (БЯМ, LLM), способной повысить эффективность рабочих процессов SecOps в условиях роста сложности киберугроз, использующих ИИ.

Построенный на основе LLM Gemini новый специализированный помощник обладает возможностью формирования рассуждений и по запросу выводит обработанную информацию, включая данные киберразведки (CTI), почти в реальном времени.

Необходимые для анализа сведения Sec-Gemini черпает из множества источников, таких как Google Threat Intelligence (GTI), свободная база уязвимостей в opensource-проектах (OSV) и Mandiant Threat Intelligence.

В качестве иллюстрации практической ценности LLM, заточенной под нужды ИБ, разработчики привели ее реакцию на вопрос о Salt Typhoon. ИИ-модель не только правильно идентифицировала кибергруппу, но также перечислила все характерные техники и тактики, а потом по просьбе юзера детализировала упомянутую в описании уязвимость.

 

Тестирование Sec-Gemini v1 по CTI-MCQ (стандартный набор вопросов для LLM с многовариантным ответом) и CTI-RCM (умение интерпретировать описания уязвимостей, определять первопричину и классифицировать по CWE) показало результаты как минимум на 10,5% лучше в сравнении с потенциальными конкурентами.

 

В Google убеждены: развивать кибербез на основе ИИ, чтобы дать достойный отпор противнику, тоже взявшему на вооружение ИИ, можно лишь объединенными усилиями участников рынка. С этой целью было решено открыть доступ к новой LLM ограниченному кругу исследователей — организаций, профессионалов и НКО.

Сотрудницу уволили за пранк с использованием дипфейка

Сотрудницу одного из маркетинговых агентств уволили из-за неудачной шутки с использованием сгенерированного изображения. На картинке якобы была запечатлена сотрудница налоговых органов, проводящая проверку в офисе компании. Этот случай называют первым подобным инцидентом в России.

О произошедшем сообщил телеграм-канал SHOT. По его данным, 26-летняя сотрудница разместила в корпоративном чате фотографию, на которой «налоговый инспектор» якобы находился в офисе агентства с проверкой.

Появление изображения вызвало панику и серьёзный переполох среди коллег.

Позже выяснилось, что фото было сгенерировано нейросетью. Сотрудница регулярно использовала ИИ для создания изображений, в том числе на основе реальных интерьеров офиса, и ранее такие эксперименты не вызывали негативной реакции. Однако изображение с участием якобы представителей налоговых органов оказалось исключением.

После того как стало известно, что картинка является дипфейком, сотрудницу уволили. По её словам, она не расстраивается из-за произошедшего и уже ищет новую работу.

RSS: Новости на портале Anti-Malware.ru