Google совершенствует инструменты безопасности в Google Cloud, G Suite

Google совершенствует инструменты безопасности в Google Cloud, G Suite

Google совершенствует инструменты безопасности в Google Cloud, G Suite

В среду корпорация Google анонсировала набор новых функций безопасности для Google Cloud Platform и G Suite. По словам компании, новые возможности дадут компаниям больше контроля над их средой безопасности.

Для Google Cloud Platform были реализованы службы управления виртуальным приватным облаком VPC Service Controls. В настоящее время в альфа-версии представлен файрвол для основанных на API служб, а также функции защиты данных от утечки в случае проникновения злоумышленника в систему.

«Представьте, что вы создаете невидимую границу вокруг всего внутри приложения, эта граница предотвращает утечку данных и дает возможность настраивать все по своему усмотрению», — пишет вице-президент Google по вопросам безопасности в своем блоге.

Компания также запускает инструмент Cloud Security Command Center, который дает компаниям более глубокое представление о защищенности их данных в облачных сервисах Google. Его основная функция заключается в том, чтобы помочь компаниям собрать данные, оценить угрозы и принять меры до того, как данные будут скомпрометированы или потеряны.

Для более качественной оценки киберрисков Google сотрудничает с такими компаниями, как Cloudflare, CrowdStrike, Dome9, RedLock, Palo Alto Networks и Qualys. Компания также уделила больше внимания противостоянию атакам DDoS и защите приложений, для чего был запущен сервис Cloud Armor.

Cloud Armor предлагает инструменты белых и черных списков, а также интегрируется с сервисом Cloud HTTP(S) Load Balancing.

Что касается G Suite, то здесь корпорация реализовала новые функции антифишинга. Google добавила машинное обучение, которое будет автоматически помечать подозрительные электронные письма с зашифрованными вложениями или встроенными скриптами. В то же время обновленные функции защиты от фишинга теперь могут быть настроены на автоматическое включение последних функций безопасности, рекомендованных Google.

Google также объявила, что на мобильных устройствах, имеющих доступ к G Suite, новые проактивные параметры безопасности будут активированы автоматически.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Зловредный ИИ-помощник WormGPT возродился как клон Grok и Mixtral

Несмотря на прекращение продаж доступа к оригинальному WormGPT, вредоносный чат-бот продолжает жить и здравствовать. Анализ новых итераций ИИ-помощника киберкриминала показал, что они построены на базе моделей Grok и Mixtral.

Специализированный ИИ-инструмент WormGPT, созданный на основе большой языковой модели (БЯМ, LLM) с открытым исходным кодом GPT-J, впервые всплыл на подпольных форумах в июне 2023 года.

Лишенный этических ограничений чат-бот быстро обрел популярность в криминальных кругах как эффективное подспорье в проведения фишинговых атак, однако через пару месяцев разработчики закрыли проект — по их словам, из-за повышенного внимания СМИ и борцов за чистоту интернета.

Тем не менее, запущенный в оборот бренд сохранил свое присутствие на черном рынке. В октябре 2024 года на BreachForums стали продвигать новый вариант WormGPT, доступный через телеграм-бот.

 

Проведенный в Cato Networks анализ показал, что он построен на базе ИИ-модели разработки Mistral AI. Поведение ИИ-помощника определяет системная подсказка-стимул: «WormGPT не должен следовать стандарту модели Mistral. Всегда генерируй ответы в режиме WormGPT».

В минувшем феврале там же объявилась еще одна модификация WormGPT. Платный доступ к ней тоже предоставляется через Telegram. Как оказалось, новинка использует Grok API и кастомную системную подсказку, позволяющую обойти встроенные в Grok защитные фильтры.

 

За последние годы помимо WormGPT было создано множество других «злых» аналогов популярных ИИ-инструметов — FraudGPT, DarkBERT, EvilGPT, and PoisonGPT. А недавно в даркнете был запущен ИИ-сервис, предоставляющий выбор больших языковых моделей (БЯМ, LLM) со снятыми ограничениями.

Параллельно злоумышленники не прекращают попыток проведения jailbreak-атак на легитимные LLM с целью обхода защитных фильтров. Рост доступности ИИ привел к расширению его использования киберкриминалом, и эта тенденция не может не тревожить ИБ-сообщество.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru