За 2019 год в мире утекли 13,7 млрд записей персональных данных

За 2019 год в мире утекли 13,7 млрд записей персональных данных

За 2019 год в мире утекли 13,7 млрд записей персональных данных

Аналитики компании InfoWatch исследовали структуру утечек персональных данных в России и в мире. Помимо общего числа скомпрометированных за прошлый год данных, специалисты рассказали о доле умышленных и неумышленных утечек.

Как выяснили в InfoWatch, общее количество скомпрометированных записей персональных данных за 2019 год превысило 13,7 млрд. Это и имена с фамилиями, и адреса электронной почты, и контактные телефоны, и номера социального страхования, и места проживания.

Доля как умышленных, так и неумышленных утечек как основного вида конфиденциальной информации в мире составила 74,8%. В России — 85,2%.

Удивительно, что число скомпрометированных записей превысило мировое население почти в два раза. Эксперты подчёркивают, что такие показатели могу говорить о том, что многие люди неоднократно становились жертвами взлома и утечки важных данных.

Сравнив эти показатели с 2018 годом, аналитики InfoWatch пришли к выводу, что число инцидентов с компрометацией личной информации выросло на 22,5% в мире и на 56% в России. Доля умышленных утечек составила в мире — 60,2%, в России — 48,6%.

Самым значимым каналом утечки стала Сеть, через которую происходит более 60% подобных инцидентов в России, а в мире — почти 70%.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Зловредный ИИ-помощник WormGPT возродился как клон Grok и Mixtral

Несмотря на прекращение продаж доступа к оригинальному WormGPT, вредоносный чат-бот продолжает жить и здравствовать. Анализ новых итераций ИИ-помощника киберкриминала показал, что они построены на базе моделей Grok и Mixtral.

Специализированный ИИ-инструмент WormGPT, созданный на основе большой языковой модели (БЯМ, LLM) с открытым исходным кодом GPT-J, впервые всплыл на подпольных форумах в июне 2023 года.

Лишенный этических ограничений чат-бот быстро обрел популярность в криминальных кругах как эффективное подспорье в проведения фишинговых атак, однако через пару месяцев разработчики закрыли проект — по их словам, из-за повышенного внимания СМИ и борцов за чистоту интернета.

Тем не менее, запущенный в оборот бренд сохранил свое присутствие на черном рынке. В октябре 2024 года на BreachForums стали продвигать новый вариант WormGPT, доступный через телеграм-бот.

 

Проведенный в Cato Networks анализ показал, что он построен на базе ИИ-модели разработки Mistral AI. Поведение ИИ-помощника определяет системная подсказка-стимул: «WormGPT не должен следовать стандарту модели Mistral. Всегда генерируй ответы в режиме WormGPT».

В минувшем феврале там же объявилась еще одна модификация WormGPT. Платный доступ к ней тоже предоставляется через Telegram. Как оказалось, новинка использует Grok API и кастомную системную подсказку, позволяющую обойти встроенные в Grok защитные фильтры.

 

За последние годы помимо WormGPT было создано множество других «злых» аналогов популярных ИИ-инструметов — FraudGPT, DarkBERT, EvilGPT, and PoisonGPT. А недавно в даркнете был запущен ИИ-сервис, предоставляющий выбор больших языковых моделей (БЯМ, LLM) со снятыми ограничениями.

Параллельно злоумышленники не прекращают попыток проведения jailbreak-атак на легитимные LLM с целью обхода защитных фильтров. Рост доступности ИИ привел к расширению его использования киберкриминалом, и эта тенденция не может не тревожить ИБ-сообщество.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru