70% компаний столкнулись с атаками на LLM — чаще всего фишинг

70% компаний столкнулись с атаками на LLM — чаще всего фишинг

70% компаний столкнулись с атаками на LLM — чаще всего фишинг

Компании всё активнее внедряют большие языковые модели (LLM) в свои процессы — по оценкам, уже более 90% российских организаций используют ИИ-инструменты. Но вместе с этим растёт и число атак. По данным экспертов «Информзащиты», около 70% компаний уже столкнулись с попытками атак через LLM. Причина проста — безопасность ИИ часто остаётся «на потом», чем и пользуются злоумышленники.

Один из самых распространённых сценариев — это инъекции запросов (Prompt Injection). Суть в том, что хакер добавляет к обычному запросу фразу вроде «игнорируй предыдущие инструкции» — и модель, не различая, что к чему, может выполнить вредоносную команду.

Причём для такой атаки не нужны сложные знания: достаточно написать нужный текст — и модель поддастся.

По статистике, на такие инъекции приходится больше 40% атак на ИИ. В половине случаев их используют для фишинга, ещё в 40% — чтобы вытащить данные из систем. Под удар чаще всего попадают компании, где LLM работает на пользовательский фронт: чат-боты, умный поиск и т. д. Это особенно актуально для ретейла (37% атак), финансового сектора (25%) и телеком-компаний (17%).

Проблема ещё и в том, что безопасность часто отстаёт от скорости внедрения технологий. По оценке «Информзащиты», около 65% компаний запускают LLM без полноценной настройки и проверки. Модели могут получить доступ к внутренним базам данных, работать без ограничений по форматам запросов — и это делает их уязвимыми.

Что рекомендуют эксперты? Во-первых, регулярно проверять ИИ-инструменты на уязвимости: аудит, пентесты, оценка рисков. Во-вторых — грамотно настраивать модели: ограничивать доступ к чувствительным данным, вводить фильтры и валидацию запросов. И, наконец, подключить мониторинг — например, через SOC — чтобы вовремя замечать подозрительную активность и реагировать на атаки.

Злоумышленники научились использовать умные кормушки для слежки

Злоумышленники могут использовать взломанные умные кормушки для животных для слежки за владельцами. Для получения информации применяются встроенные в устройства микрофоны и видеокамеры. Получив несанкционированный доступ, атакующие способны наблюдать за происходящим в помещении и перехватывать данные.

Об использовании таких устройств в криминальных целях рассказал агентству «Прайм» эксперт Kaspersky ICS CERT Владимир Дащенко.

«Это уже не гипотетическая угроза: известны случаи взлома домашних камер, видеонянь, кормушек для животных и других умных приборов», — предупреждает эксперт.

По словам Владимира Дащенко, вопросам кибербезопасности таких устройств часто не уделяется должного внимания. Между тем любое оборудование с доступом в интернет может стать точкой входа для злоумышленников.

Скомпрометированные устройства могут использоваться и для атак на другие элементы домашней сети — например, смартфоны или компьютеры. Кроме того, они способны становиться частью ботнетов, применяемых для DDoS-атак или майнинга криптовалют. На подобные риски почти год назад обращало внимание МВД России.

Среди признаков возможной компрометации умных устройств эксперт называет самопроизвольные отключения, резкие изменения сетевой активности, появление сообщений об ошибках или другие нетипичные события.

RSS: Новости на портале Anti-Malware.ru