В России написали софт, выявляющий с помощью ИИ мошенников в чатах

В России написали софт, выявляющий с помощью ИИ мошенников в чатах

В России написали софт, выявляющий с помощью ИИ мошенников в чатах

Специалисты Кубанского государственного технического университета написали на Python софт, который поможет распознать мошенников в чатах мессенджеров. Для детектирования злонамеренной активности инструмент использует ИИ.

Как отметил в беседе с «Известиями» один из разработчиков, софт каждые 15 секунд делает скриншот рабочего окна и вычленяет текст на экране.

Затем искусственный интеллект отличает сообщения спамеров от безобидных посланий: если владелец устройства получил потенциально опасное сообщение, программа выведет соответствующее предупреждение.

Более того, софт разбивает вредоносные послания по категориям. Это может быть спам, фишинг или «социальная инженерия».

По словам разработчиков, ИИ обучали на распространённых уловках мошенников, которые, например, предлагают работу на маркетплейсах и т. п. Алгоритм в состоянии распознать методы выуживания данных банковских карт и другой информации.

Базовую версию софта можно будет скачать бесплатно, однако за дополнительные функции придётся платить, предупреждают девелоперы. Ожидается, что бета-версия выйдет во втором квартале 2024 года, а стабильный релиз — в 2026-м.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru