С начала года по ноябрь было создано 20 миллионов новых видов вредоносного ПО

С начала года по ноябрь было создано 20 миллионов новых видов вредоносного ПО

По данным лаборатории PandaLabs, за первые десять месяцев 2010 года число созданных и распространённых угроз составило одну треть от всех уже существующих. Автоматическая база данных Коллективного разума на данный момент содержит 134 миллиона файлов, 60 миллионов из которых являются вредоносными (вирусы, черви, трояны и другие виды угроз). Коллективный разум – это собственная технология компании Panda Security, которая автоматически распознаёт, анализирует и классифицирует полученные угрозы.



С начала года по ноябрь было создано 20 миллионов новых видов вредоносного ПО (включая новые угрозы и варианты уже существующих семейств). Это число равно количеству угроз, появившихся в течение всего 2009 года. Среднее число новых угроз, обнаруживаемых ежедневно, выросло с 55 000 до 63 000.

Всё это говорит о том, что рынок кибер-мошенничества сейчас не в лучшей форме. Отчасти это связано с тем, что увеличилось число кибер-преступников с ограниченными техническими знаниями, которые также взялись за дело.

Отметим, что количество создаваемых вредоносных программ растёт, но продолжительность их жизни становится меньше. 54% образцов вредоносного ПО активны в течение всего лишь суток, а в предыдущие годы подобные угрозы могли быть активными до 7 месяцев. Сейчас они инфицируют только несколько систем и затем исчезают. Так как антивирусные решения способны обнаруживать новые угрозы, хакеры модифицируют существующие образцы и создают на их основе новые, чтобы обойти систему обнаружения. Именно поэтому так важно существование таких технологий защиты, как Коллективный разум, который способен быстро нейтрализовать новое вредоносное ПО и снизить риск, которому подвержены пользователи в первые 24 часа существования новой угрозы.

Несмотря на эти впечатляющие цифры, скорость появления новых угроз снизилась по сравнению с показателями 2009 года. Луис Корронс, Технический директор PandaLabs, отмечает: «Темпы роста количества новых угроз составляли 100% и более. Однако в 2010 году этот показатель составляет примерно 50%».

«Это не значит, что сейчас меньше угроз или что рынок кибер-мошенничества сокращает свои объёмы. Скорее наоборот, он продолжает расширяться, и к концу 2010 года в базу данных Коллективного разума добавится больше образцов, чем в 2009 году. И всё же мы думаем, что хакеры опираются на количество, а не на качество. Они повторно используют существующие вредоносные коды и делают упор на распространение уже существующих угроз, а не на создание новых», - добавил Корронс.

Источник

ИИ в WhatsApp получил функцию организации диалогов

В свежей бета-версии WhatsApp (принадлежит Meta, признанной экстремистской и запрещенной в России) для Android (2.26.9.4) появилась новая функция с участием Meta AI. Теперь пользователи могут структурировать диалоги с ИИ: каждый новый промпт запускает отдельную «ветку» общения.

По данным WABetaInfo, часть бета-тестеров уже видит изменения. Формально каждая сессия с Meta AI считается самостоятельным разговором: информация из одной ветки не переносится автоматически в другую. Это должно упростить навигацию и помочь отслеживать, где именно обсуждалась та или иная тема.

При этом все диалоги с ИИ по-прежнему отображаются в едином интерфейсе. Более того, память у Meta AI остаётся общей для всех веток, если пользователь специально не отключит её в настройках контакта. То есть ИИ всё равно может учитывать предыдущие взаимодействия.

 

Функция выглядит удобной для тех, кто активно использует ИИ для поиска информации, генерации текстов или планирования. Но вместе с удобством возникают и вопросы о конфиденциальности.

Сообщения, отправленные Meta AI, обрабатываются на серверах компании, в отличие от обычных пользовательских чатов со сквозным шифрованием. Это значит, что переписка с ИИ выходит за рамки стандартной модели «сквозного» шифрования WhatsApp.

Пользователи могут делиться важной информацией (от личных данных до финансовых или медицинских деталей) не всегда задумываясь, как долго такие данные хранятся и как именно используются. В ЕС регуляторы уже обращали внимание на то, что некоторые сценарии обработки ИИ-данных требуют отдельного согласия.

Кроме того, Meta ранее подвергалась критике за практики обучения своих моделей. В официальных материалах компания отмечала, что взаимодействие с генеративными ИИ-инструментами может использоваться для персонализации контента и рекламы. Отказаться от такого использования данных нельзя.

В компании заявляют, что уделяют большое внимание защите информации. Однако как именно новые механизмы будут работать на практике, покажет время.

RSS: Новости на портале Anti-Malware.ru