Мошенники распространяют фейковые Android-версии Clubhouse в Play Store

Мошенники распространяют фейковые Android-версии Clubhouse в Play Store

Мошенники распространяют фейковые Android-версии Clubhouse в Play Store

Кибермошенники быстро сориентировались и уже используют набирающую популярность социальную сеть Clubhouse в своих целях. В магазине Android-приложений Google Play Store уже появились фейковые копии Clubhouse, а на «Авито» и «Юле» — приглашения на новую платформу.

Есть у Clubhouse и другая особенность, которая беспокоит исследователей в области кибербезопасности. По словам специалистов, мошенники в теории могут использовать платформу для снятия речевых профилей, поскольку Clubhouse предоставляет достаточно аудиоматериала.

Приглашения в Clubhouse, подделки которых можно встретить на «Юле» и «Авито», стоят от 200 до 10 тысяч рублей. Представители «Юлы», к слову, уже подтвердили повышенный спрос на соответствующие инвайты.

А вот руководство «Авито» решило бороться с мошенническими схемами. Поэтому с сегодняшнего дня площадка запрещает торговать приглашениями в Clubhouse.

В Роскомнадзор и правоохранительные органы уже поступил запрос на контроль Clubhouse. Например, ведомство может заблокировать социальную сеть, если та не предоставит сведения о включении в реестр организаторов распространения информации.

Денис Легезо, специалист антивирусной компании «Лаборатория Касперского», сказал изданию «Коммерсантъ», что его больше всего беспокоят вредоносные копии Clubhouse в Google Play Store. Эксперт отметил, что с помощью таких зловредов злоумышленники могут отслеживать геолокацию устройства, а также перехватывать переписки пользователя в мессенджерах.

Об опасности хакерских атак на пользователей соцсети Clubhouse рассказал нам заместитель генерального директора - технический директор компании «Газинформсервис» Николай Нашивочников:

«Возможность присоединяться к комнатам для разговоров анонимно и обходить элементы управления модератора аудиочата является серьезным подспорьем для хакерских атак. Можно вспомнить хотя бы недавние атаки во время видеоконференций в Zoom. Тут может случиться как минимум то же самое. Злоумышленники, по сути, имеют возможность проведения фейковых аудио конференций и за счет синтеза голоса определенных знаменитостей, которых уже достаточно много присоединилось к новой социальной сети. Хакеры уже не первый год обманывают людей по телефону от имени, например, их родственников даже без подделки голоса, а тут в помощь мошенникам могут прийти голоса звезд, доверие к которым, обычно, у людей выше».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Исследователи показали, как управлять «мыслями» ИИ на лету

Команда из T-Bank AI Research предложила новый подход к интерпретации и управлению большими языковыми моделями — вроде тех, что лежат в основе современных чат-ботов. Разработку представили на международной конференции ICML в Ванкувере, одном из крупнейших событий в области машинного обучения.

Речь идёт о модифицированном методе SAE Match, который позволяет не просто наблюдать за тем, как модель обрабатывает информацию, но и влиять на это поведение без переобучения или вмешательства в архитектуру.

Что нового?

Вместо того чтобы просто смотреть, какие признаки активируются в слоях модели, исследователи научились строить граф потока признаков. Он показывает, как определённые смысловые элементы (например, тема или стиль ответа) зарождаются и проходят через внутренние механизмы модели — от attention до feedforward.

Самое интересное — теперь можно точечно усиливать или подавлять эти элементы. Например, изменить тональность текста или убрать нежелательную тему. Причём это делается не путём настройки модели заново, а с помощью управления внутренними активностями на нужных этапах.

Почему это важно?

  • Можно контролировать поведение модели более точно, если воздействовать сразу на несколько уровней обработки.
  • Не нужны дополнительные данные или переобучение, метод работает с уже обученными моделями.
  • Прозрачность — можно проследить, откуда берётся тот или иной фрагмент текста: из контекста или из внутренних «знаний» модели.
  • Безопасность — если модель сгенерировала что-то нежелательное, теперь можно понять, почему так вышло, и в будущем избежать повторения.

В чём уникальность?

Раньше интерпретация ИИ сводилась к тому, чтобы просто наблюдать, как он работает. Теперь же появляется возможность вмешиваться в процесс генерации — причём быстро и точечно. Это может быть полезно не только в научных задачах, но и в реальных продуктах, где важно избегать неожиданных или опасных ответов от ИИ.

Так что теперь исследователи могут не просто догадываться, что происходит внутри модели, а действительно видеть и управлять этими процессами. И это, по сути, шаг к более контролируемому и предсказуемому искусственному интеллекту.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru