Gmail-аккаунты подвергаются новым фишинговым атакам

Gmail-аккаунты подвергаются новым фишинговым атакам

Gmail-аккаунты подвергаются новым фишинговым атакам

Киберпреступники используют специально созданные URL-адреса, чтобы обмануть даже технически подкованных людей и заставить их ввести данные Gmail на фишинговом веб-сайте. После того, как аккаунт взломан и злоумышленники получили доступ к нему, они начинают атаковать контакты пользователя.

Таким образом, контакты жертвы получают вредоносное письмо, которое, по-видимому, содержит PDF-документ, который можно просматривать непосредственно из Gmail. Однако кликнув на ссылку «вложение», что является вставленным изображением, пользователь будет перенаправлен на фишинговую страницу Gmail.

Адрес фишинговой страницы начинается с “data:text/html,https://accounts/google.com”, это может ввести многих пользователей в заблуждение, что сайт является легитимным.

За выглядящей легитимно частью URL следуют пробелы, не позволяющие пользователю увидеть подозрительные строки и обфусцированный скрипт, который открывает фишинговую страницу в новой вкладке.

Этот метод использовался в течение нескольких месяцев и даже технически подкованные пользователи признали, что попались на приманку. В недавних реализованных атаках подобного рода эксперты обнаружили, что злоумышленники сразу получили доступ к аккаунтам пользователей и использовали их для рассылки фишинговых писем контактам. Пока не удалось определить, автоматизирован ли этот процесс или же киберпреступники вручную рассылают вредоносные письма со взломанных аккаунтов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru