Google: количество взломанных сайтов возросло на 32%

Google: количество взломанных сайтов возросло на 32%

Google: количество взломанных сайтов возросло на 32%

Специалисты Google раскрыли статистику за прошедший 2016 год, сообщив, что скомпрометированных сайтов стало существенно больше. По данным компании, веб-безопасность в 2016 году не улучшилась, о чем наглядно говорят цифры. Так, по сравнению с 2015 годом, в 2016 году скомпрометированных сайтов стало больше на 32%.

Однако 84% владельцев сайтов все же сумели очистить свои ресурсы от малвари, подали запрос на повторную проверку сайта и успешно ее прошли. Также специалисты Google напоминают, что после очистки сайта стоит пройти и регистрацию в Search Console. Дело в том, что по информации исследователей, 61% администраторов взломанных сайтов вообще не получали никаких предупреждений от Google и долгое время не знали, что их ресурс скомпрометирован. И все из-за того, что сайт не был верифицирован в Search Console, пишет xakep.ru.

«Мы не ожидаем замедления данной тенденции, — пишут специалисты. — Пока хакеры становятся агрессивнее, и всё больше сайтов устаревают, хакеры продолжат заражать всё больше сайтов ради своей выгоды».

Эксперты Google пишут, что они всегда готовы прийти на помощь веб-мастерам, и те чаще всего просят публиковать как можно больше простой и понятной документации о взломах и защите от них. Так как специалисты постоянно сталкиваются с множеством одинаковых угроз, они составили ряд инструкции по очистке сайтов после определенных типов атак, к примеру, рассказали, как бороться с Gibberish-атаками или атаками Cloaked Keywords и Japanese Keywords.

«Как и всегда, лучше превентивно позаботиться о безопасности вашего сайта, нежели потом разбираться с последствиями [взлома]. Помните о том, что цепь так же крепка, как и ее самое слабое звено», — напутствуют специалисты.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Google представил VaultGemma — LLM с дифференциальной приватностью

В семействе больших языковых моделей (БЯМ, LLM) с открытым кодом, разработанных в Google, прибавление. Новинка VaultGemma не запоминает конфиденциальные данные при обучении, что предотвращает их слив пользователям.

ИИ-модель, построенная на базе Gemma 2 и работающая по 1 млрд параметров, прошла предварительный тренинг с применением метода дифференциальной приватности (differential privacy) — он добавляет в процесс обучения эталонный шум для ограничения возможности запоминания.

К сожалению, такой подход снижает не только риск утечки конфиденциальных данных, но также точность и быстродействие LLM. Чтобы найти оптимальный баланс между приватностью, практичностью и затратами на вычисления, в Google провели специальное исследование.

Бенчмаркинг показал, что по производительности VaultGemma сравнима с моделями той же величины, но без гарантий конфиденциальности.

 

Подробная информация о новом opensource-проекте, способном ускорить создание приватных и безопасных ИИ-систем для медучреждений, финансовых институтов и госсектора, выложена на Hugging Face и Kaggle.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru