Google расширяет список личных данных, которые можно удалить из поисковика

Google расширяет список личных данных, которые можно удалить из поисковика

Google расширяет список личных данных, которые можно удалить из поисковика

Компания Google дополнила перечень типов конфиденциальной информации, которые готова убрать из выдачи. Если раньше речь шла о личных фотографиях и несовершеннолетних, теперь можно потребовать удалить адрес проживания, номера телефонов и попавшие в сеть пароли.

В обновленном списке также значатся:

  • вся контактная информация
  • номера счетов и кредиток
  • фото и сканы паспортов
  • официальные документы и медицинские карты

Чтобы удалить такую информацию со страниц Google, нужно отправить запрос, указав нужные URL-страниц. Компания рассмотрит заявление, и если на сайте есть персональные данные, явные и скрытые угрозы для пользователя, контент из выдачи скроют. Исключение — информация, представляющая собой публичный интерес или опубликованная официальными источниками. То есть выдачу новостей и государственных документов скрыть не получится.

 

Google также обещает скрывать по требованию из выдачи сайты, на которых торгуют базами данных.

Есть еще один нюанс, о котором важно помнить: сокрытие ссылки из поисковика не означает удаление самого контента. Если на портал зайдут с другого ресурса или напрямую, Google уже не поможет.

Эксперты: за год число вредоносных opensource-компонентов возросло в 11 раз

В 2025 году в компании CodeScoring зарегистрировали 457 тыс. вредоносных библиотек с открытым исходным кодом — в 11 раз больше, чем в предыдущем году. Зафиксировано также 14 тыс. новых уязвимостей в таких компонентах.

По словам специалистов, сохраняют актуальность и более ранние неприятные находки — к примеру, RCE-уязвимость Log4Shell, которая все еще присутствует в 15 тыс. сторонних библиотек. Публикация подобных пакетов грозит атаками на цепочку поставок.

В уходящем году также зафиксировано появление новой, еще более опасной угрозы — самоходного червя Shai Hulud, способного создавать новые репозитории и воровать конфиденциальные данные с CI/CD-платформ.

В связи с бурным ростом популярности ИИ объявился новый вектор атаки — slopsquatting: злоумышленники начали использовать склонность больших языковых моделей (БЯМ, LLM) к галлюцинациям для внедрения в легитимные проекты небезопасного кода.

Из-за этой особенности умный помощник по разработке может ошибиться и вместо легитимной библиотеки предложить для использования вредоносную со схожим названием. По данным CodeScoring, в России ИИ-ассистентов применяют 30% разработчиков, и потенциально опасные галлюцинации происходят у LLM в 20% случаев.

Чтобы защититься от атак на цепочку поставок, эксперты советуют вести тщательный учет компонентов, используемых для сборки софта, при установке библиотек выставлять запрет на исполнение скриптов, а также следовать стандарту ГОСТ Р 56939-2024 и активнее внедрять технологии безопасной разработки.

RSS: Новости на портале Anti-Malware.ru