WordPress-сайты под атакой из-за уязвимости в Better Search Replace

WordPress-сайты под атакой из-за уязвимости в Better Search Replace

Киберпреступники начали эксплуатировать критическую уязвимость в WordPress-плагине Better Search Replace. Исследователи отметили тысячи попыток взлома веб-ресурсов в конце прошлой недели.

Better Search Replace помогает администраторам сайтов на WordPress организовать поиск и замену в базе данных при переезде на новые домены или серверы. У плагина более миллиона инсталляций.

На прошлой неделе WP Engine, разрабатывающая Better Search Replace, выпустила обновление под номером 1.4.5. В этой версии устраняется критическая уязвимость, приводящая к внедрению PHP-кода.

Брешь, которую отслеживают под идентификатором CVE-2023-6933, связана с десериализацией непроверенного ввода и позволяет атакующим внедрить PHP-объект.

Успешная эксплуатация приводит к выполнению кода, открывает доступ к конфиденциальным данным и позволяет удалять файлы.

Как уточняет команда Wordfence, уязвимость в Better Search Replace работает с связке с другим плагином или темой, где реализуется цепочка Property Oriented Programming (POP).

В конце прошлой недели Wordfence удалось остановить 2500 кибератак, в которых злоумышленники пытались эксплуатировать CVE-2023-6933.

Баг затрагивает все версии плагина Better Search Replace до 1.4.4. Пользователям рекомендуют обновиться до 1.4.5.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

В России начнут маркировать контент, сгенерированный нейросетью

Материалы, созданные нейросетью, российские сервисы будут автоматически маркировать четкими и заметными графическими знаками. По словам Антона Немкина, члена комитета Госдумы по информационной политике, это поможет усмирить бесконтрольное использование ИИ.

Начальник управления киберразведки и цифровой криминалистики Angara Security Никита Леокумович сообщил изданию «КоммерсантЪ», что стремительно развивающийся искусственный интеллект несёт в себе опасность.

Например, он может нарушать нормы морали и права человека, создавая вымышленные факты и генерируя дипфейки. Именно поэтому очень важно маркировать материалы, сгенерированные с помощью нейросети, включая текст, изображения и видео.

Огромное количество исходных кодов нейросети доступно любому пользователю. Возможно, из-за этого число мошенников, использующих ИИ, заметно выросло.

Сейчас есть возможность проверить, сгенерировано ли изображение с помощью искусственного интеллекта или создано человеком. Пользователю достаточно загрузить картинку на сервис (есть как платные, так и бесплатные), где алгоритм, основанный на ИИ, даст ответ.

По подсчётам компании «Диалог Регионы», около 12 миллионов дипфейков было обнаружено на просторах рунета в 2023 году. Исследователи предполагают, что к 2024 году это число вырастет до 15 млн.

Ярослав Шицле, руководитель направления «Разрешение IT & IP споров» юридической фирмы «Рустам Курмаев и партнеры» предполагает, что если сервисы не будут придерживаться требований и автоматически маркировать создаваемый ИИ контент, их будут блокировать или даже привлекать к ответственности.

О том, что вид графических символов на материалах может повлиять на рекламный рынок, рассказал управляющий партнер агентства PRT Edelman Глеб Сахрай. Пока неизвестно, насколько большой будет надпись, и как будут относиться люди к контенту, зная, что он сгенерирован нейросетью. Возможно, рекламные агентства снова прибегнут к помощи копирайтеров и дизайнеров.

Примечательно, что подобный закон в Евросоюзе уже действует с марта этого года. По сообщениям компании OpenAI, изображения, созданные ChatGPT, уже маркируются. Видео, сгенерированные встроенными алгоритмами в TikTok, помечаются платформой.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru