Текстовые CAPTCHA требуют доработки

Текстовые CAPTCHA требуют доработки

Исследователи из Стэнфордского университета продемонстрировали уязвимость текстовых CAPTCHA к автоматизированным атакам, взломав 13 из 15 защитных решений, используемых на популярных веб-сайтах.



Полтора года американцы изучали современные средства противодействия алгоритмам сегментации и распознавания символов на живых примерах, взятых из Сети. По результатам исследования была создана полностью автоматизированная система для расшифровки тестов CAPTCHA, способная производить очистку от «шума», разбивать строки символов на отдельные фрагменты, нормализовать их размеры, опознавать знаки и осуществлять проверку правописания, если контрольное изображение представлено словом или фразой. Экспериментальный инструмент получил наименование Decaptcha и был применен для получения несанкционированного доступа к 15 разным по тематике сайтам, включая специализированные сервисы Captcha.net и Recaptcha.net.

В итоге на Baidu и Skyrock коэффициент результативности составил 1-10%, на CNN и Digg ― 10-24%; на eBay, Reddit, Slashdot и Wikipedia 25-49%; на Authorize.net, Blizzard, Captcha.net, Megaupload и NIH.gov 50% и выше. Бастионы Google и Recaptcha остались непокоренными. Следует отметить, что после проведения испытаний платежный сервис Visa Authorize и Digg поменяли свою защиту от ботов на reCAPTCHA, сообщает securelist

Исходя из результатов исследования, академики составили список рекомендаций по усилению текстовых CAPTCHA. По их мнению, рандомизация длины цепочки символов и размера каждого знака не приведет в замешательство человека, но значительно усложнит работу автомата. Эффективными признаны также такие трюки, как волнообразная форма строки, слитное написание знаков и наложение шумовых штрихов произвольной длины. Использование большого набора контрольных тестов, верхнего регистра и похожих символов, против ожидания, оказалось малоэффективным и лишь увеличивает процент ошибок при авторизации легальных пользователей.

Работа университетских исследователей из Стэнфорда была представлена на чикагской конференции ACM по компьютерной и сетевой безопасности (CCS 2011). Ее авторы планируют продолжать совершенствование Decaptcha и техник противодействия автоматизированному взлому контрольных тестов.

Internet Archive научил WordPress автоматически чинить битые ссылки

Internet Archive и Automattic запустили полезный инструмент для всех, кто работает с WordPress. Новый плагин под названием Link Fixer призван бороться с одной из главных болей интернета — «гниением ссылок» (link rot). Если коротко, проблема в том, что со временем ссылки в статьях начинают вести в никуда.

Страницы удаляются, сайты закрываются, URL меняются; и вместо полезного источника читатель получает ошибку.

По данным исследования Pew Research за 2024 год, почти 40% ссылок, существовавших в 2013 году, к сегодняшнему дню уже не работают.

Link Fixer решает эту проблему в связке с Wayback Machine — архивом веб-страниц от Internet Archive. Плагин сканирует публикации на WordPress, проверяет все внешние ссылки и сверяется с архивом.

Если нужной страницы в архиве ещё нет, инструмент сам создаёт её снимок. А если оригинальная ссылка со временем «умирает», читателя автоматически перенаправляют на сохранённую версию.

При этом плагин работает аккуратно: он регулярно перепроверяет ссылки, и если исходная страница снова становится доступной, редирект на архив отключается, а пользователь снова попадает на оригинал. Вдобавок Link Fixer архивирует и сами публикации владельца сайта, помогая сохранить их для будущего.

Управление плагином довольно простое: например, можно настроить, как часто он будет проверять ссылки (по умолчанию — раз в три дня). В итоге инструмент работает в фоне и почти не требует внимания.

Описание и всю подробную информацию можно найти на GitHub.

RSS: Новости на портале Anti-Malware.ru