Текстовые CAPTCHA требуют доработки

Текстовые CAPTCHA требуют доработки

Исследователи из Стэнфордского университета продемонстрировали уязвимость текстовых CAPTCHA к автоматизированным атакам, взломав 13 из 15 защитных решений, используемых на популярных веб-сайтах.



Полтора года американцы изучали современные средства противодействия алгоритмам сегментации и распознавания символов на живых примерах, взятых из Сети. По результатам исследования была создана полностью автоматизированная система для расшифровки тестов CAPTCHA, способная производить очистку от «шума», разбивать строки символов на отдельные фрагменты, нормализовать их размеры, опознавать знаки и осуществлять проверку правописания, если контрольное изображение представлено словом или фразой. Экспериментальный инструмент получил наименование Decaptcha и был применен для получения несанкционированного доступа к 15 разным по тематике сайтам, включая специализированные сервисы Captcha.net и Recaptcha.net.

В итоге на Baidu и Skyrock коэффициент результативности составил 1-10%, на CNN и Digg ― 10-24%; на eBay, Reddit, Slashdot и Wikipedia 25-49%; на Authorize.net, Blizzard, Captcha.net, Megaupload и NIH.gov 50% и выше. Бастионы Google и Recaptcha остались непокоренными. Следует отметить, что после проведения испытаний платежный сервис Visa Authorize и Digg поменяли свою защиту от ботов на reCAPTCHA, сообщает securelist

Исходя из результатов исследования, академики составили список рекомендаций по усилению текстовых CAPTCHA. По их мнению, рандомизация длины цепочки символов и размера каждого знака не приведет в замешательство человека, но значительно усложнит работу автомата. Эффективными признаны также такие трюки, как волнообразная форма строки, слитное написание знаков и наложение шумовых штрихов произвольной длины. Использование большого набора контрольных тестов, верхнего регистра и похожих символов, против ожидания, оказалось малоэффективным и лишь увеличивает процент ошибок при авторизации легальных пользователей.

Работа университетских исследователей из Стэнфорда была представлена на чикагской конференции ACM по компьютерной и сетевой безопасности (CCS 2011). Ее авторы планируют продолжать совершенствование Decaptcha и техник противодействия автоматизированному взлому контрольных тестов.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Мошенники используют ИИ для подделки фото ДТП с целью получения страховки

Киберполиция Санкт-Петербурга и Ленобласти со ссылкой на данные Росгосстраха предупреждает о появлении в рунете мошеннических сервисов по ИИ-генерации фото разбитых машин для получения выплат по ОСАГО и КАСКО.

Российские страховщики предлагают автомобилистам самостоятельно фиксировать ущерб от ДТП и подавать такие данные через интернет. Следящие за повесткой дня злоумышленники не могли упустить лишний шанс для обогащения, хотя их расценки пока либеральны.

Киберкопы северной столицы опубликовали рекомендации по добросовестному сбору доказательств страхового случая:

  • снимать ДТП с разных позиций и при хорошем освещении;
  • фотографировать не только повреждения, но также окружение (дорожные знаки, позиции автомашин);
  • лучше сделать видео, его сложнее сфальсифицировать;
  • в отснятых материалах должны присутствовать время, место, ФИО свидетелей ДТП и номера авто, засветившихся на месте происшествия;
  • оригиналы фото- и видеосъемки следует сохранить, а копии пересылать лишь через сервис страховой компании, левые предложения в соцсетях для этого не годятся.

Страховым компаниям как потенциальным жертвам подлога советуют тщательно проверять метаданные фото, запрашивать съемку с разных ракурсов, использовать средства детектирования фейков и целостности присланных файлов, а также обучать клиентов правилам фиксации ДТП и подачи заявлений.

При появлении подозрений на обман следует запустить проверку с привлечением правоохранительных органов. Что касается мошеннических фейков, российские ученые уже более двух лет ратуют за маркировку контента, создаваемого с помощью ИИ.

Ограничить использование ИИ-технологий также призывают российские парламентарии — в связи с рисками, которые усилиями экспертов осознали не только в России, но и за рубежом. Тем не менее, международному сообществу пока не удалось добиться консенсуса по вопросам урегулирования ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru