InfoWatch представляет глобальное исследование утечек конфиденциальной информации за 2009 год

InfoWatch представляет глобальное исследование утечек конфиденциальной информации за 2009 год

...

Компания InfoWatch выпустила аналитическое исследование инцидентов, связанных с утечками конфиденциальных данных за 2009 год. Аналитики InfoWatch отмечают, что в прошлом году рост общего количества фиксируемых утечек продолжился, но замедлился. Среди возможных причин названы финансовый кризис, повышение латентности, массовые внедрения DLP-систем.


Основой для данного отчёта послужила база данных утечек, которую ведет аналитический центр компании InfoWatch с 2004 года. В базу входят утечки во различных странах мира, информация о которых была опубликована в СМИ, блогах, веб-форумах и других общедоступных источниках.
Общее фиксируемое количество утечек в первом полугодии 2009 по сравнению с аналогичным периодом 2008 года показало тенденцию к увеличению (2,3 утечки в сутки), а во втором полугодии начало снижаться и по итогам года составило 735 утечек/365 дней = 2,0 утечки в сутки. В связи с постепенным внедрением DLP-систем и иных средств защиты от внутренних инцидентов аналитики InfoWatch ожидают плавного уменьшения числа инцидентов. В целом же по сравнению с 2008 годом число утечек выросло: 735 против 530 — рост на 39%.


Среди основных тенденций прошедшего года специалисты InfoWatch также отмечают, что доля умышленных утечек продолжает увеличиваться и в ближайшее время будет неуклонно расти. На взгляд аналитиков InfoWatch, как защита, так и утечки персональных данных являются самыми значительными «статьями» расходов при оценке стоимости информационных рисков.


При этом защитники информации излишне сконцентрированы на электронной защите, упуская из виду традиционные (преимущественно случайные) утечки бумажных носителей, которые можно предотвратить лишь организационными мерами.


В пост-кризисных условиях при необходимости жесткой экономии средств на защиту информации начать следует с шифрования ноутбуков и фильтрации интернет-трафика на шлюзе – это самые вероятные каналы утечки данных. Однако следует помнить, что такая защита эффективно работает лишь против случайных утечек (43,5%), а злоумышленный инсайдер, зная о блокировании одного канала, будет искать другой.


Получить полную версию исследования InfoWatch по утечкам в 2009 году можно здесь http://www.infowatch.ru/threats_and_risks/global-data-leakage-report2009/

Вышла утилита RKN Block Checker для диагностики блокировок

Разработчик Дмитрий Виноградов представил утилиту RKN Block Checker с открытым исходным кодом. Она помогает понять, почему конкретный сайт не открывается: это обычная сетевая проблема или блокировка на стороне провайдера / регуляторной инфраструктуры.

Проект написан на Python и опубликован под лицензией MIT. Утилита работает из командной строки и проверяет соединение по цепочке DNS → TCP → TLS → HTTP.

Идея простая: не просто выдать вердикт, что сайт недоступен, а показать, на каком именно уровне всё сломалось. Например, если системный DNS не даёт нормальный ответ, а Cloudflare DoH возвращает корректный адрес, это может указывать на DNS-подмену. Если TCP-соединение на 443-й порт сбрасывается, речь может идти о блокировке на уровне IP.

Если TCP проходит, но соединение рвётся на TLS-рукопожатии с SNI, это уже похоже на работу DPI / ТСПУ. А если сайт открывается, но вместо страницы приходит заглушка провайдера или код 451, утилита фиксирует и такой сценарий.

 

Автор отдельно подчёркивает, что смысл RKN Block Checker не в том, чтобы заменить браузер. Браузер и так сообщает, что сайт не открылся. Здесь задача другая — разложить проблему по слоям и дать пользователю более понятную картину, где именно произошёл сбой и на что это похоже.

Утилита сравнивает ответы системного DNS и DNS over HTTPS через Cloudflare, проверяет обычное TCP-подключение, запускает TLS-handshake с SNI целевого домена и затем делает HTTP-запрос. Вердикт выставляется по первому уровню, на котором возникла ошибка.

 

У проекта есть и ограничения. Пока поддерживается только IPv4. Списки целей жёстко заданы в коде и включают около 20 сайтов на категорию, поэтому инструмент не поймает все частные случаи. Кроме того, это разовая проверка без повторов и долгосрочного мониторинга, хотя JSON-вывод можно использовать в cron для регулярных запусков.

RSS: Новости на портале Anti-Malware.ru