Роскомнадзор накажет виновных в утечке данных Google Docs в Яндекс

Роскомнадзор накажет виновных в утечке данных Google Docs в Яндекс

Роскомнадзор накажет виновных в утечке данных Google Docs в Яндекс

Виновные в утечке данных Google Docs, которые попали в поисковую выдачу «Яндекс», должны быть наказаны, а Роскомнадзор обязан провести тщательное расследование. Такие требования озвучил Леонид Левин, глава комитета Госдумы по информации, информационным технологиям и связи.

Левин продемонстрировал завидную осведомленность — он заявил, что сама поисковая система не виновата в утечке, ответственность несут как раз те компании, чьи документы были скомпрометированы.

Выступая на пресс-конференции, глава комитета описал ситуацию следующим образом:

«Исходя из имеющейся в СМИ информации, здесь мы налицо видим факт несоблюдения вопросов обеспечения хранения данных со стороны юридических лиц, которые обрабатывают эти данные. Это прямой вопрос Роскомнадзора, который должен, безусловно, провести тщательное расследование и наказать виновных».

Было отмечено, что сотрудники компаний, чьи документы попали в поисковую выдачу, несут прямую ответственность за несоблюдение правил безопасного хранения чувствительной информации.

«”Яндекс” — это всего лишь поисковая система. На нее работает робот, который находит все то, что не зашифровано, и не находится в закрытом доступе. Это просто прямое пренебрежение обеспечением персональных данных, которые берет на себя компания при получении данных граждан».

Скорее всего, как утверждает Левин, компании, не обеспечившие сохранность конфиденциальных данных, ждут штрафы, исходя из КоАП.

«Надо внимательно изучить подобного рода кейс. Если эта информация подтвердится, и это прямая вина сотрудников компаний, которые должны обеспечивать безопасность хранения такого рода данных третьих лиц, то, безусловно, хотелось бы, чтобы эта информация не прошла незамеченной, также публично было сообщено об административном наказании этих организаций», — передают СМИ слова Левина.

Напомним, что в начале месяца Роскомнадзор связался с компанией «Яндекс», чтобы прояснить инцидент с непреднамеренной утечкой персональных данных из-за индексирования документов Google Docs.

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru