Первому сетевому червю исполнилось 20 лет

Первому сетевому червю исполнилось 20 лет

20 лет назад в интернете начал распространяться червь Морриса, первая программа подобного рода. Тот день навсегда изменил представления о безопасности в интернете.

Все началось в полночь 2 ноября 1988 г., когда 23-летний студент Массачуетского технологического университета Роберт Моррис (на фото) запустил в интернет собственноручно написанную программу.

За несколько часов этот червь, состоявший из 99-ти строчек кода, уже заразил тысячи Unix-серверов, так что сетевые администраторы были вынуждены отключать компьютеры от сети, пытаясь остановить распространение неизвестной заразы.

Червь Морриса был частью исследовательского проекта студента МТУ. Программист не подозревал, что червь может принести какой-нибудь ущерб — собственно, тот и не был запрограммирован на деструктивные действия. Целью исследования было создание первой в мире программы, способной к самостоятельному размножению в сети. К сожалению, червь был выполнен не очень качественно. При заражении машины он не проверял, имеется ли там уже его копия и поэтому один и тот же компьютер заражался многократно. В результате этого зависли тысячи серверов.

Червь Морриса стал первым червем, который получил распространение в интернете. Но самое первое описание самореплицирующейся сетевой программы датировано шестью годами ранее. В 1982 г. исследователи Джон Шок и Джон Хапп из знаменитой лаборатории Xerox в Пало-Альто опубликовали научную работу с описанием способной к самостоятельному размножению программы, которая во время проведения исследования успешно порушила 100 компьютеров в локальной сети лаборатории. Но это были научные исследования, которые не принесли никакого вреда.

Ущерб от червя Морриса тоже был не очень значительным, поскольку в интернете тогда было совсем немного компьютеров. Студент-программист отделался лишь общественными работами и штрафом в размере $10 000.

В то время интернет все еще был относительно закрытой системой, которая использовалась преимущественно университетами и военными. После того как Всемирная сеть стала открытой для широкой публики, требования к безопасности неизбежно пришлось ужесточить.

Как говорят эксперты по безопасности, именно из-за червя Морриса произошли фундаментальные изменения в способах коммуникации между удаленными системами в интернете. Например, 20 лет назад в сети активно использовались команды для удаленного управления вроде «remote login», «remote shell» или «remote copy». Идея была в том, что после авторизации на одной машине не нужно было проходить аналогичную процедуру на другой системе, так что она не спрашивала повторно ваш логин и пароль. Это был принципиально иной уровень доверия. Сейчас такое даже представить себе невозможно.

Источник

WMX представила систему защиты сайтов от «умных ботов»

Российская компания WMX (ООО «Вебмониторэкс») представила новое решение для защиты веб-ресурсов от автоматизированных атак — WMX SmartBot Protection. Продукт рассчитан не только на массовый бот-трафик, но и на более сложных ботов, которые умеют имитировать поведение обычных пользователей.

Проблема здесь вполне прикладная. Значительная часть интернет-трафика сегодня создаётся не людьми, а автоматизированными скриптами.

Такие боты могут собирать данные с сайтов, перебирать пароли, создавать фейковые аккаунты, искать уязвимости и в целом мешать нормальной работе онлайн-сервисов. Особенно чувствительны к этому интернет-магазины, финансовые сервисы, агрегаторы, доски объявлений, медиаплатформы и стриминговые площадки.

При этом боты становятся всё менее примитивными. Если раньше их можно было сравнительно легко отсечь по шаблонному поведению, то теперь они нередко умеют маскироваться под живого пользователя: заходят через браузер, имитируют движение мыши и даже проходят простые CAPTCHA. Из-за этого стандартных фильтров уже часто недостаточно.

В WMX говорят, что их система использует несколько уровней проверки. Сначала трафик фильтруется по базовым признакам — например, по IP-адресам и User-Agent. Если этого недостаточно, дальше подключается анализ браузерного окружения: параметров экрана, шрифтов, а также особенностей canvas и WebGL, которые могут указывать на эмуляторы или headless-браузеры.

Следующий этап — поведенческий анализ. Система смотрит, как именно ведёт себя пользователь: есть ли движения мыши, насколько быстро заполняются формы и не выглядят ли действия слишком механическими. После этого подключаются эвристики, которые оценивают уже не отдельные признаки, а их сочетание. Например, если кто-то кликает строго по центру кнопок через одинаковые интервалы времени, это может выглядеть подозрительно, даже если по отдельности такие действия не кажутся аномальными.

При необходимости могут использоваться и дополнительные проверки, включая CAPTCHA.

Новое решение работает в связке с WMX ПроWAF, веб-экраном компании. Логика здесь довольно понятная: антибот-система должна отсеивать автоматизированный трафик, а WAF — уже защищать приложение от попыток эксплуатации уязвимостей вроде SQL-инъекций, XSS или RCE. Заодно это снижает нагрузку на инфраструктуру, потому что до основного контура доходит уже более «чистый» трафик.

В компании также сообщили, что в будущих версиях собираются добавить систему скоринга угроз и механизмы, связанные с ML, для автоматического формирования новых эвристик.

RSS: Новости на портале Anti-Malware.ru