Первому сетевому червю исполнилось 20 лет

Первому сетевому червю исполнилось 20 лет

20 лет назад в интернете начал распространяться червь Морриса, первая программа подобного рода. Тот день навсегда изменил представления о безопасности в интернете.

Все началось в полночь 2 ноября 1988 г., когда 23-летний студент Массачуетского технологического университета Роберт Моррис (на фото) запустил в интернет собственноручно написанную программу.

За несколько часов этот червь, состоявший из 99-ти строчек кода, уже заразил тысячи Unix-серверов, так что сетевые администраторы были вынуждены отключать компьютеры от сети, пытаясь остановить распространение неизвестной заразы.

Червь Морриса был частью исследовательского проекта студента МТУ. Программист не подозревал, что червь может принести какой-нибудь ущерб — собственно, тот и не был запрограммирован на деструктивные действия. Целью исследования было создание первой в мире программы, способной к самостоятельному размножению в сети. К сожалению, червь был выполнен не очень качественно. При заражении машины он не проверял, имеется ли там уже его копия и поэтому один и тот же компьютер заражался многократно. В результате этого зависли тысячи серверов.

Червь Морриса стал первым червем, который получил распространение в интернете. Но самое первое описание самореплицирующейся сетевой программы датировано шестью годами ранее. В 1982 г. исследователи Джон Шок и Джон Хапп из знаменитой лаборатории Xerox в Пало-Альто опубликовали научную работу с описанием способной к самостоятельному размножению программы, которая во время проведения исследования успешно порушила 100 компьютеров в локальной сети лаборатории. Но это были научные исследования, которые не принесли никакого вреда.

Ущерб от червя Морриса тоже был не очень значительным, поскольку в интернете тогда было совсем немного компьютеров. Студент-программист отделался лишь общественными работами и штрафом в размере $10 000.

В то время интернет все еще был относительно закрытой системой, которая использовалась преимущественно университетами и военными. После того как Всемирная сеть стала открытой для широкой публики, требования к безопасности неизбежно пришлось ужесточить.

Как говорят эксперты по безопасности, именно из-за червя Морриса произошли фундаментальные изменения в способах коммуникации между удаленными системами в интернете. Например, 20 лет назад в сети активно использовались команды для удаленного управления вроде «remote login», «remote shell» или «remote copy». Идея была в том, что после авторизации на одной машине не нужно было проходить аналогичную процедуру на другой системе, так что она не спрашивала повторно ваш логин и пароль. Это был принципиально иной уровень доверия. Сейчас такое даже представить себе невозможно.

Источник

95% компаний назвали контроль доступа главной функцией защиты контейнеров

95% компаний считают управление правами доступа важнейшей функцией безопасности контейнерных сред. Такие результаты показал опрос среди зрителей и участников эфира AM Live «Безопасность контейнерных сред: что реально работает в 2026 году».

Именно контроль доступа оказался наиболее востребованной функцией среди всех механизмов защиты. Его назвали важным 95% участников опроса — заметно больше, чем любые другие инструменты.

На втором месте оказалось управление секретами с 78%, а далее — управление уязвимостями и контроль целостности, которые набрали по 65%.

Такая расстановка приоритетов показывает, что для большинства компаний главной задачей в области безопасности контейнерных сред остаётся контроль того, кто и какие действия может выполнять в инфраструктуре. В динамичных средах, где сервисы и контейнеры постоянно создаются и удаляются, ошибки в управлении доступом могут быстро привести к серьёзным инцидентам.

При этом другие функции, связанные с наблюдением за поведением системы, оказались менее востребованными. Так, мониторинг runtime назвали важным только 35% респондентов, а контроль сетевого трафика — 31%. Это может говорить о том, что многие компании пока сосредоточены на базовых механизмах защиты и управлении доступом, тогда как более сложные инструменты поведенческого анализа внедряются позже.

В целом эксперты назвали такие результаты ожидаемыми, однако их удивило, что к контролю трафика прибегают менее трети компаний. Среди возможных причин они назвали сложность и высокую стоимость внедрения. Кроме того, было отмечено, что в некоторых случаях кластер Kubernetes размещается в закрытом контуре, из-за чего необходимость в отдельном мониторинге трафика снижается.

Интересно, что подход к безопасности во многом зависит и от того, какие платформы используют компании для контейнеризации. Почти половина участников опроса, 47%, сообщили, что дорабатывают контейнерные технологии на базе open-source решений. Ещё 35% используют «ванильные» инструменты контейнеризации без серьёзных модификаций, а 31% применяют российские коммерческие платформы.

Менеджер продукта Deckhouse Kubernetes Platform по направлению информационной безопасности во «Флант» Алексей Крылов отметил, что многие компании, вероятнее всего, используют гибридные варианты, переезжают с западных систем и пока находятся на этапе оптимизации своих платформ.

Кроме того, глава DevOps-департамента Luntry Станислав Проснеков указал, что в «ванильных» системах не хватает средств управления учётными записями. Из-за этого многим компаниям может быть сложно с ними работать, в том числе из-за недостаточной прозрачности таких решений.

Опрос также показал тенденцию к комбинированию инструментов защиты. 48% компаний используют встроенные механизмы безопасности платформ вместе с дополнительными open-source средствами. Ещё 29% сочетают встроенные функции коммерческих платформ с дополнительными инструментами.

RSS: Новости на портале Anti-Malware.ru