США на грани киберразорения

США на грани киберразорения

 После произошедшей весной этого года утери Пентагоном большого количества секретных документов Вашингтон решил разработать стратегию по действиям в киберпространстве. Выступая на днях в Университете национальной обороны по случаю публикации американской стратегии ведения кибервойны, заместитель министра обороны США Уильям Линн рассказал, что в марте у государственного подрядчика был украден архив из 24 тыс. документов, имеющих отношение к создаваемым по заказу США оружейным системам.

В Министерстве обороны, по его словам, считают эту кражу делом рук "иностранной разведки". Чиновник признал, что такого рода вторжения являются самым распространенным видом кибератак, направленных против США, и досаждают оборонной промышленности страны уже более пяти лет, пишет warandpeace.

Таким образом, частота и серьезность кибератак на серверы министерства обороны и стали главной причиной создания новой киберстатегии.Нужно заметить, что новая стратегия США состоит из пяти принципов. Во-первых, киберпространство воспринимается как обычная операционная среда – такое же, как суша или воздушное пространство. Во-вторых, предлагается использовать новые системы защиты для сетей, используемых Минобороны. В-третьих, делается ставка на взаимодействие с другими федеральными органами и частными компаниями США. В-четвертых, предполагается активное сотрудничество с иностранными союзниками Соединенных Штатов. В-пятых, приоритетом названы вложения в научно-технические исследование в этой сфере и подготовку специалистов.

Несмотря на научную обоснованность данной доктрины, многие специалисты критикуют американскую киберстратегию за излишний акцент на обороне, тогда как наступательная составляющая остается недостаточно проработанной. В частности, на этом основании генерал Джеймс Картрайт сравнил доктрину с "печально известной линией Мажино, которую накануне Второй мировой войны выстроили французы, а немецкие танки с легкостью обошли". "Не вполне успокаивает" киберстратегия и бывшего сотрудника Министерства внутренней безопасности и Агентства национальной безопасности Стюарта Бейкера.

Представитель министерства обороны США У.Линн признал, что наступательный потенциал в сфере кибернетических войн обгоняет самые лучшие средства обороны, однако заметил, что наиболее эффективным оружием располагают лишь национальные государства, и, "хотя установление источника кибератаки может оказаться сложной задачей, риск обнаружения и ответных действий для крупной страны все же слишком велик, чтобы рисковать и проводить деструктивные атаки против Соединенных Штатов".

Что касается террористов и государств-изгоев, на которых не действуют такие методы сдерживания, то, по мнению Линна, у них на данный момент нет потенциала для организации таких атак. В заключение он добавил, что "в конечном итоге их намерения совпадут с возможностями", однако до тех пор у США есть "благоприятная возможность для укрепления кибернетической обороны страны".

Тем не менее, некоторые эксперты по-прежнему считают, что, несмотря на беспрецедентные расходы на реализацию данных планов, новая киберстратегия не очень эффективна и, как бы не развивалась кибероборона США, всегда найдутся те, кто смогут незаметно и безнаказанно украсть ту или иную информацию.

Создатель Диспетчера задач объяснил, почему загрузка CPU в Windows врёт

Бывший инженер Microsoft Дэйв Пламмер, приложивший руку к таким знаковым вещам, как поддержка ZIP в Windows и меню «Пуск» в Windows NT, рассказал, как на самом деле Диспетчер задач считает загрузку процессора. И заодно объяснил, почему цифры в этом инструменте иногда кажутся немного странными, особенно если сравнивать их с тем, как компьютер ощущается в реальной работе.

По словам Пламмера, идея просто показать, насколько занят процессор на деле куда сложнее, чем кажется.

Вопросов тут сразу слишком много: занят чем именно, на одном ядре или на всех, прямо сейчас или в среднем за последние секунды, в пользовательском режиме или на уровне ядра? Как только начинаешь во всём этом разбираться, простая шкала загрузки уже перестаёт выглядеть такой уж простой.

Сам Диспетчер задач, как объяснил Пламмер, работает не в режиме мгновенного измерения. Он обновляет данные через определённые интервалы, то есть показывает скорее интерпретацию того, что происходило между обновлениями, а не живую картину в каждый конкретный момент. Поэтому цифры на экране — это всегда усреднённый результат, а не моментальный снимок состояния процессора.

Самым очевидным решением мог бы быть простой расчёт по времени между обновлениями интерфейса. Но Пламмер от такого подхода отказался: он посчитал, что полагаться на точность GUI-таймера — идея так себе. Он даже сравнил это с попыткой доверить точный ритм метронома, который едет в кузове пикапа по разбитой дороге.

Вместо этого он заложил в Диспетчер задач другой принцип. Утилита запрашивает, сколько процессорного времени каждый процесс суммарно использовал с момента запуска (отдельно в пользовательском и системном режимах).

Затем из нового значения вычитается предыдущее, полученное во время прошлого обновления. Так определяется, сколько CPU-времени процесс съел за конкретный промежуток. А дальше это сравнивается с общим объёмом процессорного времени, которое было израсходовано всеми процессами за тот же период.

Звучит не очень просто, но именно такой метод, по словам Пламмера, даёт более точный результат, чем грубый расчёт по таймеру. Проблема в другом: современные процессоры стали намного сложнее, чем во времена, когда создавался классический Диспетчер задач.

Сегодня на работу CPU влияют динамическое изменение частоты, турбобуст, тепловые ограничения, глубокие режимы простоя и другие механизмы. Из-за этого один и тот же процент загрузки уже не всегда означает один и тот же объём реально выполненной работы. Пламмер привёл образное сравнение: современная загрузка CPU больше похожа не на пройденное расстояние, а на загруженность шоссе. Полупустая трасса с быстрыми спорткарами может перевезти больше, чем полностью забитая дорога со старыми грузовиками.

Именно поэтому Диспетчер задач иногда может показывать вроде бы нестрашные цифры, хотя компьютер при этом ощутимо тормозит (или наоборот). Дело не обязательно в ошибке инструмента. Просто сам показатель загрузки процессора уже давно перестал быть идеальным универсальным маркером производительности.

RSS: Новости на портале Anti-Malware.ru