ЦРУ защищало свои сверхсекретные хакерские инструменты паролем 123ABCdef

ЦРУ защищало свои сверхсекретные хакерские инструменты паролем 123ABCdef

ЦРУ защищало свои сверхсекретные хакерские инструменты паролем 123ABCdef

Многие слышали о Джошуа Шульте — этого человека обвиняют в сливе «сверхсекретных» хакерских инструментов, принадлежащих ЦРУ. В настоящее время Шульт находится под арестом, а его делом занимается суд. В ходе недавнего заседания выяснилось несколько интересных подробностей относительно практик американской спецслужбы.

По словам стороны обвинения, Джошуа Шульт выкрал крайне ценные и конфиденциальные материалы непосредственно из рук ЦРУ, после чего передал их WikiLeaks для распространения.

Федеральные прокуроры США добиваются одного — посадить Шульта на пожизненный срок. Однако с такой позицией категорически не согласна адвокат обвиняемого Сабрина Шрофф, которая не раз обращала внимание суда на крайне блеклые доказательства против её клиента.

Согласно материалам дела (PDF), Шульт работал под псевдонимами «King Josh» и «KingJosh3000», он их использовал и в тот период, когда занимал должность системного администратора в ЦРУ.

Вся эта ситуация с доступом к секретным инструментам такой серьёзной спецслужбы породила определённые вопросы, один из которых звучал вполне оправдано: а насколько плохо ЦРУ защищает подобную информацию и файлы.

И теперь самое интересное — пароль от виртуальной машины, на которой хранились вышеупомянутые инструменты, представлял собой просто классику слабых учётных данных — «123ABCdef». И root-логин от главного DevLAN-сервера был не лучше — «mysweetsummer».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru