Баг Zoom позволял брутфорсить пароли, которыми защищены видеоконференции

Баг Zoom позволял брутфорсить пароли, которыми защищены видеоконференции

Баг Zoom позволял брутфорсить пароли, которыми защищены видеоконференции

Разработчики сервиса для видеоконференций Zoom по какой-то причине забыли ограничить число попыток ввода пароля. Это позволило злоумышленникам путём подбора взламывать пароли, защищающие частные конференции в Zoom.

Этот баг обнаружил Том Энтони, отвечающий за развитие продуктов в компании SearchPilot.

«Видеособрания в Zoom по умолчанию защищены 6-значным паролем. Это значит, что потенциальному злоумышленнику потребуется не более одного миллиона попыток подбора этого пароля», — объясняет Энтони.

Специалист уточнил, что осуществить миллион попыток подбора пароля можно за считаные минуты. А после этого киберпреступник сможет спокойно получить доступ к частным видеоконференциям.

«Возникает вполне логичный вопрос: использовали ли эту уязвимость злоумышленники для прослушивания чужих защищённых видеовстреч».

Проблема отягощается тем, что повторяющиеся видеособрания и идентификаторы Personal Meeting постоянно используют один пароль. Это значит, что атакующему лишь один раз нужно взломать встречу, чтобы впоследствии без труда получать доступ к другим звонкам.

Сам Энтони продемонстрировал взлом пароля, на который у него ушло 25 минут (после подбора 91 тыс. вариаций). Однако злоумышленники, по словам эксперта, будут использовать более мощные средства, поэтому у них брутфорс должен занять несколько минут.

Разработчики Zoom уже разобрались с этим багом. Теперь пользователи защищены от этой уязвимости.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru