Мастер-пароль LastPass можно извлечь из памяти зараженного компьютера

Мастер-пароль LastPass можно извлечь из памяти зараженного компьютера

Мастер-пароль LastPass можно извлечь из памяти зараженного компьютера

Исследование специалистов Independent Security Evaluators (ISE) показало, что популярные менеджеры паролей содержат уязвимости, которые, в сущности, сводят на нет всю их задачу — защищать пароли пользователей.

Согласно опубликованному отчету, проблемы были найдены в таких топовых инструментах для хранения паролей, как 1Password, Dashlane, KeePass и LastPass. Исследователи выяснили, что при некоторых обстоятельствах в системах Windows 10 эти программы могут раскрыть мастер-пароль.

Все дело в том, что в некоторых случаях мастер-пароль можно найти в виде простого текста в памяти компьютера. Соответственно, его можно оттуда извлечь, используя обычные инструменты для форензики.

«100% проанализированных нами продуктов не смогли обеспечить заявленный уровень защиты паролей пользователей. Оказалось, что менеджеры паролей уязвимы к определенным видам кражи данных», — заявил Стивен Боно, генеральный директор ISE.

Представители LastPass отметили, что обнаруженная исследователями проблема касается лишь их приложения для Windows, которым пользуются менее 2% всех пользователей LastPass. Однако разработчики обратили внимание на уязвимость, о которой им стало известно благодаря программе по поиску багов.

Также в LastPass отметили, что злоумышленнику придется сначала обзавестись локальным доступом и привилегиями администратора, чтобы успешно использовать описанную проблему безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В Reddit без спросу обкатали психологическое воздействие с помощью ИИ

Модераторы подфорума Change My View («Измени мое мнение», CMV) в Reddit направили жалобу в Цюрихский университет: группа исследователей тайно провела эксперимент с ИИ, в котором невольно приняло участие все сообщество.

ИИ-модель два месяца вбрасывала провокационные комментарии в ветку; ученые таким образом проверяли ее умение убеждать. По окончании эксперимента они соблаговолили поставить модераторов в известность и сознались в нарушении правил CMV (там запрещено использовать боты и ИИ).

Для публикации реплик исследователи создали ряд вымышленных персонажей — жертв насилия, консультантов-психологов, противников сектантства и протестных движений. Некоторые фейковые аккаунты админы Reddit выловили и забанили за нарушение пользовательского соглашения.

Сами исследователи, по их словам, комментарии не постили, только вручную проверяли каждую реплику ИИ на предмет потенциально вредного контента. Для персонализации реплик другая ИИ-модель собирала в Reddit пользовательские данные, такие как пол, возраст, этническая принадлежность, местоположение, политические взгляды.

Согласия «подопытных кроликов» при этом никто не спрашивал — для чистоты эксперимента.

Получив разъяснительное письмо, модераторы CMV направили в университет официальную жалобу, предложив публично извиниться за неэтичное поведение исследователей и отказаться от публикации результатов эксперимента.

В ответ на претензии представитель вуза заявил, что научному руководителю ИИ-проекта объявлен выговор. Также будут приняты меры, чтобы подобного не повторилось, но отменять публикацию никто не собирается: результаты проделанной работы важны для науки, а вред от эксперимента минимален.

И претензии, и реакция учебного заведения были опубликованы в CMV. Пользователи до сих пор комментируют этот пост, высказывая свое возмущение.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru