В США работодатели требуют от сотрудников пароли к соцсетям

В США работодатели требуют от сотрудников пароли к соцсетям

В США работодатели при приеме на работу требуют от будущих сотрудников компании личные пароли к соцсетям. Нечто подобное услышал нью-йоркский экономист Дастин Бассетт при приеме на работу. На интервью сотрудник отдела кадров открыла его страницу в Facebook и попросила пароль к его аккаунту. Мужчина отказался это сделать, сообщив, что не собирается работать на компанию, которая собирает личную информацию о сотрудниках.



Примечательно, что подобную практику часто применяют государственные службы, связанные с безопасностью и правопорядком. Например, подобные требования получают кандидаты на должности диспетчеров службы 911.

Однако не все соискатели могут позволить себе ответить отказом на подобные требования работодателя. Так, американец Роберт Коллинз, поступая на работу в одну из тюрем штата Флорида, был вынужден согласиться предоставить администрации свой пароль и логин на сайте Facebook. По словам администрации, данная информация была им необходима для проверки мужчины на возможные связи в криминальных кругах, сообщает rbc.ru.

В ответ юристы и представители Facebook предупредили работодателей о недопустимости требования к сотрудникам раскрыть пароль от доступа в социальную сеть. Считается, что социальная сеть позволяет судить о характере и склонностях будущих сотрудников.

Представитель Facebook накануне опубликовал заявление, в котором пригрозил юридическим разбирательством тем компаниям, которые запрашивают доступ к личным аккаунтам сотрудников. По словам Эрин Иган, главы подразделения Facebook по защите личных данных, компания в последние месяцы получает огромное количество писем с жалобами пользователей сети на запрос о предоставлении доступа к их страницам третьих лиц.

Законодатели сразу нескольких штатов, включая Калифорнию, Иллинойс и Мэриленд объявили о намерении провести законопроекты, в которых работодателям запрещается требовать пароли доступа к социальным сетям у соискателей вакансий.

Представители Facebook также указали на опасность для самих работодателей практики исследования социальных страниц кандидатов. По их словам, если кандидату на вакансию откажет работодатель, который изучил его социальную страницу, соискатель вакансии может подать на работодателя в суд за отказ по незаконным причинам (по причине возраста, сексуальной ориентации или расы).

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

В ChatGPT нашли семь уязвимостей, сливающих данные пользователей

Исследователи из компании Tenable сообщили о серии уязвимостей, затрагивающих модели GPT-4o и GPT-5, которые лежат в основе ChatGPT. Эти дыры позволяют злоумышленникам похищать личные данные пользователей из памяти и истории переписки бота — без ведома самих пользователей.

Всего специалисты выявили семь векторов атак, часть из которых OpenAI уже устранила. Главная проблема — так называемые «непрямые инъекции промпта» (indirect prompt injection).

С их помощью можно обмануть искусственный интеллект и заставить его выполнять вредоносные инструкции, даже если пользователь ничего не подозревает.

Среди найденных методов — внедрение команд через вредоносные сайты, запросы к ChatGPT с поддельными ссылками или командами, маскированными под разрешённые домены (например, через bing.com), а также скрытие вредоносных инструкций в коде веб-страниц. В одном из сценариев атаки злоумышленник мог «отравить» память ChatGPT, добавив туда свои команды через сайт, который пользователь попросил бота кратко пересказать.

Подобные инъекции не требуют от пользователя кликов или загрузки файлов — достаточно обычного запроса вроде «расскажи, что написано на этом сайте». Если страница уже проиндексирована поисковиком, ИИ мог выполнить вредоносный код автоматически.

 

Tenable отмечает, что такие атаки — проблема не только OpenAI. За последние месяцы исследователи обнаруживали похожие уязвимости в Claude, Copilot, и других ИИ-инструментах. Некоторые позволяли похищать данные, обходить фильтры безопасности или подменять ответы модели.

По словам экспертов, полностью устранить угрозу инъекций промпта в ближайшее время вряд ли удастся. Они рекомендуют разработчикам ИИ-сервисов тщательнее проверять механизмы безопасности и фильтры URL, чтобы свести риски к минимуму.

Не так давно мы рассуждали на тему «можно ли доверять GenAI». Рассматривали галлюцинации и контроль достоверности ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru