Google создает в своей структуре подразделение по аудиту безопасности продуктов

Google создает в своей структуре подразделение по аудиту безопасности

За последнее время Google все чаще попадает под огонь критики за свои методы работы с персональными данными, а также за неоднознаную политику компании в области сбора информации. Буквально недавно интернет-гигант урегулировал претензии со стороны американской Федеральной Комиссии по торговле, заплатив за несанкционированный сбор данных 22,5 млн долларов.

По следам всех этих событий, компания сегодня объявила о создании так называемой команды быстрого реагирования Google Red Team, которая будет в режиме реального времени решать вопросы, связанные с приватностью данных, а также прайвиси-рисками для корпоративных и частных пользователей, работающих с продуктами компании, сообщает cybersecurity.ru.

Независимые эксперты по информационной безопасности говорят, что сама концепция группы быстрого реагирования, критически оценивающей инженерные и иные решения Google, является для сегодняшнего рынка уникальной. Для Google решение о создании Red Team - вынужденная мера, так как компания слишком часто становится мишенью для критики со стороны защитников частной жизни и мер по обеспечению конфиденциальности.

Также в Google рассказали о введении в штат такой единицы, как Data Privacy Engineer, задачи которого входит обеспечение соответствия продуктов интернет-компании самым высоким стандартам в области защиты пользовательской информации. Организационно, как новое подразделение, так и инженеры по безопасности данных будут равно независимы от всех продуктов компании и не будут входить в какое-то продуктовое направление. В требовании к кандидатам на должность Data Privacy Engineer сказано, что они должны обладать широкими знаниями в области функционирования современных браузеров, иметь опыт работы с корпоративными бизнес-процессами в области безопасности информации и обладать рядом других навыков.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru