Франция приказала Google изменить политику приватности

Франция приказала Google изменить политику приватности

Национальная комиссия по свободе информации Франции (CNIL) приказала корпорации Google в течение трех месяцев изменить политику приватности, приведя ее в соответствие с законодательством страны. Соответствующее заявление было опубликовано 20 июня на сайте регулятора.

Регулятор обязал Google объяснить своим пользователям, для каких целей корпорация собирает их личные данные, а также не хранить информацию дольше, чем требуется. Кроме того, компания должна будет лучше информировать пользователей о своей политике приватности, пишет lenta.ru.

В еще одном требовании комиссии говорится, что Google должна спрашивать у пользователей разрешение на «потенциально неограниченное комбинирование» их данных и сбор информации со сторонних сайтов с помощью встроенных в них аналитических и рекламных блоков.

Представитель Google заявил Bloomberg, что политика приватности компании соответствует европейскому законодательству и позволяет ей создавать простые и эффективные сервисы. Как отмечает издание, если корпорация не выполнит предъявленных требований, CNIL сможет оштрафовать ее на 150 тысяч евро (около 200 тысяч долларов). Если Google и далее будет игнорировать предписания регулятора, повторный штраф уже составит 300 тысяч евро.

Представитель французских властей заявил Bloomberg, что в ближайшие недели аналогичные санкции к Google могут принять Испания, Великобритания и Германия. К концу июля к ним присоединятся Италия и Нидерланды.

Европейские регуляторы начали совместное расследование в отношении Google в апреле 2013 года. Их претензии связаны с решением Google объединить данные пользователей из разных сервисов. В марте 2012 года корпорация представила единые политику приватности и условия использования своих продуктов. Документы разрешают Google, например, использовать информацию об интересах пользователя на YouTube, чтобы подобрать ему релевантную рекламу в Gmail.

 

Главный аналитик ГК InfoWatch Николай Федотов комментирует:

«Указанные требования – это применение "Конвенции о защите физических лиц при автоматизированной обработке персональных данных" и соответствующих ей национальных законов стран Европы. Указанная Конвенция применяет подход, сильно отличающийся от подхода к персональным данным в США. Поэтому неудивительно, что Google ей не соответствует.

Вообще-то такие требования следовало предъявить значительно раньше, ведь защита персональных данных в Европе в соответствии с Конвенцией началась, когда Google ещё в проекте не было. Зато сейчас, Google уже не сможет закрыть свой бизнес в Европе, как он сделал это в Китае, столкнувшись с обременительными требованиями местных властей. Поздно. Увяз и вписался. Так что требования предъявлены в нужный момент. Не по закону, зато эффективно».

Нейросеть для ЖКХ научилась материться в первый месяц обучения

Разработчикам отечественного голосового помощника для сферы ЖКХ пришлось «переучивать» систему после того, как в процессе обучения бот освоил ненормативную лексику. Этот случай наглядно показал, насколько критично качество данных, на которых обучаются нейросети.

О возникшей проблеме рассказал ТАСС президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов на Сибирском строительном форуме, который проходит в Новосибирске.

«Приведу забавный случай: нейросеть учится, и буквально уже в первый месяц разработчики обнаружили такую коллизию — нейросеть научилась мату. Как говорится, с кем поведёшься, от того и наберёшься. Эту проблему, конечно, пришлось устранять. Но это в том числе показатель активного взаимодействия с нашими гражданами», — рассказал Михаил Викторов.

При этом, по его словам, внедрение ботов позволило сократить число операторов кол-центров в 5–6 раз без потери качества обслуживания. Нейросетевые инструменты способны обрабатывать до 90% входящих обращений.

Уровень удовлетворённости качеством обслуживания, по оценке Викторова, составляет около 80%. Передавать звонки операторам целесообразно лишь в экстренных случаях — например, при аварийных ситуациях.

Эксперты ранее отмечали, что именно данные, на которых обучается ИИ, являются ключевой причиной появления некорректных или предвзятых ответов нейросетевых инструментов.

RSS: Новости на портале Anti-Malware.ru