Камера в унитазе Kohler обещала сквозное шифрование. Оказалось, нет

Камера в унитазе Kohler обещала сквозное шифрование. Оказалось, нет

Камера в унитазе Kohler обещала сквозное шифрование. Оказалось, нет

В начале года Kohler представила весьма необычное устройство — умную камеру Dekoda, которая крепится к унитазу, фотографирует содержимое чаши и помогает анализировать состояние кишечника. Всё ради здоровья, конечно. И понимая, что идея выглядит, скажем так, чувствительно, компания заранее заверила пользователей: мол, камера смотрит только вниз, а данные защищены надёжнейшим «сквозным шифрованием».

Вот только слово «сквозным» здесь оказалось лишним. Исследователь безопасности Саймон Фондри-Тейтлер заметил, что в политике конфиденциальности Kohler на самом деле речь идёт вовсе не о настоящем E2EE (как в Signal, например), а о стандартном TLS — том самом, который используется в HTTPS.

То есть данные шифруются в пути, но на стороне Kohler вполне себе расшифровываются и используются.

Зачем вообще так запутывать термины — вопрос открытый. Но в контексте того, что камера фотографирует интерьер унитаза, хотелось бы максимальной точности. Пользователь, увидев «end-to-end», может подумать, что снимки недоступны никому, включая производителя. Это, очевидно, не так.

Kohler на запросы журналистов TechCrunch не ответила, но представитель компании сообщил исследователю, что данные «зашифрованы при хранении — на телефоне пользователя, на самом устройстве и на серверах Kohler».

А данные «в пути» якобы «зашифрованы сквозным образом». Впрочем, даже формулировка компании признаёт: данные на серверах всё-таки расшифровываются, иначе Dekoda просто не могла бы выполнять анализ.

И тут всплыл ещё один тонкий момент: раз Kohler получает доступ к фотографиям, может ли она использовать их для обучения своих моделей? По словам представителя компании, алгоритмы обучаются только на «обезличенных данных». Какая именно схема обезличивания применяется — не уточняется, но уверяют, что лица в кадре точно нет.

История в очередной раз показывает: прежде чем ставить умную камеру рядом с личным пространством в доме, неплохо бы внимательно прочитать политику конфиденциальности. И желательно, чтобы производители тоже внимательно читали, что пишут у себя на сайте.

Минцифры создаст полигон для тестирования систем с ИИ на безопасность

Минцифры планирует создать киберполигон для тестирования систем с искусственным интеллектом (ИИ) на безопасность. В первую очередь речь идёт о решениях, предназначенных для применения на объектах критической инфраструктуры, а также о системах с функцией принятия решений.

О том, что министерство ведёт работу над созданием такого полигона, сообщил РБК со ссылкой на несколько источников.

Площадка будет использоваться для тестирования ИИ-систем, которые в дальнейшем должны пройти сертификацию ФСТЭК и ФСБ России. Это предусмотрено правительственным законопроектом «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти, и внесении изменений в отдельные законодательные акты».

Документ вводит четыре уровня критичности ИИ-систем:

  • минимальный — влияние на безопасность отсутствует или минимально;
  • ограниченный;
  • высокий — относится к системам, используемым на объектах критической информационной инфраструктуры;
  • критический — системы, способные угрожать жизни и здоровью людей или безопасности государства, а также автономные комплексы, принимающие самостоятельные решения.

Определять уровень критичности будет Национальный центр искусственного интеллекта в сфере госуправления при правительстве. Эта же структура займётся ведением реестра сертифицированных ИИ-систем.

Конкретные требования к сертификации планируется закрепить в отдельных нормативных документах, которые пока находятся в разработке. На текущем этапе единственным обязательным условием является включение программного обеспечения в реестр Минцифры.

По данным «Российской газеты», распространять новые требования на коммерческие ИИ-решения не планируется. При этом в аппарате первого вице-премьера Дмитрия Григоренко пояснили, что ключевая цель законопроекта — снизить риски применения ИИ в сферах с высокой ценой ошибки, включая здравоохранение, судопроизводство, общественную безопасность и образование.

RSS: Новости на портале Anti-Malware.ru