Huawei купила технологию распознавания лиц российской компании Вокорд

Huawei купила технологию распознавания лиц российской компании Вокорд

Huawei купила технологию распознавания лиц российской компании Вокорд

Китайская компания Huawei заключила сделку, согласно которой российская дочка и сам китайский техногигант становятся владельцами компании «Игл софтлаб». Таким образом, Huawei автоматически купила интеллектуальную собственность компании «Вокорд» по части распознавания лиц.

О сделке сообщило издание «Ведомости», ссылаясь на человека, близкого к одной из ее сторон. Стало известно, что «Вокорд» продал «Игл софтлаб» свои права на патенты и оборудование.

Также источники «Ведомостей» утверждают, что большая часть сотрудников «Вокорд» перешла в штат «Игл софтлаб».

Сам «Вокорд», опять же согласно источникам, Huawei оценила в $40–50 миллионов. Подробные детали сделки официальные представители Huawei на данном этапе разглашать отказываются.

При этом издание «Коммерсант» еще в январе писало об интересе Huawei к технологиям компании «Вокорд».

Комитет Госдумы уличили в использовании ChatGPT

В пояснительной записке к законопроекту «О государственной поддержке молодёжных и детских общественных объединений» обнаружили следы использования ChatGPT. В одной из ссылок присутствовала характерная метка, которую оставляет зарубежный чат-бот.

Об этом сообщил портал Rozetked, ссылаясь на многочисленные обсуждения в соцсетях и телеграм-каналах.

История быстро получила широкий резонанс. Так, член СПЧ, глава проекта «Белый Интернет», профессор МГИМО Элина Сидоренко назвала произошедшее вопиющим случаем:

«Ну вот и приехали. ИИ в пояснительных записках Госдумы — открыто, без стеснения и стыда… А ведь это не просто констатация невнимательности аппарата Госдумы, это показатель того, что данные сливаются в американский ИИ, это становится нормой, никто не задумывается о безопасности данных».

Пост Сидоренко перепостил и официальный телеграм-канал Совета при Президенте по развитию гражданского общества и правам человека.

Ранее ФСТЭК отнесла утечки данных к числу наиболее специфичных рисков, связанных с использованием ИИ, включая генеративные модели. С декабря 2025 года такие угрозы включены в базу данных угроз (БДУ) регулятора.

В то же время комитет Госдумы по молодёжной политике опроверг использование чат-бота при подготовке текста законопроекта. При этом там признали, что один из сотрудников аппарата применял ChatGPT на этапе поиска и анализа материалов.

«Материалы к законопроекту готовились на протяжении двух лет исключительно депутатами совместно с командой юристов аппарата комитета. Сама пояснительная записка написана человеком, что подтверждается анализом, проведённым рекомендованным к использованию в государственных органах российским ИИ-ассистентом GigaChat. При этом подготовка законопроекта — настолько сложная и профессиональная задача, что ИИ в принципе не способен с ней справиться», — заявили в пресс-службе Комитета Госдумы по молодёжной политике.

RSS: Новости на портале Anti-Malware.ru