Ошибки в ПО Huawei мешают разработкам Китая в области ИИ

Ошибки в ПО Huawei мешают разработкам Китая в области ИИ

Ошибки в ПО Huawei мешают разработкам Китая в области ИИ

Усилия Китая по разработкам в области искусственного интеллекта (ИИ) встречают серьезные затруднения. По оценкам газеты Financial Times, основных причин две: ошибки в ПО и недостатки аппаратного обеспечения.

Чаще всего объектом критики становится продукция Huawei, известная чипами семейства Ascend.

Именно Huawei стал лидером гонки китайских разработчиков, которые пытались заместить продукцию Nvidia, чьи поставки подпали под жесткие ограничения американских властей.

Однако, как сообщили источники Financial Times, которые занимаются исследованиями в области ИИ, Ascend все еще сильно отстают про производительности при первичном обучении. Кроме того, разработки Huawei критиковали за нестабильность работы и недостаточную функциональность фирменного ПО Cann.

Положение осложняют низкое качество кода и плохое документирование ПО от Huawei. На него жалуются даже сотрудники самой компании.

«Когда происходят случайные ошибки, очень трудно выявить их корень из-за плохой документации. Вам нужны талантливые разработчики, которые могут прочитать исходный код, чтобы увидеть, в чем проблема. При этом качество кода низкое», — сообщил источник Financial Times в Huawei.

В России запретят приложения для подмены голоса и голосов знаменитостей

В России готовятся заблокировать несколько приложений, позволяющих менять голос во время звонков и переписки — в том числе с использованием реалистичных голосов знаменитостей. Соответствующее решение принял Хамовнический суд Москвы, и запрет вступит в силу уже в феврале.

Как сообщает телеграм-канал Baza, суд согласился с позицией прокуратуры, которая указала на высокие риски злоупотреблений такими сервисами.

Речь идёт не только о телефонных розыгрышах: с помощью приложений для подмены голоса, по мнению надзорных органов, можно рассылать ложные сообщения о терактах, совершать звонки с экстремистскими призывами и использовать технологии в мошеннических схемах.

Тема подмены голоса в последнее время действительно всё чаще всплывает в криминальной хронике. Например, злоумышленники всё чаще выдают себя за сотрудников следственных органов, используя технологии искусственного интеллекта для генерации голосов и визуальных образов.

Одним из самых распространённых видов мошенничества с применением дипфейков остаются просьбы о материальной помощи от имени знакомых и коллег потенциальных жертв. Для рассылки таких сообщений злоумышленники, как правило, используют похищенные аккаунты. Также ранее фиксировались случаи использования визуальных образов губернаторов ряда регионов.

RSS: Новости на портале Anti-Malware.ru