Эксперты призывают к осторожности при использовании DeepSeek

Эксперты призывают к осторожности при использовании DeepSeek

Эксперты призывают к осторожности при использовании DeepSeek

Эксперты в области искусственного интеллекта (ИИ) призывают к осторожности при использовании сервиса DeepSeek из-за возможных рисков, связанных со сбором данных для обучения нейросетей и их потенциальной передачей третьим лицам.

Китайский стартап DeepSeek представил одноимённый чат-бот, разработка которого обошлась как минимум в несколько раз дешевле американских аналогов и требует меньше вычислительных ресурсов.

Запуск сервиса вызвал широкий резонанс: DeepSeek стремительно занял лидирующие позиции по числу загрузок в магазинах приложений, а капитализация технологических компаний в США сократилась более чем на 1 трлн долларов.

Президент США Дональд Трамп назвал появление DeepSeek тревожным сигналом для американской индустрии ИИ и призвал активизировать национальные разработки. Как заявила пресс-секретарь Белого дома Каролин Ливитт, влияние DeepSeek станет одной из ключевых тем первого заседания Совета национальной безопасности.

В то же время генеративные ИИ-модели нуждаются в больших объёмах данных для обучения, и многие компании собирают информацию о пользователях без их явного согласия. Ранее в подобных практиках уже обвиняли Microsoft.

Согласно политике конфиденциальности DeepSeek, сервис хранит на своих серверах IP-адреса, User-Agent, данные об устройствах, куки, отчёты о сбоях, журналы производительности, шаблоны нажатий клавиш, язык системы и другую техническую информацию. Причём даже после удаления учётной записи часть данных может оставаться в системе.

Из-за потенциальных угроз безопасности и этических вопросов, связанных с происхождением и использованием модели, военно-морской флот США запретил использование DeepSeek.

Член консультативного совета по искусственному интеллекту при ООН Венди Холл в комментарии для Guardian отметила, что китайские технологические компании обязаны соблюдать законодательство КНР. В частности, Закон о национальной разведке Китая предписывает гражданам и компаниям содействовать спецслужбам страны.

Она также напомнила, что генеративные ИИ-модели подвержены так называемым «галлюцинациям», а значит, результаты работы DeepSeek могут содержать дезинформацию.

Профессор Оксфордского университета Майкл Вулдридж в интервью Guardian выразил основное опасение по поводу возможной утечки конфиденциальных данных. Он предостерёг пользователей от передачи личной или корпоративной информации любым чат-ботам на основе ИИ, включая ChatGPT.

Более трех четвертей россиян не отличают нейросетевой контент от реального

Согласно исследованию агентств Spektr и СКОТЧ, 77% участников не смогли отличить изображения, созданные нейросетями, от реальных фотографий. В опросе приняли участие около 1000 человек. Респондентам в случайном порядке показывали пять изображений, из которых четыре были сгенерированы ИИ, а одно — подлинное.

Результаты исследования приводит РБК. Корректно определить сгенерированные изображения смогли лишь 23% опрошенных.

При этом в более молодых возрастных группах показатели оказались выше. Среди респондентов до 30 лет правильный ответ дали 30%, в группе 31–44 года — 25%.

В числе признаков «настоящего» фото участники называли убедительные детали, реалистичные свет и тени, а также естественную улыбку человека в кадре. Например, изображение с улыбающимся мужчиной чаще других считали реальным участники в возрасте 45–60 лет — 28% из них выбрали именно этот вариант.

Примечательно, что доля тех, кто ошибается при определении ИИ-контента, растёт. Согласно результатам исследования MWS, опубликованным летом 2025 года, правильно распознать сгенерированные изображения смогли более трети респондентов.

RSS: Новости на портале Anti-Malware.ru