Эксперты призывают к осторожности при использовании DeepSeek

Эксперты призывают к осторожности при использовании DeepSeek

Эксперты призывают к осторожности при использовании DeepSeek

Эксперты в области искусственного интеллекта (ИИ) призывают к осторожности при использовании сервиса DeepSeek из-за возможных рисков, связанных со сбором данных для обучения нейросетей и их потенциальной передачей третьим лицам.

Китайский стартап DeepSeek представил одноимённый чат-бот, разработка которого обошлась как минимум в несколько раз дешевле американских аналогов и требует меньше вычислительных ресурсов.

Запуск сервиса вызвал широкий резонанс: DeepSeek стремительно занял лидирующие позиции по числу загрузок в магазинах приложений, а капитализация технологических компаний в США сократилась более чем на 1 трлн долларов.

Президент США Дональд Трамп назвал появление DeepSeek тревожным сигналом для американской индустрии ИИ и призвал активизировать национальные разработки. Как заявила пресс-секретарь Белого дома Каролин Ливитт, влияние DeepSeek станет одной из ключевых тем первого заседания Совета национальной безопасности.

В то же время генеративные ИИ-модели нуждаются в больших объёмах данных для обучения, и многие компании собирают информацию о пользователях без их явного согласия. Ранее в подобных практиках уже обвиняли Microsoft.

Согласно политике конфиденциальности DeepSeek, сервис хранит на своих серверах IP-адреса, User-Agent, данные об устройствах, куки, отчёты о сбоях, журналы производительности, шаблоны нажатий клавиш, язык системы и другую техническую информацию. Причём даже после удаления учётной записи часть данных может оставаться в системе.

Из-за потенциальных угроз безопасности и этических вопросов, связанных с происхождением и использованием модели, военно-морской флот США запретил использование DeepSeek.

Член консультативного совета по искусственному интеллекту при ООН Венди Холл в комментарии для Guardian отметила, что китайские технологические компании обязаны соблюдать законодательство КНР. В частности, Закон о национальной разведке Китая предписывает гражданам и компаниям содействовать спецслужбам страны.

Она также напомнила, что генеративные ИИ-модели подвержены так называемым «галлюцинациям», а значит, результаты работы DeepSeek могут содержать дезинформацию.

Профессор Оксфордского университета Майкл Вулдридж в интервью Guardian выразил основное опасение по поводу возможной утечки конфиденциальных данных. Он предостерёг пользователей от передачи личной или корпоративной информации любым чат-ботам на основе ИИ, включая ChatGPT.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Почти каждый россиянин сталкивался с онлайн-мошенничеством

Сбер и Rambler&Co опубликовали результаты масштабного опроса, в котором приняли участие 156 тыс. россиян. Согласно данным исследования, с онлайн-мошенничеством сталкивались 96% респондентов. Чаще всего участники упоминали телефонное мошенничество (51%), попытки атак через мессенджеры (25%) и электронную почту (15%).

Опрос был приурочен к конференции AI Journey («Путешествие в мир искусственного интеллекта»), которая традиционно проходит в конце ноября. Исследование проводилось в онлайн-формате на ресурсах Rambler&Co.

По данным опроса, 96% участников сталкивались с теми или иными проявлениями онлайн-мошенничества. Помимо звонков и сообщений с вредоносными ссылками, 3% респондентов сообщали о встречах с поддельными приложениями.

Каждый пятый опрошенный (21%) отмечает, что сталкивался с атаками на компании, где он работает или работал ранее. Ещё 6% говорили о кибератаках на организации, услугами которых они пользуются. Треть респондентов узнавала о подобных инцидентах из СМИ и социальных сетей. Среди наиболее серьёзных последствий россияне называют утечки данных (25%) и остановку ключевых бизнес-процессов (19%).

При этом участники опроса слабо осведомлены о том, какие средства защиты применяются в их компаниях. Половина респондентов призналась, что не знает, какие технологии киберзащиты используются работодателем.

Непосредственно пострадали от мошенничества сравнительно немногие. По словам 85% опрошенных, злоумышленникам не удалось похитить у них деньги или имущество. Однако 3% признались, что переводили средства мошенникам онлайн, ещё 1% — передавали наличные через курьеров. Кроме того, 3% загружали вредоносные файлы, 2% вводили платёжные данные на фишинговых сайтах, а 6% потеряли деньги другими способами.

Среди наиболее распространённых средств защиты участники выделяют определители номера (38%) и антивирусные программы (24%). Треть респондентов возлагает большие надежды на новые инструменты на базе искусственного интеллекта. Ещё треть видит основное преимущество ИИ в автоматическом предотвращении мошеннических действий.

Около 30% ожидают появления новых защитных технологий, прежде всего направленных на выявление фишинга. 22% рассчитывают, что интеллектуальные алгоритмы ускорят обнаружение мошеннических схем, а 12% верят, что ИИ поможет эффективнее расследовать такие преступления.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru