Антиплагиат научился выявлять текст, сгенерированный нейросетями

Антиплагиат научился выявлять текст, сгенерированный нейросетями

Антиплагиат научился выявлять текст, сгенерированный нейросетями

Разработчики системы «Антиплагиат» сообщили о достижении 98% точности в определении текстов, созданных с помощью искусственного интеллекта. Это на 35% выше по сравнению с предыдущими версиями. Алгоритм был обучен и протестирован на материалах, сгенерированных нейросетями deepseekV3 и GPT-4o.

Новая модель ориентирована на анализ академических и научных текстов. В процессе обучения использовалась коллекция работ, собранная за 20 лет взаимодействия с российскими вузами.

Это позволило повысить точность в выявлении ИИ-сгенерированного контента в курсовых, дипломных и научных работах.

Согласно исследованию проекта «Я – профессионал», 85% российских студентов регулярно используют нейросети, в основном — для поиска информации. При этом 43% используют ИИ для подготовки рефератов, эссе и других письменных работ, а около четверти — для создания презентаций.

Применение генеративного ИИ вызывает обеспокоенность и в научной среде, в частности из-за проблем с достоверностью, вызванных так называемыми галлюцинациями ИИ.

На фоне этого большинство российских университетов используют системы проверки уникальности текста. В частности, по данным разработчиков, 92% участников государственной программы «Приоритет 2030» применяют «Антиплагиат» в своей работе.

Исполнительный директор компании «Антиплагиат» Евгений Лукьянчиков отметил, что обновление направлено на повышение качества академического письма и соблюдение норм научной этики.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI будет передавать опасные чаты правоохранительным органам

Истории о том, как диалоги с чат-ботами заканчиваются психозами, госпитализацией или даже суицидом, уже больше года появляются в СМИ и соцсетях. На этом фоне OpenAI долгое время ограничивалась лишь общими обещаниями «улучшить защиту».

Теперь ситуация изменилась: в блоге OpenAI признала свои недоработки и сообщила, что начала сканировать пользовательские чаты на предмет опасного контента.

Если алгоритм «чует неладное», диалог попадает к небольшой команде сотрудников. А в случаях, когда модераторы видят «угрозу серьёзного физического вреда другим людям», компания может передать информацию в правоохранительные органы.

Интересный момент: о самоубийствах пока в полицию не сообщают — OpenAI объясняет это уважением к приватности и «уникально личному характеру общения с ChatGPT». Но компания открыто признаёт: да, мы читаем подозрительные чаты, а иногда делимся ими с властями.

Это, мягко говоря, выглядит противоречиво. С одной стороны, OpenAI отклоняет запросы издателей (включая New York Times), которые требуют доступ к логам переписок ради судебных разбирательств — и делает это под лозунгом защиты приватности пользователей. С другой — сама же может передавать чаты полиции.

Добавим к этому, что ещё недавно CEO Сэм Альтман честно говорил: разговор с ChatGPT как с психотерапевтом или юристом не равноценен конфиденциальной беседе с реальным специалистом. И если суды обяжут, то переписка пользователей вполне может оказаться в материалах дела.

В итоге получается странная картина: OpenAI вроде бы пытается закрыть дыры и снизить риски трагедий, но делает это так, что доверия к сервису у людей становится ещё меньше.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru