У OpenAl украли внутреннюю переписку об ИИ-технологиях

У OpenAl украли внутреннюю переписку об ИИ-технологиях

У OpenAl украли внутреннюю переписку об ИИ-технологиях

В начале 2023 года неизвестные злоумышленники взломали внутренние системы обмена сообщениями OpenAl и получили доступ к переписке об ИИ-технологиях. Поскольку данные клиентов компании не пострадали, предавать огласке инцидент не стали.

Как стало известно The New York Times, взломщики лишь могли узнать какие-то детали проектов, которые сотрудники в рабочем порядке обсуждали на онлайн-форуме. Добраться до хранилищ кодов и платформ разработки непрошеным гостям не удалось.

Украсть какую-либо информацию о клиентах и партнерах компании авторы атаки тоже не смогли, и потому было решено не разглашать факт атаки. Руководство лишь поставило в известность персонал и совет директоров.

Топ-менеджеры сочли, что автор атаки — частное лицо, в действиях которого не просматриваются связи с каким-либо иностранным правительством. Заключив, что киберинцидент не составляет угрозу национальной безопасности, разработчик ChatGPT не стал информировать о нем правоохранительные органы.

Практика показывает, что ИИ может принести не только пользу, но и вред — зависит от того, в каких руках окажутся столь мощные инструменты. По этой причине некоторые профильные разработчики, в том числе OpenAl, начали закрывать доступ к своим технологическим операциям и ужесточать контроль, чтобы снизить риск утечки.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Антиплагиат научился выявлять текст, сгенерированный нейросетями

Разработчики системы «Антиплагиат» сообщили о достижении 98% точности в определении текстов, созданных с помощью искусственного интеллекта. Это на 35% выше по сравнению с предыдущими версиями. Алгоритм был обучен и протестирован на материалах, сгенерированных нейросетями deepseekV3 и GPT-4o.

Новая модель ориентирована на анализ академических и научных текстов. В процессе обучения использовалась коллекция работ, собранная за 20 лет взаимодействия с российскими вузами.

Это позволило повысить точность в выявлении ИИ-сгенерированного контента в курсовых, дипломных и научных работах.

Согласно исследованию проекта «Я – профессионал», 85% российских студентов регулярно используют нейросети, в основном — для поиска информации. При этом 43% используют ИИ для подготовки рефератов, эссе и других письменных работ, а около четверти — для создания презентаций.

Применение генеративного ИИ вызывает обеспокоенность и в научной среде, в частности из-за проблем с достоверностью, вызванных так называемыми галлюцинациями ИИ.

На фоне этого большинство российских университетов используют системы проверки уникальности текста. В частности, по данным разработчиков, 92% участников государственной программы «Приоритет 2030» применяют «Антиплагиат» в своей работе.

Исполнительный директор компании «Антиплагиат» Евгений Лукьянчиков отметил, что обновление направлено на повышение качества академического письма и соблюдение норм научной этики.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru