Комитет Госдумы уличили в использовании ChatGPT

Комитет Госдумы уличили в использовании ChatGPT

Комитет Госдумы уличили в использовании ChatGPT

В пояснительной записке к законопроекту «О государственной поддержке молодёжных и детских общественных объединений» обнаружили следы использования ChatGPT. В одной из ссылок присутствовала характерная метка, которую оставляет зарубежный чат-бот.

Об этом сообщил портал Rozetked, ссылаясь на многочисленные обсуждения в соцсетях и телеграм-каналах.

История быстро получила широкий резонанс. Так, член СПЧ, глава проекта «Белый Интернет», профессор МГИМО Элина Сидоренко назвала произошедшее вопиющим случаем:

«Ну вот и приехали. ИИ в пояснительных записках Госдумы — открыто, без стеснения и стыда… А ведь это не просто констатация невнимательности аппарата Госдумы, это показатель того, что данные сливаются в американский ИИ, это становится нормой, никто не задумывается о безопасности данных».

Пост Сидоренко перепостил и официальный телеграм-канал Совета при Президенте по развитию гражданского общества и правам человека.

Ранее ФСТЭК отнесла утечки данных к числу наиболее специфичных рисков, связанных с использованием ИИ, включая генеративные модели. С декабря 2025 года такие угрозы включены в базу данных угроз (БДУ) регулятора.

В то же время комитет Госдумы по молодёжной политике опроверг использование чат-бота при подготовке текста законопроекта. При этом там признали, что один из сотрудников аппарата применял ChatGPT на этапе поиска и анализа материалов.

«Материалы к законопроекту готовились на протяжении двух лет исключительно депутатами совместно с командой юристов аппарата комитета. Сама пояснительная записка написана человеком, что подтверждается анализом, проведённым рекомендованным к использованию в государственных органах российским ИИ-ассистентом GigaChat. При этом подготовка законопроекта — настолько сложная и профессиональная задача, что ИИ в принципе не способен с ней справиться», — заявили в пресс-службе Комитета Госдумы по молодёжной политике.

Нейросеть для ЖКХ научилась материться в первый месяц обучения

Разработчикам отечественного голосового помощника для сферы ЖКХ пришлось «переучивать» систему после того, как в процессе обучения бот освоил ненормативную лексику. Этот случай наглядно показал, насколько критично качество данных, на которых обучаются нейросети.

О возникшей проблеме рассказал ТАСС президент Национального объединения организаций в сфере технологий информационного моделирования (НОТИМ) Михаил Викторов на Сибирском строительном форуме, который проходит в Новосибирске.

«Приведу забавный случай: нейросеть учится, и буквально уже в первый месяц разработчики обнаружили такую коллизию — нейросеть научилась мату. Как говорится, с кем поведёшься, от того и наберёшься. Эту проблему, конечно, пришлось устранять. Но это в том числе показатель активного взаимодействия с нашими гражданами», — рассказал Михаил Викторов.

При этом, по его словам, внедрение ботов позволило сократить число операторов кол-центров в 5–6 раз без потери качества обслуживания. Нейросетевые инструменты способны обрабатывать до 90% входящих обращений.

Уровень удовлетворённости качеством обслуживания, по оценке Викторова, составляет около 80%. Передавать звонки операторам целесообразно лишь в экстренных случаях — например, при аварийных ситуациях.

Эксперты ранее отмечали, что именно данные, на которых обучается ИИ, являются ключевой причиной появления некорректных или предвзятых ответов нейросетевых инструментов.

RSS: Новости на портале Anti-Malware.ru