Минцифры: искусственный интеллект в России нужно подвергнуть цензуре

Минцифры: искусственный интеллект в России нужно подвергнуть цензуре

Минцифры: искусственный интеллект в России нужно подвергнуть цензуре

В России обсуждают, каким должен быть «правильный» искусственный интеллект и, похоже, без ограничений его видеть не хотят. Замглавы Минцифры Александр Шойтов на форуме «ИИ: режим доверия» заявил, что ИИ в стране должен работать с цензурными ограничениями и «на входе, и на выходе», чтобы отсекать нежелательные и чувствительные запросы.

По его словам, нейросети в этом смысле нельзя ставить в один ряд с человеком, потому что «людей у нас цензурировать нельзя, у них есть права».

По сути, речь идёт о модели, при которой ИИ-системы должны заранее фильтровать часть запросов пользователей и ограничивать определённые ответы. Такая позиция выглядит как продолжение линии Минцифры на более жёсткое регулирование нейросетей: ещё в марте ведомство вынесло на общественное обсуждение законопроект о регулировании ИИ в России.

Документ предлагает риск-ориентированный подход, требования к разработчикам и пользователям, меры поддержки инфраструктуры, а также механизмы ограничения отдельных решений. В случае принятия закон может вступить в силу с 1 сентября 2027 года.

На этом фоне курс государства в целом выглядит двойственным, но вполне понятным: ИИ собираются активно внедрять, но одновременно держать под контролем. 10 апреля Владимир Путин поручил правительству совместно с регионами подготовить национальный план внедрения искусственного интеллекта.

Президент отдельно подчеркнул, что к 2030 году ИИ должен широко использоваться в ключевых сферах — от промышленности и логистики до образования, энергетики и госуправления. При этом, по его словам, регулирование не должно душить развитие отрасли, иначе страна рискует отстать в технологиях и экономике.

Для рынка это значит, что разговор об ИИ в России окончательно выходит из стадии «давайте просто развивать технологии» в стадию «давайте сразу определим, что именно им можно, а что нельзя». И судя по заявлениям Минцифры, этот разговор будет вполне прикладным: с будущими правилами, ограничениями и, вероятно, новыми обязанностями для разработчиков.

ИИ заполонил хакерские форумы и начал раздражать самих киберпреступников

Форумы «чёрных» хакеров и киберпреступников заполонил контент, сгенерированный нейросетями. Его активно продвигают владельцы площадок, нередко на платной основе. Однако самих пользователей таких форумов всё сильнее раздражают большие объёмы низкокачественного ИИ-контента.

К такому выводу пришли исследователи из Эдинбургского университета. Они проанализировали почти 100 тыс. переписок с хакерских форумов, посвящённых искусственному интеллекту, за период с ноября 2022 года — момента выхода первой публично доступной версии ChatGPT — до конца 2025 года.

Как оказалось, пользователей раздражает вмешательство ИИ-ассистентов, которых продвигают владельцы площадок, а также большое количество контента, созданного нейросетями. Кроме того, появление ИИ-резюме в поисковых системах привело к снижению посещаемости форумов.

Между тем такие форумы выстраивали свою репутацию годами. Эти площадки стали не только местом поиска заказов, обмена инструментами и торговли массивами украденных данных, но и пространством для обычного общения. Однако всё чаще пользователи не пишут посты сами, а делегируют это ИИ-ассистентам. Это раздражает тех, кто приходит на такие форумы именно за живым взаимодействием.

Злоумышленники также пытаются использовать искусственный интеллект в атаках. В некоторых сценариях это действительно даёт заметный эффект — например, при автоматизации операций социальной инженерии или генерации фишинговых сообщений. В таких случаях ИИ позволяет даже в массовых атаках повысить конверсию до уровня, который раньше был характерен скорее для целевого фишинга.

Авторы исследования также указывают на активное применение ИИ в схемах с ботами в мессенджерах и мошенничестве на сайтах знакомств, где используются дипфейки и образы несуществующих людей.

Однако при написании вредоносного кода с помощью ИИ результаты, как правило, не впечатляют — примерно так же, как и при создании легитимного кода. Качество обычно остаётся низким. А в случае хакерских инструментов ошибки и уязвимости, характерные для ИИ-сгенерированного кода, могут даже раскрывать инфраструктуру их авторов.

Пока исследователи не видят радикального эффекта от использования ИИ в киберпреступной среде. Особенно это касается заметного снижения порога входа. Также не зафиксировано существенного влияния ИИ на бизнес-модели и другие процессы таких сообществ — ни в положительную, ни в отрицательную сторону.

RSS: Новости на портале Anti-Malware.ru