Использование ИИ в преступных целях грозит 15 годами заключения

Использование ИИ в преступных целях грозит 15 годами заключения

Использование ИИ в преступных целях грозит 15 годами заключения

Использование искусственного интеллекта (ИИ) для совершения краж, вымогательства, мошенничества или вмешательства в работу ИТ-систем будет наказываться штрафом до 2 млн рублей или лишением свободы на срок до 15 лет. Такая мера предусмотрена во втором пакете антимошеннических инициатив.

Ранее подготовить соответствующие предложения рекомендовала Правительственная комиссия по итогам заседания в марте 2025 года. В апреле группа депутатов Госдумы внесла законопроект, в котором использование ИИ рассматривается как отягчающее обстоятельство.

Инициатива была выдвинута Минцифры и представлена на совещании у первого вице-премьера, руководителя Аппарата правительства Дмитрия Григоренко. Документ по итогам совещания оказался в распоряжении «Ведомостей». Источники издания в правительстве подтвердили его подлинность.

Поправки вносятся в статьи Уголовного кодекса РФ: 158 (кража), 159 (мошенничество), 163 (вымогательство), 272 (неправомерное воздействие на информационные системы и сети), а также 274 (нарушение правил эксплуатации средств хранения, обработки и передачи информации).

В документе также приводится определение ИИ: «Комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Использование ИИ при совершении преступлений будет приравнено к таким отягчающим обстоятельствам, как действия в составе организованной группы, причинение тяжкого вреда здоровью, нанесение значительного ущерба или попытка завладения особо крупным имуществом.

Какие конкретно технологии ИИ попадут под действие новых норм, в Минцифры пока не уточнили. Там также напомнили, что меры второго антимошеннического пакета проходят межведомственное согласование и могут быть существенно доработаны.

По мнению опрошенных изданием экспертов, злоупотребление ИИ действительно становится всё более заметной угрозой. Такие технологии, как дипфейк, имитация голоса и подмена биометрических данных, позволяют создавать более правдоподобные обманы, что затрудняет расследование преступлений и увеличивает возможный ущерб.

В то же время определение ИИ, предложенное в поправках, эксперты считают некорректным: оно охватывает практически любые инструменты машинного обучения, что создаёт риск чрезмерного расширения уголовного преследования.

ИИ научился выявлять депрессию по голосовым сообщениям в WhatsApp

Учёные показали, что депрессию можно распознать буквально «по голосу» — и для этого не нужны ни долгие опросники, ни визит к врачу. Достаточно короткого голосового сообщения в WhatsApp (принадлежит Meta, признанной экстремистской и запрещенной в России).

Исследователи из Медицинской школы Санта-Каса-де-Сан-Паулу и компании Infinity Doctors разработали медицинскую языковую модель, которая с высокой точностью определяет наличие депрессивного расстройства по аудиосообщениям.

Результаты работы опубликованы 21 января 2026 года в открытом журнале PLOS Mental Health.

В эксперименте модель анализировала короткие голосовые сообщения, где участники просто рассказывали, как прошла их неделя. И результат оказался неожиданным: у женщин с диагностированной депрессией точность распознавания превысила 91%.

Это один из лучших показателей среди подобных исследований, особенно с учётом того, что речь идёт о бытовых сообщениях, а не специально записанных медицинских интервью.

Для обучения и тестирования использовались два набора данных с WhatsApp-аудио от носителей португальского. В них вошли записи пациентов с подтверждённым диагнозом «большое депрессивное расстройство» и контрольной группы без депрессии.

Часть сообщений была максимально простой — участникам предлагали досчитать от одного до десяти, другая часть — более естественной: свободный рассказ о прошедшей неделе.

Лучше всего модель справлялась именно со «спонтанной речью». У мужчин точность в этом же сценарии оказалась ниже — около 75%, что авторы связывают с меньшим числом мужских голосов в обучающей выборке и возможными различиями в речевых паттернах. При анализе простого счёта до десяти разница между полами почти исчезала: точность составляла около 80% у женщин и чуть меньше у мужчин.

По словам авторов, модель улавливает тонкие акустические признаки — темп речи, интонации, паузы, — которые сложно заметить человеку, но хорошо видит машинное обучение. И главное — всё это происходит в привычном для людей формате повседневного общения.

Исследователи считают, что при дальнейшем развитии технология может лечь в основу недорогих и удобных инструментов раннего скрининга депрессии, не требующих сложных процедур и не нарушающих повседневные привычки пользователей.

Как отметил старший автор исследования Лукас Маркес, «незаметные акустические особенности обычных голосовых сообщений могут с неожиданной точностью указывать на депрессивные состояния».

Напомним, в недавнем исследовании метаданные WhatsApp показали: мы плохо понимаем, как ведём себя в чатах.

RSS: Новости на портале Anti-Malware.ru