Использование ИИ в преступных целях грозит 15 годами заключения

Использование ИИ в преступных целях грозит 15 годами заключения

Использование ИИ в преступных целях грозит 15 годами заключения

Использование искусственного интеллекта (ИИ) для совершения краж, вымогательства, мошенничества или вмешательства в работу ИТ-систем будет наказываться штрафом до 2 млн рублей или лишением свободы на срок до 15 лет. Такая мера предусмотрена во втором пакете антимошеннических инициатив.

Ранее подготовить соответствующие предложения рекомендовала Правительственная комиссия по итогам заседания в марте 2025 года. В апреле группа депутатов Госдумы внесла законопроект, в котором использование ИИ рассматривается как отягчающее обстоятельство.

Инициатива была выдвинута Минцифры и представлена на совещании у первого вице-премьера, руководителя Аппарата правительства Дмитрия Григоренко. Документ по итогам совещания оказался в распоряжении «Ведомостей». Источники издания в правительстве подтвердили его подлинность.

Поправки вносятся в статьи Уголовного кодекса РФ: 158 (кража), 159 (мошенничество), 163 (вымогательство), 272 (неправомерное воздействие на информационные системы и сети), а также 274 (нарушение правил эксплуатации средств хранения, обработки и передачи информации).

В документе также приводится определение ИИ: «Комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».

Использование ИИ при совершении преступлений будет приравнено к таким отягчающим обстоятельствам, как действия в составе организованной группы, причинение тяжкого вреда здоровью, нанесение значительного ущерба или попытка завладения особо крупным имуществом.

Какие конкретно технологии ИИ попадут под действие новых норм, в Минцифры пока не уточнили. Там также напомнили, что меры второго антимошеннического пакета проходят межведомственное согласование и могут быть существенно доработаны.

По мнению опрошенных изданием экспертов, злоупотребление ИИ действительно становится всё более заметной угрозой. Такие технологии, как дипфейк, имитация голоса и подмена биометрических данных, позволяют создавать более правдоподобные обманы, что затрудняет расследование преступлений и увеличивает возможный ущерб.

В то же время определение ИИ, предложенное в поправках, эксперты считают некорректным: оно охватывает практически любые инструменты машинного обучения, что создаёт риск чрезмерного расширения уголовного преследования.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Инвесторы идут к ChatGPT, но он путает цифры и строит хрустальные шары

Похоже, ИИ уверенно заходит и на фондовый рынок. Уже 13% частных инвесторов по всему миру используют ChatGPT или другие чат-боты для выбора акций. А примерно половина респондентов опроса eToro (11 тысяч инвесторов) признались, что не прочь попробовать такие инструменты для управления портфелем.

Как пишет Reuters, речь идёт не об алгоритмическом трейдинге, когда компьютеры гоняют тысячи сделок в секунду, а о том, что люди реально задают ИИ вопросы вроде «какие акции стоит купить?», читают ответ и сами решают, жать ли кнопку «купить».

Например, бывший аналитик UBS Джереми Люн теперь полагается на ChatGPT для управления своим портфелем.

«У меня больше нет доступа к Bloomberg Terminal — он слишком дорогой, — говорит он. — А ChatGPT может заменить многие привычные рабочие процессы».

Есть и громкие кейсы: сайт Finder ещё в марте 2023-го попросил ChatGPT составить портфель из «качественных компаний». С тех пор эта подборка выросла почти на 55% — результат лучше среднего по топ-10 британских фондов на 19 процентных пунктов.

Но есть нюанс: американский рынок и без того на исторических максимумах. S&P 500 вырос на 13% с начала года, а в 2023-м вообще прибавил 23%. В такой ситуации почти любая стратегия выглядит «гениальной».

Эксперты напоминают, что у ИИ есть серьёзные ограничения: он не видит данных за paywall, может путать цифры, выстраивать надуманные нарративы и слишком полагаться на прошлое поведение акций.

«Риск в том, что люди начинают воспринимать ChatGPT или Gemini как хрустальный шар», — предупреждает глава eToro в Великобритании.

История повторяется: в 80-х частные инвесторы получили электронную торговлю, в 90-х — онлайн-брокеров с копеечными комиссиями, после кризиса 2008-го появились первые роботизированные советчики. Теперь на сцену выходят ИИ-ассистенты.

Главная опасность, как говорят аналитики: пока рынок растёт, ИИ выглядит помощником. Но если грянет кризис, не факт, что частные инвесторы сумеют правильно управлять рисками.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru