Бизнесу хотят ограничить использование ПДн в маркетинговых целях

Бизнесу хотят ограничить использование ПДн в маркетинговых целях

Бизнесу хотят ограничить использование ПДн в маркетинговых целях

Во второй пакет мер по борьбе с дистанционным мошенничеством включена поправка к закону «О персональных данных», запрещающая формировать клиентские профили без их явного согласия.

Профилирование — это автоматизированный сбор информации из различных источников с целью анализа личности и прогнозирования интересов. Такой подход активно используют телеком-операторы, банки, маркетплейсы и другие компании для маркетинговых целей.

Однако, как выяснили «Ведомости», новая поправка прямо запрещает анализировать и предсказывать экономическое положение, состояние здоровья, личные предпочтения, поведение и местоположение субъекта персональных данных без его явного согласия с применением автоматизированных алгоритмов.

Подлинность документа изданию подтвердили источники в правительстве и телеком-компаниях.

Согласие на обработку персональных данных можно будет предоставить или отозвать двумя способами: напрямую у оператора или через Единую систему идентификации и аутентификации (ЕСИА). Кроме того, оператор будет обязан передавать в ЕСИА сведения о факте обработки данных.

В Минцифры заявили «Ведомостям», что новая мера направлена на защиту прав граждан и ограничение избыточного сбора персональных данных: «Любые исследования массивов данных проводились и будут проводиться при строгом соблюдении требований безопасности, а сама информация надёжно защищена».

В то же время источник в одной из телеком-компаний отметил, что инициатива усложнит работу бизнеса из-за усиления контроля и роста административных затрат. Особенно пострадают крупные ИТ-компании, банки, страховые и рекламные платформы, уже вложившие значительные средства в разработку систем скоринга и аналитики.

По словам представителя другой телеком-компании, у части рынка нормы вызвали резкое неприятие. Дополнительное напряжение связано с тем, что иностранные конкуренты, действующие на российском рынке, соблюдать подобные требования не обязаны.

В Ассоциации больших данных считают меру избыточной: действующая редакция закона уже запрещает объединение персональных данных из разных баз для несовместимых целей. Кроме того, новые правила создают правовую неопределённость, вводя термины, не закреплённые в законодательстве.

Руководитель проектов компании «Интеллектуальная аналитика» Тимофей Воронин полагает, что инициатива негативно скажется на качестве клиентского обслуживания и приведёт к отказу от персонализированной рекламы в пользу массовых рассылок. Также возможны торможение развития ИИ-технологий, снижение конкурентоспособности российских компаний и отток инвестиций за рубеж.

Генеральный директор юридической компании Enterprise Legal Solutions Анна Барабаш подчеркнула, что данные, используемые для профайлинга, при утечке действительно могут стать инструментом таргетированных атак с элементами социальной инженерии. По её словам, защита информации, используемой для машинного обучения, до сих пор остаётся слабо урегулированной.

По оценке Барабаш, за нарушение новых требований к составу обрабатываемых персональных данных предусмотрены штрафы: от 10 до 30 тысяч рублей для физических лиц, от 20 до 40 тысяч — для должностных и от 30 до 150 тысяч — для юридических лиц.

ИИ заполонил хакерские форумы и начал раздражать самих киберпреступников

Форумы «чёрных» хакеров и киберпреступников заполонил контент, сгенерированный нейросетями. Его активно продвигают владельцы площадок, нередко на платной основе. Однако самих пользователей таких форумов всё сильнее раздражают большие объёмы низкокачественного ИИ-контента.

К такому выводу пришли исследователи из Эдинбургского университета. Они проанализировали почти 100 тыс. переписок с хакерских форумов, посвящённых искусственному интеллекту, за период с ноября 2022 года — момента выхода первой публично доступной версии ChatGPT — до конца 2025 года.

Как оказалось, пользователей раздражает вмешательство ИИ-ассистентов, которых продвигают владельцы площадок, а также большое количество контента, созданного нейросетями. Кроме того, появление ИИ-резюме в поисковых системах привело к снижению посещаемости форумов.

Между тем такие форумы выстраивали свою репутацию годами. Эти площадки стали не только местом поиска заказов, обмена инструментами и торговли массивами украденных данных, но и пространством для обычного общения. Однако всё чаще пользователи не пишут посты сами, а делегируют это ИИ-ассистентам. Это раздражает тех, кто приходит на такие форумы именно за живым взаимодействием.

Злоумышленники также пытаются использовать искусственный интеллект в атаках. В некоторых сценариях это действительно даёт заметный эффект — например, при автоматизации операций социальной инженерии или генерации фишинговых сообщений. В таких случаях ИИ позволяет даже в массовых атаках повысить конверсию до уровня, который раньше был характерен скорее для целевого фишинга.

Авторы исследования также указывают на активное применение ИИ в схемах с ботами в мессенджерах и мошенничестве на сайтах знакомств, где используются дипфейки и образы несуществующих людей.

Однако при написании вредоносного кода с помощью ИИ результаты, как правило, не впечатляют — примерно так же, как и при создании легитимного кода. Качество обычно остаётся низким. А в случае хакерских инструментов ошибки и уязвимости, характерные для ИИ-сгенерированного кода, могут даже раскрывать инфраструктуру их авторов.

Пока исследователи не видят радикального эффекта от использования ИИ в киберпреступной среде. Особенно это касается заметного снижения порога входа. Также не зафиксировано существенного влияния ИИ на бизнес-модели и другие процессы таких сообществ — ни в положительную, ни в отрицательную сторону.

RSS: Новости на портале Anti-Malware.ru