Мошенники пытаются пробраться в компании с помощью сотрудников-дипфейков

Мошенники пытаются пробраться в компании с помощью сотрудников-дипфейков

Мошенники пытаются пробраться в компании с помощью сотрудников-дипфейков

Случаи использования дипфейков при трудоустройстве пока редки, однако использование ИИ-технологий позволяет сделать фальшивки более убедительными и повысить процент успеха подобного мошенничества.

Принятый на работу лжесотрудник поможет злоумышленникам получить доступ к корпоративным данным и причинить работодателю значительный ущерб.

За последние пару месяцев обманщики дважды пытались использовать дипфейки на собеседовании в калифорнийском стартапе Vidoc Security Lab и почти преуспели. Их подвели невнимание к деталям и плохое качество видео.

Оба претендента на удаленную работу, якобы из Польши и Сербии, по телефону ответили на все вопросы и при этом звучали убедительно, но с сильным азиатским акцентом. Подлог стал очевиден в ходе сеанса видеосвязи: изображение явно было сфальсифицировано, мимика и жесты не соответствовали речи.

«Трудоустройство под личностью другого человека, созданной при помощи технологии дипфейка, потенциально дает преступнику возможность получить учетные записи и другую значимую информацию, которая может значительно облегчить задачу проникновения в инфраструктуру компании для развития атаки», — пояснила для «Известий» руководитель отдела привлечения талантов компании F.A.C.C.T. (отныне F6) Людмила Гвоздева.

Эксперт «Лаборатории Касперского» Дмитрий Аникин по этому поводу заявил, что мошенники пытались использовать дипфейки на собеседованиях еще в 2022 году, когда увеличился спрос на удаленку (из-за COVID-19).

Опрошенные репортером специалисты также отметили, что подобные происшествия в HR редки (в России пока не зафиксированы). Мошенники чаще используют ИИ для составления впечатляющих резюме.

Расширение использования ИИ-технологий породило новые риски, с которыми волей-неволей приходится считаться. Растет число атак, полагающихся на ИИ, участились случаи мошенничества с применением дипфейков, способных вернуть на повестку дня утратившие эффективность схемы обмана — вроде Fake Date.

К сожалению, технические новинки — всегда палка о двух концах, а инструменты на основе ИИ вообще трудно защитить от злоупотреблений. Недавний опрос показал, что такая возможность тревожит бизнесменов, однако многим не хватает ресурсов для достойного отпора злоумышленникам, вооруженным ИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

26% школьников в России уже используют нейросети

Исследование «Взрослые и дети в интернете» от «Лаборатории Касперского» показывает: нейросети уже прочно вошли в жизнь школьников. Примерно четверть (26%) детей старше 10 лет пользуются ими — в том числе и для домашки. Причём среди мальчиков таких больше: 33% против 20% у девочек.

Об этом и других наблюдениях эксперты рассказали на конференции Kaspersky CyberSecurity Weekend 2025 в Минске.

Как дети используют чат-боты? Для многих это просто «продвинутый поисковик». 63% школьников ищут через нейросети информацию, 60% — делают домашние задания, 53% просят объяснить что-то непонятное.

Но важно понимать: слепо верить ботам нельзя — они ошибаются и иногда придумывают факты. Поэтому детям нужно учиться проверять ответы и сверяться с учебниками и надёжными источниками.

Дети также находят практическое применение ИИ: 25% используют нейросети для редактирования фотографий, 16% — для создания видео и аудио. То есть инструменты уже в ходу не только для учёбы, но и для творчества.

Некоторые школьники идут дальше и обращаются к чат-ботам за поддержкой: 20% «выговариваются» боту, 18% задают вопросы, которые стесняются обсуждать с взрослыми. Это говорит о том, что дети ищут понимания и поддержки — но чат-бот не заменит живого человека. Эмпатия, опыт и забота приходят только от родителей и близких.

Поэтому важно заранее проговаривать с ребёнком, что виртуальная помощь — не альтернатива реальному разговору. Ребёнок должен знать: в серьёзной ситуации стоит обратиться к родителям или другому доверенному взрослому. Нельзя передавать нейросетям слишком личные или конфиденциальные данные.

«ИИ — хороший помощник, но главный навык для ребёнка — уметь думать своей головой, взвешивать разные точки зрения и доверять близким людям», — говорит Андрей Сиденко, руководитель направления детской онлайн-безопасности «Лаборатории Касперского».

Он добавляет: чат-бот не должен превращаться в средство обмана учителей или замену настоящего общения. Кроме того, время за технологиями стоит ограничивать, чтобы у ребёнка оставались силы и интерес к живому общению, игре и собственным открытиям.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru