На горизонте ИИ: Сбер выпустил отчет про опасные технологии будущего

На горизонте ИИ: Сбер выпустил отчет про опасные технологии будущего

На горизонте ИИ: Сбер выпустил отчет про опасные технологии будущего

Квантовые компьютеры, DeepFake и генеративный ИИ — Лаборатория кибербезопасности Сбера опубликовал объемный отчет о том, какие технологии будут влиять на кибербезопасность в ближайшие 10 лет. В документе 40 страниц, каждая технология имеет красный, желтый или синий уровень опасности.

В аналитический отчёте (PDF) “Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности” три градации влияния той или иной новой технологии: от высокого (красного цвета) до низкого (сине-зеленого).

В Hypervector 2022 также указан временной период, когда технология, предположительно, достигнет зрелости и начнёт применяться массово.

Более того, для каждой из технологий приведены примеры возможных угроз или её использования в кибербезопасности.

 

1. Горизонт до 5 лет: Управление рисками человеческого фактора, так как проблема противодействию атакам на человека является крайне актуальной как для отдельных компаний, так и для индустрии кибербезопасности в целом.

В этот период потребуется выработка методов оценки подверженности различным рискам, эффективного обучения тактикам противодействия угрозам и выработки навыков кибергигиены у сотрудников и клиентов.

2. Горизонт 5-10 лет: ИИ с сохранением приватности и безопасные распределенные вычисления.

Технологии напрямую касаются безопасности данных и их исследование и разработка поможет компаниям реализовать новые сервисы, связанные с предоставлением доступа и обменом данными и обучением более точных и масштабных моделей ИИ, не порождая угроз нарушения приватности и конфиденциальности.

3. Горизонт более 10 лет: Artificial General Intelligence (AGI), так как возникновение этой технологии способно породить масштабные угрозы (вплоть до экзистенциальных) как в кибербезопасности, так и за ее пределами.

Также AGI способен оказать существенное влияние на саму сферу кибербезопасности в случае его применения для защиты от угроз.

Большинство из рассмотренных в отчете технологий можно отнести к одной из трех категорий: технологии ИИ, технологии вычислений, технологии взаимодействия с вычислительными устройствами, приходят к выводам исследователи.

По мнению экспертов, именно их развитие будет оказывать наиболее существенное влияние на развитие других сопутствующих технологий и возможностей их применения в различных сферах жизни, экономики и бизнеса.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

26% школьников в России уже используют нейросети

Исследование «Взрослые и дети в интернете» от «Лаборатории Касперского» показывает: нейросети уже прочно вошли в жизнь школьников. Примерно четверть (26%) детей старше 10 лет пользуются ими — в том числе и для домашки. Причём среди мальчиков таких больше: 33% против 20% у девочек.

Об этом и других наблюдениях эксперты рассказали на конференции Kaspersky CyberSecurity Weekend 2025 в Минске.

Как дети используют чат-боты? Для многих это просто «продвинутый поисковик». 63% школьников ищут через нейросети информацию, 60% — делают домашние задания, 53% просят объяснить что-то непонятное.

Но важно понимать: слепо верить ботам нельзя — они ошибаются и иногда придумывают факты. Поэтому детям нужно учиться проверять ответы и сверяться с учебниками и надёжными источниками.

Дети также находят практическое применение ИИ: 25% используют нейросети для редактирования фотографий, 16% — для создания видео и аудио. То есть инструменты уже в ходу не только для учёбы, но и для творчества.

Некоторые школьники идут дальше и обращаются к чат-ботам за поддержкой: 20% «выговариваются» боту, 18% задают вопросы, которые стесняются обсуждать с взрослыми. Это говорит о том, что дети ищут понимания и поддержки — но чат-бот не заменит живого человека. Эмпатия, опыт и забота приходят только от родителей и близких.

Поэтому важно заранее проговаривать с ребёнком, что виртуальная помощь — не альтернатива реальному разговору. Ребёнок должен знать: в серьёзной ситуации стоит обратиться к родителям или другому доверенному взрослому. Нельзя передавать нейросетям слишком личные или конфиденциальные данные.

«ИИ — хороший помощник, но главный навык для ребёнка — уметь думать своей головой, взвешивать разные точки зрения и доверять близким людям», — говорит Андрей Сиденко, руководитель направления детской онлайн-безопасности «Лаборатории Касперского».

Он добавляет: чат-бот не должен превращаться в средство обмана учителей или замену настоящего общения. Кроме того, время за технологиями стоит ограничивать, чтобы у ребёнка оставались силы и интерес к живому общению, игре и собственным открытиям.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru