Преступный интернет занесут в «чёрный» список

Преступный интернет занесут в «чёрный» список

На защиту юных пользователей Всемирной сети встала Лига безопасного Интернета, в которую входят операторы «Билайн», «Мегафон», МТС, «Ростелеком», «Лаборатория Касперского» и почтовый сервис Mail.ru.



Разработанный лигой законопроект, призванный уберечь детей от опасных сайтов, направлен на рассмотрение в Минкомсвязи.

«Мы предлагаем создание саморегулируемой некоммерческой организации, которая введёт «чёрный» список. Он будет отсекать всё преступное, что есть в Интернете. Если ресурс попал в такой список, то операторы связи, владельцы сайтов должны блокировать доступ к нему пользователей или же удалять эту информацию», – рассказал Gudok.ru исполнительный директор Лиги безопасного Интернета Денис Давыдов.

Помимо «чёрного» идёт работа над созданием «белого» списка. И если к первому не будет доступа ни у одного пользователя, то второй смогут просматривать родители и интернет-провайдеры. По словам г-на Давыдова, «белые» списки помогут детям и родителям фильтровать содержимое сетевых ресурсов. «С преступными сайтами сталкивается каждый второй пользователь. При этом нужно учитывать, что из 60 миллионов российских пользователей примерно 59% – молодёжь», – подчеркнул эксперт.

По мнению руководителя отдела интернет-решений «Лаборатории Касперского» Андрея Ярных, ситуация с безопасностью детей в Интернете неприемлема, поскольку в сети отсутствуют элементы упорядочения информации. Противоправный контент размещается анонимно, а значит, безнаказанно, и единичные случаи поимки кибермошенников пока не оказывают должного сдерживающего эффекта. Г-н Ярных предлагает несколько путей решения проблемы: добровольная авторизация пользователей. Практика показывает, что авторизированный пользователь ведёт себя ответственнее. В качестве бонуса – предоставление Интернета по льготному тарифу. «Кроме того, нужен инструментарий фильтрации, без которого нельзя предотвратить или уменьшить скорость появления негативного контента в Интернете. Список фильтрации не должен находиться в руках государственных или коммерческих структур, дабы его не использовали в политической или конкурентной борьбе», – пояснил Gudok.ru Андрей Ярных.

Также эксперт указал на необходимость предварительной «разметки» содержимого сайта. Владельцам интернет-ресурсов необходимо самостоятельно определять те разделы, которые содержат контент, нерекомендуемый для детей или подростков. Эти метки должны учитываться поисковыми системами для выдачи результатов с поправкой на возраст интернет-пользователя.

Работодатели жалуются на дипломированную беспомощность из-за ИИ

Широкое распространение технологий искусственного интеллекта (ИИ) приводит к тому, что многие выпускники вузов не могут выполнять служебные обязанности без нейросетевых инструментов. При этом у них часто отсутствует базовое понимание знаний, которые они получили во время обучения.

О такой тенденции рассказал управляющий партнёр агентства по подбору кадров «А2» Алексей Чихачев в интервью ВГТРК. По его словам, у этого явления пока нет общепринятого названия, а сам он называет его «дипломированной беспомощностью».

«К нам приходят аналитики, маркетологи, юристы, кандидаты с дипломами из хороших вузов. Мы просим их объяснить без искусственного интеллекта, как они пришли к такому или иному выводу. Они разводят руками. Даёшь им ноутбук с интернетом — решают эту задачу, убираешь — и не справляются», — рассказал Алексей Чихачев.

Как отметил эксперт, при правильном использовании ИИ способен заметно усилить навыки сотрудника. Однако сейчас соискатели всё чаще пытаются не усилить свои компетенции с помощью ИИ, а заменить их нейросетевыми инструментами.

Ранее ВГТРК со ссылкой на данные опроса Работа.Ру сообщало, что до 40% соискателей используют ИИ для выполнения тестовых заданий. Из-за этого многие работодатели стали проводить собеседования строго офлайн.

В сфере ИБ, как отметили участники эфира AM Live «ИИ и машинное обучение в информационной безопасности: риски, сценарии и прогнозы», использование ИИ остаётся довольно ограниченным. Это связано, в частности, с вопросами ответственности за решения, принятые с помощью ИИ.

RSS: Новости на портале Anti-Malware.ru