19% детских аккаунтов в соцсетях подвергаются взлому

19% детских аккаунтов в соцсетях подвергаются взлому

19% детских аккаунтов в соцсетях подвергаются взлому

Больше половины детей уже сталкивались с угрозами в соцсетях. Это выяснила компания ESET, опросив 1200 родителей в России. Респонденты ответили на вопрос «С какими интернет-угрозами сталкивались в соцсетях ваши дети или младшие братья и сестры?».

Выяснилось, что самая распространенная проблема – взлом аккаунта. 19% детей уже пострадали от «угонщиков», лишившись доступа к своей странице на время.

11% респондентов жаловались, что дети добавляют в друзья странных пользователей: поддельные аккаунты, спамеров и пр. Фейковые страницы могут быть как безобидным развлечением одноклассников, так и «рабочим инструментом» злоумышленников. 

Еще 10% опрошенных лишились денег из-за детской невнимательности в соцсетях: маленькие пользователи по ошибке подписывались на платные игры и дорогие сервисы. 

Некоторые пользователи в комментариях к опросу жаловались на спам, который дети получают в соцсетях. 6% опрошенных рассказали, что злоумышленники присылали вредоносные ссылки, а 3% респондентов сообщили, что их дети вступали в переписку с мошенниками. 

Немало респондентов упомянули еще одну угрозу – кибербуллинг. С проблемой сетевой травли знакомы 3% детей. 

Меньше трети опрошенных (всего 29%) сообщили, что в их семье дети никогда не сталкивались с проблемами в соцсетях. 

19% респондентов назвали в комментариях другие проблемы соцсетей: доступность «взрослого» видео, рассылку спама, поиск и установку детьми фальшивых модов для компьютерных игр, а также «все перечисленные угрозы».

ESET напоминает базовые меры безопасности в соцсетях: сложные неповторяющиеся пароли, ограничение доступа к профилю при помощи настроек конфиденциальности, минимум личной информации, отказ от общения с подозрительными незнакомцами, комплексное антивирусное ПО с функцией «Антифишинг». 

Регулирование ИИ в России смягчили после критики бизнеса

Законопроект о регулировании искусственного интеллекта, подготовленный Минцифры, заметно скорректировали с учётом замечаний бизнеса. Требования к национальным и суверенным моделям стали более сбалансированными, изменились нормы по маркировке ИИ-контента, а часть спорных положений убрали из текста документа.

Обновлённый текст законопроекта оказался в распоряжении «Российской газеты». Как отметили источники издания, близкие к работе над документом, разработчики постарались максимально учесть замечания, высказанные бизнесом.

Ряд положений прежней версии документа участники рынка называли фактически невыполнимыми. Кроме того, по оценке более чем 150 экспертов, соблюдение ключевых требований могло привести к удорожанию ИИ-проектов до 40%.

«Видим в законопроекте потенциал стать полезным инструментом для развития и применения ИИ. Регулирующие органы открыты к диалогу с отраслью — это позволяет дорабатывать проект документа, выстраивая долгосрочные правила с учётом баланса интересов заинтересованных сторон. Рассчитываем, что при дальнейшей работе этот баланс будет сохранён», — прокомментировали результаты корректировки в пресс-службе Яндекса.

Прежде всего изменились требования к национальным и суверенным моделям ИИ. В первоначальной версии законопроекта речь шла о полной локализации. В обновлённой редакции достаточно, чтобы разработчик был российским юридическим лицом и самостоятельно определял и изменял существенные характеристики модели.

«Критерии для отечественных ИИ-моделей не должны становиться дополнительными ограничениями для разработчиков, особенно с учётом высокой международной конкуренции и наличия открытых моделей на рынке. Именно на это было направлено большинство замечаний бизнеса, которые учли в ходе работы над законопроектом», — прокомментировали корректировку в Ассоциации больших данных.

Для использования ИИ-модели в госструктурах больше не требуется её включение в реестр доверенных моделей. Это требование также вызывало опасения у участников рынка: они считали, что реестр может стать «бутылочным горлышком» и затормозить внедрение ИИ. Теперь сфера применения доверенных моделей ограничена только объектами критической информационной инфраструктуры.

Требование уведомлять пользователей об использовании ИИ-сервисов сохранили только для госструктур. На коммерческий сектор оно больше не распространяется.

Из текста также убрали норму, которая обязывала сервисы с аудиторией более 500 тыс. человек хранить информацию о пользователях в течение трёх лет. Кроме того, сняты ограничения на трансграничную передачу данных ИИ. Ранее многие участники рынка расценивали это требование как фактический запрет на использование зарубежных ИИ-моделей.

Сняты и ограничения на использование открытых данных для обучения нейросетей. В прежних редакциях соответствующие формулировки были недостаточно чёткими.

Наконец, изменились требования к маркировке контента. Она должна быть машиночитаемой, но делать её различимой для людей не обязательно.

«Международная практика двигается к созданию стандартов машиночитаемой маркировки такого контента, но до определения универсальных правил ещё достаточно далеко. Поэтому случаи установления машиночитаемой маркировки ИИ-контента будут дополнительно определены правительством», — отметил один из источников издания.

RSS: Новости на портале Anti-Malware.ru