К 2031 году убытки от программ-вымогателей составят свыше $265 млрд

К 2031 году убытки от программ-вымогателей составят свыше $265 млрд

К 2031 году убытки от программ-вымогателей составят свыше $265 млрд

В ближайшие десять лет убытки от кибератак программ-вымогателей достигнуть цифры 265 миллиардов долларов. К такому выводу пришли исследователи из компании Ventures, представившие свои прогнозы в новом отчёте.

Уже сегодня вымогатели (шифровальщики, ransomware) — наиболее опасный с точки зрения урона вид вредоносных программ. Что ещё хуже — это ещё и самый популярный класс вредоносов. Теперь организации не только теряют доступ к файлам, но ещё и рискуют публикацией конфиденциальной информации на форуме киберпреступников.

Одними из наиболее опасных группировок, проводящих атаки с использованием программ-вымогателей, можно назвать Maze, Nefilim, Clop и DarkSide. Последняя, например, провела кампанию против Colonial Pipeline.

Учитывая опасность ransomware, специалисты компании Ventures решили просчитать, насколько вырастут убытки от подобных атак. В результате эксперты пришли к выводу, что сумма ущерба от действий программ-вымогателей возрастёт до $265 миллиаров к 2031 году.

Исследователи учитывали, что операторы шифровальщиков атакуют как крупные корпорации, так и обычных пользователей. Причём очередная атака этого класса вредоносных программ происходит каждые несколько секунд.

А пока мы имеем следующую картину: в этом году ожидается, что ransomware приведут к потерям в размере 20 миллионов долларов. С 2015 года эта сумма выросла в 57 раз.

Интимные записи с умных очков Meta попадают на проверку модераторам в Кении

Пользователи умных очков Meta (корпорация признана экстремистской и запрещена в России) в Европе могут даже не догадываться, что их видео (в том числе весьма личного характера) просматривают модераторы за пределами ЕС. Речь идёт об очках Ray-Ban Meta и других моделях с ИИ-функциями.

Об этом сообщает шведское издание Svenska Dagbladet. Устройства позволяют записывать видео «от первого лица» и задавать вопросы ассистенту Meta AI. Но чтобы пользоваться ИИ, пользователь должен согласиться с условиями сервиса, а они допускают проверку собранных данных людьми.

По данным журналистов, часть такой «разметки» данных выполняют сотрудники в Кении. Работники, занимающиеся аннотацией контента для обучения ИИ, рассказали, что видели в материалах пользователей обнажённых людей, сцены интимного характера, а также кадры из ванных комнат и туалетов. Кроме того, в записях встречались номера банковских карт и другая финансовая информация.

Meta использует такие проверки для обучения своих языковых и визуальных моделей: людям нужно вручную помечать изображения и видео, чтобы ИИ лучше понимал контекст.

Однако подобная практика может вызывать вопросы с точки зрения европейского законодательства о защите данных (GDPR), которое требует прозрачности в обработке персональной информации.

Как отмечает издание, разобраться в том, как именно обрабатываются данные с носимых устройств, оказалось не так просто, журналистам пришлось специально искать соответствующую политику конфиденциальности.

В ней говорится, что контент может проверяться как автоматическими системами, так и людьми. При этом пользователям рекомендуют самим не делиться конфиденциальной информацией.

Meta напрямую комментировать публикацию не стала, ограничившись заявлением, что при использовании функций Live AI данные обрабатываются в соответствии с условиями сервиса и политикой конфиденциальности.

История в очередной раз поднимает вопрос: где проходит граница между удобством ИИ-функций и приватностью. Особенно когда камера и ассистент буквально находятся у пользователя на лице.

RSS: Новости на портале Anti-Malware.ru