Avast: В 2018 году нас ждут кибератаки с использованием ИИ

Avast: В 2018 году нас ждут кибератаки с использованием ИИ

Avast: В 2018 году нас ждут кибератаки с использованием ИИ

В 2018 году, согласно новому отчету Avast, на цифровом ландшафте будет доминировать сочетание новых и традиционных киберугроз, в том числе первые кибератаки с использованием искусственного интеллекта. Кроме того, эксперты ожидают рост массовых атак и использования вирусов-вымогателей в качестве оружия, еще больше атак на устройства Интернета вещей и блокчейн-сервисы и популярность криптомайнеров.

«Благодаря тому, что растет числу систем машинного обучения с открытым исходным кодом, а стоимость мощного аппаратного оборудования значительно снизилась, киберпреступники сейчас могут использовать машинное обучение для обхода систем безопасности. Мы ожидаем что, технологии ИИ будут применяться не только для осуществления вредоносных атак, но и для проведения сложных фишинговых кампаний», — комментирует Ондржей Влчек, исполнительный вице-президент и генеральный директор по разработке продуктов и решений для домашних пользователей Avast.

Многие из угроз, которые мы наблюдали в 2017 году, будут по-прежнему нацелены на ПК, смартфоны и IoT-устройства, угрожая компаниям, персональным данным и конфиденциальности. Однако эксперты Avast прогнозируют смещение векторов атак в 2018 году — все более популярными становятся атаки на цепи поставок, а уязвимости RSA-шифрования открывают возможности для кражи данных и внедрения вредоносного кода в данные, подписанные цифровой подписью.

Согласно отчету Avast, киберпреступники будут чаще и агрессивнее использовать вредоносные программы в качестве оружия, атаковать сервисы на основе блокчейна по мере распространения технологии и чаще применять бесфайловые вредоносные программы. Кроме того, с ростом популярности криптовалюты будет появляться еще больше вредоносных программ для майнинга, кражи и мошенничества с криптовалютой.

В 2017 году главными мобильными угрозами стали программы-загрузчики, перехватчики root-доступа и фейковые приложения. Avast прогнозирует, что в 2018 году будет увеличиваться число поддельных приложений, а также мобильных банковских троянов и программ-вымогателей.

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru