Хакеры за 10 минут превратили домашнего робота в машину для убийства

Хакеры за 10 минут превратили домашнего робота в машину для убийства

Хакеры за 10 минут превратили домашнего робота в машину для убийства

Еще весной 2017 года специалисты компании IOActive представили интересный отчет, посвященный проблемам безопасности современных промышленных и «домашних» роботов. Тогда исследователи почти без подробностей предупреждали, что взломать устройства компаний SoftBank Robotics, UBTECH Robotics, ROBOTIS, Universal Robots, Rethink Robotics и Asratec Corp слишком легко.

Это может привести к самым печальным последствиям. Сообщалось, что весной специалисты обнаружили более 50 всевозможных уязвимостей, проанализировав работу мобильных приложений, ПО и прошивок роботов.

Теперь, спустя полгода, когда большинство производителей уже выпустили патчи для найденных багов, исследователи наконец обнародовали подробности проделанной ими работы, пишет xakep.ru.

Аналитики IOActive пишут, что серьезные проблемы своим владельцам могут создать взломанные КоБоты (cobot, сокращение от collaborative robot), то есть роботы предназначенные для физического взаимодействия с людьми в совместной рабочей среде.

Такое устройство обладает немалым весом, силой и скоростью, так что в теории «взбунтовавшийся» промышленный робот может представлять угрозу для работающих рядом с ним людей. Но в реальности хакеры вряд ли станут атаковать персонал фабрик. Скорее злоумышленники перепрограммируют устройство, к примеру, чтобы оно умышленно портило продукты, с которыми работает. В теории, повредив роботов, атакующие могут попросту парализовать работу отдельного конвейера или всего производства, что повлечет за собой огромные убытки для предприятия.

К примеру, проникнув в сеть предприятия, злоумышленники без труда смогут взломать устройства компании Universal Robots, которые подвержены таким простейшим проблемам, как переполнения буфера в стеке. Для доступа к системе, контролирующей движения робота, не требуется аутентификация, а SSH ключи используются статические, что резко повышает риск атак типа man-in-the-middle.

Не меньше проблем было обнаружено и среди «домашних» роботов, к примеру, Alpha 2 производства компании UBTech. Хотя в отличие от тяжелых индустриальных решений такой малыш скорее рассмешит, чем напугает свою жертву, эксперты IOActive предупреждают, что даже эта неуклюжая «игрушка» может причинить физический вред детям или животным.

Плюс ко всему, Alpha 2 и подобные ему роботы SoftBank Robotics Pepper и NAO оснащаются микрофонами и камерами, так что атакующий может превратить устройство в своего верного шпиона. 

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI вводит проверку возраста в ChatGPT для защиты подростков

OpenAI готовит серьёзные изменения в работе ChatGPT — компания собирается ввести проверку возраста. Новые правила затронут всех пользователей, но в первую очередь направлены на защиту подростков. Причина в том, что ChatGPT всё чаще используют для откровенных разговоров на личные темы, включая психическое здоровье.

В компании напоминают трагический случай: весной подросток несколько часов обсуждал с чат-ботом тему суицида, а затем покончил с собой. Семья подала в суд, и OpenAI решила усилить меры безопасности.

Также вспоминается другой эпизод — в Гринвиче: ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

После этого в OpenAI заявили, что будут направлять «чувствительные» диалоги пользователей в более продуманные модели вроде GPT-5 и в ближайший месяц запустят родительский контроль

Как это будет работать

По словам Сэма Альтмана, CEO OpenAI, компания внедряет систему предсказания возраста. Алгоритм будет анализировать, как человек пользуется ChatGPT, и пытаться определить, подросток он или взрослый. Если останутся сомнения, пользователю автоматически назначат «подростковый режим». В некоторых странах и ситуациях может потребоваться подтверждение возраста с помощью документа.

Для подростков будут действовать жёсткие ограничения. Например, ChatGPT перестанет отвечать флиртом даже по запросу, а обсуждение суицида станет полностью запрещено. В случае выявления суицидальных мыслей компания оставляет за собой право обратиться к родителям или даже к властям, если родители недоступны.

Что это значит для взрослых

Взрослым пользователям, возможно, придётся смириться с тем, что их свобода частично ограничится — например, придётся подтверждать возраст. Альтман называет это «разумной ценой» ради безопасности подростков.

Почему это важно

ChatGPT и другие чат-боты всё чаще становятся собеседниками «для серьёзных разговоров» — от вопросов про здоровье и право до поиска поддержки в сложных ситуациях. Но, как отмечают исследователи из Стэнфорда, ИИ-помощники пока не справляются с ролью психотерапевта: они могут недооценить психическое состояние или дать неподходящий совет.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru