ИИ научился вычислять потенциальных керченских стрелков

ИИ научился вычислять потенциальных керченских стрелков

ИИ научился вычислять потенциальных керченских стрелков

Разработки российских специалистов уже сейчас могут выявлять потенциально опасных для общества лиц по их поведению в интернете, заявляет директор по инновациям IT-кластера Физтехпарк в Долгопрудном Сергей Ручьев.

В частности, такие задачи может решать нейросеть, разрабатываемая в содружестве с экспертами платформы “Умная страна” на базе Центра Нейроинноваций. Нейросеть уже научилась не просто отслеживать опасный контент в интернете и соцсетях, но и людей, которые попадают под его влияние.

Подобные заключения делаются на основе целого ряда анализируемых параметров, таких как вовлеченность, просмотры определенного контента и время проводимое за этим, перепосты, комментарии и т.п.

Кроме того, базовый алгоритм унифицированного массива данных может анализировать и показатель уровня жизнестойкости подростка (hardiness) - ключевой параметр определения потенциальных серийных убийц, садистов и самоубийц.

Низкие и критически низкие показатели жизнестойкости до сих пор были для клиницистов и высокопрофессиональных психологов сигналом к опасному и неизбежному эмоциональному выпаду (взрыву).

Сложность определения предельно низких колебаний hardiness в скрытом характере переживаний, как это было с 18-летним Владиславом Росляковым, совершившим массовое убийство учащихся Керченского политехнического колледжа.

«В случае «керченского стрелка», он, несомненно, был бы выявлен и определенным образом маркирован нейросетью. Но на сегодняшний день проблема заключается в том, что подобными системами пока  никто из серьезных структур не интересуется», — объясняет Сергей Ручьев.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Роботы-официанты и курьеры оказались под угрозой удалённого взлома

Исследователь под ником BobDaHacker обнаружил серьёзную брешь в API управления роботами Pudu Robotics. Ошибка была настолько простой, что даже человек с минимальными техническими знаниями мог «угнать» любого робота — от официанта BellaBot в ресторане до робота-доставщика лекарств в больнице.

Проблема заключалась в том, что API требовал токены, но при этом не проверял права пользователя и «владение» устройством.

В итоге можно было смотреть историю вызовов, менять настройки, перенаправлять задания или даже заставить роботов крутиться по кругу.

 

В ресторане это выглядело бы как фарс: ваш ужин вдруг приезжает на соседний столик, все заказы массово отменяются в час пик, а роботы начинают кататься по залу и включать музыку.

Но в больнице или офисе последствия могли быть куда серьёзнее — от срыва доставки лекарств до кражи документов с охраняемых этажей.

BobDaHacker сообщил о проблеме ещё 12 августа, но Pudu Robotics игнорировала обращения почти три недели. Лишь после того как исследователь напрямую предупредил крупных клиентов вроде японских ресторанных сетей Skylark и Zensho, компания наконец «обнаружила» уязвимость и выпустила заплатку.

Реакция производителя вызвала не меньше вопросов, чем сама дыра. У Pudu не оказалось ни выделенного контакта для безопасности, ни прозрачного процесса обработки сообщений о проблемах. Ответ пришёл в виде шаблонного письма, где даже не удалили плейсхолдер «[Your Email Address]».

История показывает: красивые слова о «приверженности безопасности» на сайте мало что значат без реальных мер. Когда роботы обслуживают рестораны, отели, школы и особенно больницы, сбои в их работе могут обернуться не только испорченным ужином, но и угрозой для здоровья и безопасности.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru