Из-за атаки вымогателя медучреждение не могло принять пациентов

Из-за атаки вымогателя медучреждение не могло принять пациентов

Из-за атаки вымогателя медучреждение не могло принять пациентов

Вымогатель атаковал медицинский центр округа Миссури, затронута система, отвечающая за электронные медицинские карты. По словам представителя медицинского центра, машины скорой помощи, которые доставляли пациентов с инсультом и различными травмами, были переправлены в другие медицинские учреждения «по соображениям безопасности».

В настоящее время, как заявила пресс-секретарь, около 70 % пострадавших систем восстановлено. Однако строчных пациентов в тяжелом состоянии центр все еще не принимает, оказывая стационарные и амбулаторные услуги лишь менее срочным пациентам.

Медицинскому учреждению еще предстоит восстановить некоторые системы после этой кибератаки.

«Мы реорганизовали наши системы, в том числе используем бумажные документы. Система электронных медкарт находится в автономном режиме на время исследования и проведения следственных мероприятий», — говорит пресс-секретарь.

Центр работает с неназванной компанией, специализирующейся на цифровой криминалистике, их задача сейчас — расшифровать все пострадавшие данные. На данном этапе медицинское учреждение отказалось назвать тип программы-вымогателя, которая атаковала ее системы.

Также пресс-служба не пожелала уточнить, заплатил ли медицинский центр выкуп за получение ключа для расшифровки.

Это еще один тревожный звонок, служащий напоминанием о том, что кибератаки вымогателей крайне опасны, особенно опасны там, где оказывают помощь пациентам.

«Это очень яркий пример того, насколько серьезное влияние на здоровье и жизнь пациентов могут оказать различные киберинциденты», — отметила Ребекка Герольд, глава ИБ-компании Simbus. — «Отрадно наблюдать, что некоторые врачи и медсестры, которые столкнулись с этим, теперь гораздо активнее поддерживают внедрение систем для киберзащиты сетей медицинских учерждений».

ИИ учится задавать вопросы сам себе — и от этого становится умнее

Даже самые продвинутые ИИ-модели пока что во многом лишь повторяют — учатся на примерах человеческой работы или решают задачи, которые им заранее придумали люди. Но что если искусственный интеллект сможет учиться почти как человек — сам задавать себе интересные вопросы и искать на них ответы?

Похоже, это уже не фантазия. Исследователи из Университета Цинхуа, Пекинского института общего искусственного интеллекта (BIGAI) и Университета штата Пенсильвания показали, что ИИ способен осваивать рассуждение и программирование через своеобразную «игру с самим собой».

Проект получил название Absolute Zero Reasoner (AZR). Его идея проста и изящна одновременно. Сначала языковая модель сама придумывает задачи по программированию на Python — достаточно сложные, но решаемые. Затем она же пытается их решить, после чего проверяет себя самым честным способом: запускает код.

 

Если решение сработало — отлично. Если нет — ошибка становится сигналом для обучения. На основе успехов и провалов система дообучает исходную модель, постепенно улучшая и умение формулировать задачи, и способность их решать.

Исследователи протестировали подход на открытой языковой модели Qwen с 7 и 14 миллиардами параметров. Оказалось, что такой «самообучающийся» ИИ заметно улучшает навыки программирования и логического мышления — и в некоторых тестах даже обгоняет модели, обученные на вручную отобранных человеческих данных.

 

По словам аспиранта Университета Цинхуа Эндрю Чжао, одного из авторов идеи, подход напоминает реальный процесс обучения человека:

«Сначала ты копируешь родителей и учителей, но потом начинаешь задавать собственные вопросы. И в какой-то момент можешь превзойти тех, кто тебя учил».

Идея «самоигры» для ИИ обсуждается не первый год — ещё раньше её развивали такие исследователи, как Юрген Шмидхубер и Пьер-Ив Удейер. Но в Absolute Zero особенно интересно то, как растёт сложность задач: чем умнее становится модель, тем более сложные вопросы она начинает ставить перед собой.

«Уровень сложности растёт вместе с возможностями модели», — отмечает исследователь BIGAI Цзилун Чжэн.

Сейчас подход работает только там, где результат можно легко проверить — в программировании и математике. Но в будущем его хотят применить и к более «жизненным» задачам: работе ИИ-агентов в браузере, офисных сценариях или автоматизации процессов. В таких случаях модель могла бы сама оценивать, правильно ли агент действует.

«В теории это может стать путём к суперинтеллекту», — признаёт Чжэн.

RSS: Новости на портале Anti-Malware.ru