1,7 млн долларов за данные 500 человек

1,7 млн долларов за данные 500 человек

Украденный USB-накопитель с персданными граждан обойдется Департаменту здравоохранения Аляски (Alaska DHSS) в 1,7 млн долларов. Это один из самых крупных штрафов за нарушение закона HIPAA. Спустя почти 3 года подошли к концу разбирательства по делу об украденном флеш-накопителе из Департамента здравоохранения Аляски. Суд обязал госорган штата выплатить 1,7 млн долларов за компрометацию личной информации граждан и нарушение закона HIPAA.

Аналитический центр InfoWatch напоминает, что инцидент произошел в октябре 2009 года. Съемный жесткий диск, на котором хранились данные 501 гражданина штата, в том числе: номера социального страхования, медицинские сведения, адреса, телефоны, информация по социальным выплатам, - был похищен из автомобиля системного администратора Департамента. Расследование началось только спустя несколько месяцев, а судебные разбирательства растянулись почти на 3 года. USB-накопитель найти так и не удалось. Несмотря на небольшое количество скомпрометированных записей, Alaska DHSS выплатит почти 2 млн долларов за неработающую политику безопасности организации.

Это не единственный случай, когда нарушение закона HIPAA обходится организации в кругленькую сумму. Так, в 2011 году Клиническая больница штата Массачусетс (Massachusetts General Hospital) выплатила 1 млн долларов за компрометацию медицинских документов 192 пациентов.

Комментирует главный аналитик InfoWatch Николай Федотов: «Наложение штрафа на граждан, должностных лиц и коммерческие предприятия - эффективно. А на бюджетное учреждение — большой вопрос.

Государственные деньги будут переложены из одного кармана в другой. И кому от этого станет хуже? Кто почувствует это воспитательное воздействие? Тем более, через 3 года после инцидента. Следует напомнить, что средний срок работы ИТ-специалиста на одном месте - два года. Вполне может оказаться, что к моменту уплаты штрафа в штате учреждение не осталось ни одного работника, связанного с обсуждаемым инцидентом».

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ИИ пишет коды, как талантливый джуниор, и это подрывает безопасность софта

Как выяснили израильские специалисты, сгенерированные ИИ коды по плотности уязвимостей сравнимы с рукописными творениями, однако содержат структурные изъяны, способные повысить риски для введенных в эксплуатацию систем.

В рамках исследования в OX Security изучили содержимое более 300 репозиториев софта, в том числе 50 проектов, созданных с помощью GitHub Copilot, Cursor или Claude.

Многие сгенерированные ИИ коды выглядели чистыми и функциональными: казалось, умный помощник повел себя как одаренный начинающий программист, к тому же обладающий феноменальным быстродействием.

К сожалению, его участие свело на нет аудит кода, отладку и командный надзор, с которыми современные безопасники и так плохо справляются из-за возросшей нагрузки. Такие корпоративные службы, по данным экспертов, в среднем одновременно обрабатывают по полмиллиона алертов, оценивая степень важности и принимая дополнительные меры защиты.

Применение ИИ ускорило темпы создания софта, однако такие разработчики зачастую развертывают свои программы, не имея представления о защите хранимых данных и доступа, в том числе через интернет. Справедливости ради стоит отметить, что в подобную ловушку может попасть и профессиональный кодер.

«Функциональные приложения теперь можно выкатывать быстрее, но их не успевают тщательно проверять, — комментирует Эяль Пац (Eyal Paz), вице-президент OX Security по исследовательской работе. — Уязвимые системы вводятся в эксплуатацию с беспрецедентной скоростью, однако надлежащий аудит кода невозможно масштабировать до такой степени, чтобы он соответствовал новым темпам».

Суммарно эксперты выявили десять потенциально опасных недостатков, которые часто встречаются в творениях ИИ-помощников программиста:

  • множественные, излишние комментарии в коде, затрудняющие проверку (в 90-100% случаев);
  • фиксация на общепринятых правилах программирования, препятствующая созданию более эффективных и новаторских решений (80–90%);
  • создание одноразовых кодов, без возможности перепрофилирования под иные задачи (80–90%);
  • исключение рефакторинга (80–90%);
  • повторяющиеся баги, которые потом приходится многократно фиксить, из-за невозможности многократного использования кода (70-80%);
  • отсутствие осведомленности о специфике среды развертывания, приводящее к отказу кода, исправно функционирующего на стадии разработки (60-70%);
  • возврат к монолитным, сильно связанным архитектурам вместо уже привычных, удобных в сопровождении микросервисов (40-50%);
  • фейковое покрытие тестами всех интересующих значений — вместо оценки реальной логики ИИ выдает бессмысленные метрики, создающие ложное чувство уверенности в результатах (40-50%);
  • создание кодов с нуля вместо добавления обкатанных библиотек и SDK, что повышает риски привнесения ошибок (40-50%);
  • добавление логики для порожденных галлюцинациями сценариев, повышающее расход ресурсов и снижающее производительность (20-30%).

Поскольку традиционные методы обеспечения безопасности кодов не работают при использовании ИИ, авторы исследования (доступ к полнотекстовому отчету требует регистрации) рекомендуют в таких случаях принять следующие меры:

  • отказаться от аудита кодов и вместо этого привнести аспект безопасности в процесс разработки (подход Secure by Design);
  • перераспределить роли и зоны ответственности — ИИ работает над реализацией, профессионалы концентрируют внимание на архитектуре, контролируют соблюдение требований безопасности, принимают решения по вопросам, требующим опыта и знания контекста;
  • заставить ИИ блюсти интересы безопасности — вставлять соответствующие инструкции в промпты, вводить архитектурные ограничения, интегрировать автоматически выполняемые правила в рабочие процессы, чтобы не пришлось устранять огрехи пост фактум;
  • применять ИИ-средства обеспечения безопасности, сравнимые по быстродействию с такими же помощниками по разработке.

По прогнозу «Монк Дидижтал Лаб», расширение использования генеративного ИИ в российских разработках к концу текущего года приведет к увеличению количества сбоев ИТ-инфраструктуры на 15-20% по сравнению с уровнем 2023-го.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru