Silent Crow слила якобы медкарты пилотов и сотрудников Аэрофлота

Silent Crow слила якобы медкарты пилотов и сотрудников Аэрофлота

Silent Crow слила якобы медкарты пилотов и сотрудников Аэрофлота

Хактивистская группировка Silent Crow выложила в сеть первую партию данных, которые, по их утверждению, были похищены у «Аэрофлота» (MOEX: AFLT). На этот раз речь идёт о медицинских картах пилотов и других сотрудников авиакомпании.

В опубликованных документах — заключения врачебно-летных комиссий, личные данные, диагнозы и информация о допуске к управлению самолётами.

По словам злоумышленников, там есть фамилии, даты рождения, рост, вес, история болезней и результаты обследований.

Напомним, 28 июля «Аэрофлот» сообщил о сбое в работе своих ИТ-систем, что вызвало перебои в цифровых сервисах. Тогда предупреждали о возможных задержках и отменах рейсов, а пассажиров просили следить за актуальной информацией о вылетах.

В тот же день Silent Crow взяла на себя ответственность за масштабную кибератаку. Группировка заявила, что получила доступ к 122 корпоративным системам авиакомпании, включая ключевые внутренние сервисы, а также к данным сотрудников и клиентов.

По оценкам, из-за атаки 28 июля «Аэрофлот» мог потерять не менее 250 млн рублей только на отменённых рейсах за один день. И это без учёта расходов на восстановление ИТ-инфраструктуры.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

ФСТЭК России готовит стандарт безопасной разработки систем ИИ

Выступая на BIS Summit 2025, первый замдиректора ФСТЭК России Виталий Лютиков сообщил, что регулятор планирует до конца года вынести на обсуждение проект стандарта привнесения аспекта безопасности в разработку ИИ-систем.

Новое методическое руководство будет представлено как дополнение к действующим нормативам по безопасной разработке программного обеспечения, в том числе ГОСТ Р 56939-2024.

У ИИ-моделей есть своя специфика с точки зрения ИБ — склонность к галлюцинациям, риск утечки конфиденциальных данных и злоупотреблений через манипуляцию промптами, возможность вмешательства в алгоритмы машинного обучения, и ее следует учитывать при создании подобных инструментов.

Приказ ФСТЭК России № 117 от 11.04.2025 об усилении защиты данных в ГИС (заработает с 1 марта будущего года) содержит раздел об ИИ-технологиях, однако изложенные в нем требования по безопасности ограничены эксплуатацией.

Вместе с тем, как и в случае с обычным софтом, не менее важно обезопасить ИИ-системы еще на стадии разработки (такой подход известен как security by design). Новая инициатива регулятора призвана восполнить этот пробел.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru