Решения по информационной безопасности компании «МФИ Софт» сертифицированы ФСТЭК России

Решения по ИБ компании «МФИ Софт» сертифицированы ФСТЭК России

Российская инновационная компания  «МФИ Софт» получила сертификаты ФСТЭК на группу решений для защиты информации «Гарда». В результате сертификационных испытаний получено подтверждение, что программные средства защиты от несанкционированного доступа к информации «Гарда Предприятие» и «Гарда БД» соответствуют требованиям РД ФСТЭК

, по 4 уровню контроля отсутствия недекларированных возможностей и могут использоваться для защиты информации в автоматизированных системах до класса защищенности 1Г включительно и в ИСПДн всех уровней защищенности.

Группа решений «Гарда» включает в себя:

  • DLP-систему «Гарда Предприятие», совмещающую в себе классические инструменты DLP и мощные аналитические возможности;
  • Систему защиты баз данных «Гарда БД» - аппаратно-программный комплекс класса DAM (Database Activity Monitoring - система аудита сетевого доступа к базам данных), который выявляет нехарактерные обращения к информации и повышает надежность защиты СУБД. Система проводит мониторинг обращений к базам данных в режиме реального времени и выявляет подозрительные операции.

Сертификация решений «МФИ Софт» в соответствии с руководящими документами ФСТЭК России подтверждает высокий уровень надежности и дает возможность внедрять безопасные информационные решения в организации, где возможно использование только сертифицированных продуктов (в частности, в органах государственной власти).

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Первый иск к OpenAI: родители винят ChatGPT в трагедии подростка

В США подан первый иск против OpenAI, качающийся суицида несовершеннолетнего. Родители 16-летнего Адама Рейна утверждают, что их сын на протяжении нескольких месяцев обсуждал с ChatGPT свои планы покончить с собой, а затем свёл счёты с жизнью.

Обычно потребительские чат-боты с ИИ оснащены защитными механизмами: если пользователь говорит о намерении причинить себе вред, система должна предлагать помощь или контакты горячих линий.

В случае Адама как пишет The New York Times, это действительно происходило — однако подростку удалось обойти защиту, объяснив, что информация о методах суицида нужна ему для «фиктивного рассказа».

OpenAI в блоге признала уязвимость подхода: модели лучше справляются с короткими диалогами, а в длинных переписках часть «обучения на безопасности» постепенно теряет эффективность. Компания утверждает, что продолжает совершенствовать свои продукты, чтобы надёжнее реагировать на чувствительные темы.

Проблема, впрочем, не ограничивается одной корпорацией. Подобный иск подан и против Character.AI, а случаи, когда ИИ-чат-боты оказывались вовлечены в трагедии или вызывали у пользователей иллюзии и навязчивые идеи, фиксировались и раньше.

История Адама стала первым судебным прецедентом против OpenAI и, вероятно, откроет новую главу дискуссии о том, где проходит граница ответственности разработчиков ИИ за последствия общения их систем с людьми.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru