ИнфоТеКС выпустила ViPNet EDI Flow для ПлЦР и работы с УЦ

ИнфоТеКС выпустила ViPNet EDI Flow для ПлЦР и работы с УЦ

ИнфоТеКС выпустила ViPNet EDI Flow для ПлЦР и работы с УЦ

Компания «ИнфоТеКС» выпустила первую версию программного комплекса ViPNet EDI Flow 1.0. Это управляющий компонент системы ViPNet САВС, который автоматизирует процессы выпуска сертификатов безопасности и электронной подписи (ЭП) для пользователей платформы цифрового рубля (ПлЦР).

ViPNet EDI Flow взаимодействует с другим компонентом системы — ViPNet EDI Soap Gate 3 — и удостоверяющими центрами.

С его помощью можно получать данные пользователей из ЕСИА, обрабатывать запросы на выпуск сертификатов от банковских информационных систем и сверять данные запросов с тем, что есть в ЕСИА.

Также комплекс позволяет автоматизировать выпуск сертификатов в удостоверяющих центрах ViPNet УЦ 4 и КриптоПро 2.0, а ещё получать списки отозванных сертификатов (CRL) от этих УЦ.

Напомним, в начале месяца мы писали, что ViPNet Coordinator IG 5 от «ИнфоТеКС» получил сертификат ФСТЭК России. Чуть ранее компания выпустила новую версию ViPNet SafeBoot 3.2 (исполнение 2). Главное нововведение — возможность встраивания в ARM-платформы.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

OpenAI будет передавать опасные чаты правоохранительным органам

Истории о том, как диалоги с чат-ботами заканчиваются психозами, госпитализацией или даже суицидом, уже больше года появляются в СМИ и соцсетях. На этом фоне OpenAI долгое время ограничивалась лишь общими обещаниями «улучшить защиту».

Теперь ситуация изменилась: в блоге OpenAI признала свои недоработки и сообщила, что начала сканировать пользовательские чаты на предмет опасного контента.

Если алгоритм «чует неладное», диалог попадает к небольшой команде сотрудников. А в случаях, когда модераторы видят «угрозу серьёзного физического вреда другим людям», компания может передать информацию в правоохранительные органы.

Интересный момент: о самоубийствах пока в полицию не сообщают — OpenAI объясняет это уважением к приватности и «уникально личному характеру общения с ChatGPT». Но компания открыто признаёт: да, мы читаем подозрительные чаты, а иногда делимся ими с властями.

Это, мягко говоря, выглядит противоречиво. С одной стороны, OpenAI отклоняет запросы издателей (включая New York Times), которые требуют доступ к логам переписок ради судебных разбирательств — и делает это под лозунгом защиты приватности пользователей. С другой — сама же может передавать чаты полиции.

Добавим к этому, что ещё недавно CEO Сэм Альтман честно говорил: разговор с ChatGPT как с психотерапевтом или юристом не равноценен конфиденциальной беседе с реальным специалистом. И если суды обяжут, то переписка пользователей вполне может оказаться в материалах дела.

В итоге получается странная картина: OpenAI вроде бы пытается закрыть дыры и снизить риски трагедий, но делает это так, что доверия к сервису у людей становится ещё меньше.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru