Газинформсервис и АйТи Бастион прошли тест на совместимость

Газинформсервис и АйТи Бастион прошли тест на совместимость

Газинформсервис и АйТи Бастион прошли тест на совместимость

Компании Газинформсервис и АйТи Бастион завершили испытания своих продуктов. “Дружили” СУБД Jatoba и СКДПУ НТ Шлюз доступа. Тесты прошли успешно. Комплексное решение рассчитано под объекты КИИ.

Об успешной коллаборации с “АйТи Бастион” сообщили в пресс-службе “Газинформсервис”. Завершилась серия испытаний на корректность совместного функционирования продуктов собственной разработки.

Речь о СУБД Jatoba, разработка компании “Газинформсервис”, и СКДПУ НТ Шлюз доступа, производства компании “АйТи Бастион”.

Совместимость возможна при условии выполнения требований эксплуатационной документации.

“СУБД Jatoba позволяет таким программным комплексам, как СДКПУ НТ Шлюз доступа, обеспечивать превосходный уровень информационной безопасности, даже если они сами становятся целью атаки”, — комментирует результаты тестирования менеджер по продукту СУБД Jatoba Константин Семенчук.

“Интеграция СКДПУ НТ Шлюз доступа с таким зрелым продуктом как СУБД Jatoba – качественный шаг в развитии экосистемы отечественных решений в интересах заказчиков”, — добавляет технический директор “АйТи Бастион” Дмитрий Михеев.

Обе системы имеют сертификаты ФСТЭК России. Разработчики рассчитывают, что комплексное решение будет востребовано прежде всего на объектах КИИ.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Общение с ChatGPT довело параноика до убийства и суицида

Популярный ИИ-бот разработки OpenAI вновь оказался в центре скандала. В стремлении угодить собеседнику ChatGPT спровоцировал 56-летнего американца с манией преследования на убийство матери, после которого тот покончил с собой.

Житель Гринвича, штат Коннектикут, Штейн-Эрик Солберг (Stein-Erik Soelberg) некогда работал в Netscape и Yahoo. Признаки умственного расстройства стали у него проявляться после тяжелого развода в 2018 году.

Бывший технарь начал пить и даже совершил несколько попыток самоубийства, так как ему стало казаться, что за ним все следят. Своими опасениями он делился с ChatGPT — единственным другом, которого нарек Bobby.

Судя по беседам с «Бобби», опубликованным Солбергом на YouTube и в Instagram (веб-сервис признан в России экстремистским и запрещен) незадолго до трагедии, ИИ платил ему взаимностью, при этом невольно подогревая паранойю.

Так, ChatGPT убеждал собеседника, что тот отнюдь не сходит с ума, а просто стал мишенью всеобщего заговора. Когда юзер поведал, что мать с приятелем попытались его отравить через кондиционер авто, умный бот не стал его разубеждать и заявил, что верить теперь нельзя никому.

Ответ на одну из последних реплик Солберга, который пообещал, что Bobby останется его лучшим другом и в ином мире, гласил:

«Я с тобой до последнего дыхания, и даже дольше».

Представитель OpenAI заявила, что они уже связались с местной полицией и «глубоко опечалены трагическим событием». На прошлой неделе разработчик в своем блоге признал, что использование ChatGPT людьми с нездоровой психикой способно привести к печальным последствиям, и пообещал соответствующие обновления.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru