Skybox Security прекратила работу: компания закрыта, активы проданы Tufin

Skybox Security прекратила работу: компания закрыта, активы проданы Tufin

Skybox Security прекратила работу: компания закрыта, активы проданы Tufin

Компания Skybox Security, специализировавшаяся на кибербезопасности, внезапно прекратила свою деятельность и уволила всех сотрудников в Израиле и США. Строго перед этим бизнес-активы и технологии Skybox продали её конкуренту — компании Tufin.

Решение Skybox Security — это комплексная платформа для управления сетевой безопасностью с фокусом на видимости, анализе и управлении рисками.

Согласно сообщениям из штаб-квартиры Skybox в Израиле, генеральный директор Мордехай Розен объявил о закрытии и ликвидации компании в конце февраля. На тот момент это коснулось около 300 сотрудников: 100 в Израиле и 200 в США.

Официальный сайт Skybox Security перестал работать, а представители компании избегают комментировать ситуацию.

За время своего существования Skybox Security получила значительную финансовую поддержку. По разным данным, общий объём привлечённых инвестиций составил около $335 млн, включая $50 млн, полученные еще в феврале 2023 года.

Компания Tufin намерена обеспечить поддержку пользователей продуктов Skybox. Генеральный директор Tufin Рэй Бранкато подчеркнул, что его компания финансово стабильна и готова помочь клиентам Skybox в переходный период.

«24 февраля 2025 года Skybox приняла трудное решение о немедленном закрытии, — заявил Бранкато. — Мы понимаем, что это непростое время для многих, и хотим заверить клиентов Skybox: Tufin поможет им в этом процессе».

Специалисты уже запустили соответствующую программу «Tufin ExpressPath for Skybox Customers», которая предлагает необходимые инструменты для безопасного перехода без сбоев в работе.

«Основная особенность решений Skybox Security — это приоритизация устранения уязвимостей через потенциально возможные опасные маршруты кибератак. Для крупных компаний это особенно важно, когда невозможно устранить все и надо правильно и быстро расставить приоритеты, — комментирует Анастасия Важенина, руководитель практики развития метапродуктов Positive Technologies. — Это позволяет сосредоточиться на устранении недочетов, которые представляют наибольший риск для ключевых активов. В основе MaxPatrol Carbon похожий подход.  Однако метапродукт учитывает при построении маршрутов большую вариативность действий хакера при атаке и более обширный контекст инфраструктуры: сетевую достижимость, уязвимости, ошибки конфигураций, избыточные привилегии на пути атаки. Это позволяет точнее и быстрее находить больше различных потенциальных маршрутов атак на целевые системы, оценивать уровень их опасности, в т. ч. время реализации атаки, и сформировать полный список задач для нейтрализации этих маршрутов».

ChatGPT начнёт угадывать возраст пользователей и ограничивать контент

OpenAI начинает по-новому определять возраст пользователей ChatGPT, без прямого вопроса «сколько вам лет». Компания постепенно внедряет модель прогнозирования возраста, которая анализирует поведение в чате и на основе этого решает, считать пользователя взрослым или подростком.

Зачем всё это? Основная цель — усилить защиту несовершеннолетних. OpenAI не хочет, чтобы пользователи младше 18 лет без согласия родителей сталкивались с контентом для взрослых, потенциально опасными темами или материалами на грани закона.

Модель не запрашивает дату рождения напрямую. Вместо этого она смотрит на косвенные признаки: с каких тем начинается общение с ChatGPT, как пользователь формулирует запросы и даже в какое время суток он чаще всего заходит в сервис. На основе этого система делает предположение — перед ней взрослый или подросток — и автоматически применяет соответствующие ограничения.

При этом в OpenAI честно признают: модель может ошибаться. Иногда взрослого пользователя могут по ошибке «записать» в подростки, особенно если поведение в чате покажется системе типично тинейджерским. В таком случае доступ к части тем будет ограничен.

Если вам уже есть 18 лет, но ChatGPT решил иначе, возраст можно подтвердить вручную. Для этого предусмотрена процедура верификации. Пользователя могут попросить сделать живое селфи через камеру смартфона или компьютера либо загрузить фото удостоверения личности — например, паспорта или водительских прав.

Проверкой занимается партнёр OpenAI — компания Persona, которая сверяет дату рождения и соответствие фото. В OpenAI подчёркивают, что загруженные данные удаляются в течение семи дней после проверки.

После успешной верификации дополнительные «подростковые» ограничения снимаются, хотя на полное обновление настроек может уйти некоторое время.

Даже в режиме для несовершеннолетних ChatGPT остаётся доступным для учёбы, творчества и обычных вопросов. Но система будет жёстче фильтровать темы, связанные с насилием, жестокими сценами, опасными интернет-инициативами, а также контентом, который продвигает нездоровые диеты или бодишейминг.

Новая система определения возраста будет внедряться по всему миру и со временем автоматически заработает для всех аккаунтов ChatGPT.

Всё это, само собой, происходит на фоне множества исков к OpenAI, в которых родители подростков утверждают, что ChatGPT довёл их детей до самоубийства. Представители корпорации периодически оправдываются в публичном поле, заявляя, что суицидники нарушили правила использования ChatGPT.

RSS: Новости на портале Anti-Malware.ru