Symantec Endpoint Protection - Вопросы по Symantec Endpoint Protection - Форумы Anti-Malware.ru Перейти к содержанию
Shell

Symantec Endpoint Protection

Recommended Posts

Shell

Добрый день.

Сломал голову над проблемой.

Есть Филиал. На нем 10 компьютеров вместе с 2 серверами. Филиал на канале связи с головным офисом. Там был установлен сервер SEPM, к которому они были подключены. 28 апреля 4 клиента одновременно потеряли управляющий сервер. Посыпалась файловая система сервера (директория Liveupdate сначала потеряла к себе права доступа, а после checkdisk вовсе пропала). Восстановил сервер SEPM. Большинство клиентов восстановилась нормально. 4- нет.

В Troubleshooting - сервер=оффлайн. Остальные 6 клиентов - сервер видят. Остановил тот сервер, подключил к серверу в головном офисе. 6 клиентов перешли успешно. Эти 4 - все так же оффлайн. Через SEP Support tools существенных ошибок нет. Подключение к управляющему серверу утилита показывает нормальное.

Из ошибок через SEPSupport Tools:

Error Simple filesharing is enabled. Error Name:  WpsHelper Type:  Kernel Driver Status Setting Default Actual Error State Running Stopped Error Exit Code  С момента последней загрузки попытки запустить службу не делались.  Ok Start Type Demand Start Demand Start Ok Log On As LocalSystem LocalSystem Warning Symantec Endpoint Protection 11.0, MR4 (11.0.4000.2295)

Через SylinkDrop неоднократно подсовывал правильные параметры - и клиенты успешно кушают их, но связи так и нет. Пробовал подменить файл вручную - безрезультатно (параметры, естественно, выгружал с SEPM к которому подключаю). Дал задание айтишнику переустановить с нуля операционку одну, накатил SEP. Результат тот же. Смотрю через сниффер что же происходит на уровне сети. Даю smc -checkinstall, smc -updateconfig клиент лезет на управляющий сервер, получает через GET запрос /secars/secars.dll и сразу сервер отвечает Internal server error в пакете клиенту.

20718d5fdc4ft.jpg

По аналогии с 6 клиентами которые нормально - клиент от сервера должен на этом этапе получить Sem-HashKey (в случае новой сессии) и продолжать сессию.

При этом, на этом сервере без проблем висит 300+клиентов без каких либо похожих проблем.

Вот как выглядит клиент:

75588d69c2det.jpg

2 клиента из 4х без ошибок - но все же нет связи с SEPM.

Проблемных клиентов пробовал удалять из SEPM - с тех пор они даже не появлялись в SEPM, через поиск неуправляемых клиентов по этой подсети не находятся.

Бьюсь головой, не знаю куда копать.

Пробовал перецепить к прошлому их серверу, результат = 0.

Удалять\добавлять домен в SEPM пробовал, безрезультатно.

У клиентов (у компа, у учетной записи пользователя) нет доступа в Интернет. Но в настройках браузера прописано "не использовать прокси для подсетей ..." и там указана подсеть SEPM <<<- грешил на это, думая что http запросы могут таки идти и резаться через прокси пока не увидил трафик в живую к SEPM от клиентов.

Порт для сервера использую 8014.

Версия сервера и клиентов 11.0.4000.2295

Клиенты - под MS Windows XP SP2 buil 2600 Rus.

Проходился по клиентам вайпом - результат тот же.

Проблему выявил только с этими клиентами на этом Филиале.

P.S.

Сегодня попробовал установил последнюю версию клиента (4019). Результат тот же. Мистика какая то.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кирилл Керценбаум

Shell попробуйте воспользоваться вот этими утилитами, рекомендую параллельно открыть кейс в тех. поддержке - http://service1.symantec.com/support/ent-s...72?OpenDocument

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
MKR
Shell попробуйте воспользоваться вот этими утилитами, рекомендую параллельно открыть кейс в тех. поддержке - http://service1.symantec.com/support/ent-s...72?OpenDocument

Немного не в тему, может подскажете в каком направлении искать:

клиенты получают политики с сервера. судя по логу System.log на компе, загружают обновления, но на сервере пустой лог Client-server act. с сервером к которому привязаны клиенты и Client act. по данным клиентам и во всех отчетах старая версия баз на клиентах, хотя повторюсь, клиенты получают базы судя по своим логам и ошибок не генерят.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кирилл Керценбаум

MKR версия? Диагностику запускали на сервере и на проблемном клиенте?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
MKR

4014 везде, вот такая ошибка на сервере:

Is Microsoft IIS correctly configured for Symantec Endpoint Protection Manager?

Error SEPM Virtual Directories with incorrect permissions: Location Expected Actual

/LM/W3SVC/1/ROOT None Scripts only

Error SEPM Virtual Directories with incorrect paths: Location Path

/LM/W3SVC/1/ROOT c:\inetpub\wwwroot

Эта ошибка есть и на другом сервере, с которым проблем нет, может дело в W2K3 R2? где то я слышал про это.

ссылка на статью http://www.symantec.com/techsupp/servlet/P...050.91.04282009

Отредактировал MKR

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кирилл Керценбаум

MKR попробуйте позвонить в тех. поддержку

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
MKR
MKR попробуйте позвонить в тех. поддержку

C русскоязычной ТП разбирались несколько дней, но в результате мне так и не смогли помочь, отправлял им debug и ошибки Support Tool, когда вышла новая версия, обновил сервер - сразу связь с клиентами восстановилась, инцидент закрыли.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Shell
C русскоязычной ТП разбирались несколько дней, но в результате мне так и не смогли помочь, отправлял им debug и ошибки Support Tool, когда вышла новая версия, обновил сервер - сразу связь с клиентами восстановилась, инцидент закрыли.

Увы. Вчера в надежде проделал тоже самое. Накатил поверху через vpremote версию 11.0.4202.75. Сервер не обновлял. Безрезультатно. Те клиенты на Филиале что были видны в SEPM - видны и с новой версией. У проблемных - все та же ошибка. Сам сервер SEPM не могу обновить, так как много дочерних серверов обновлять придется (очень долго по времени вручную + трафик на удаленных каналах дороговато выходит).

Вот что видно через Sylinkmonitor:

05/26 16:10:59 [3472] <ScheduleNextUpdate>Manually assigned heartbeat=1 seconds05/26 16:11:00 [1508] <CheckHeartbeatTimer>====== Heartbeat loop starts at 16:11:00 ======05/26 16:11:00 [1508] <GetOnlineNicInfo>:Netport Count=105/26 16:11:00 [1508] <GetOnlineNicInfo>:NicInfo<SSANICs><SSANIC Ip= ....."... (removed)..05/26 16:11:00 [1508] <DoHeartbeat> Set heartbeat event05/26 16:11:00 [1508] Use new configuration05/26 16:11:00 [1508] <CSyLink::IndexHeartbeatProc()>05/26 16:11:00 [1508] <IndexHeartbeatProc> Got ConfigObject to proceed the operation.. pSylinkConfig: 01BDE52805/26 16:11:00 [1508] <IndexHeartbeatProc>====== Reg Heartbeat loop starts at 16:11:00 ======05/26 16:11:01 [1508] HEARTBEAT: Check Point 105/26 16:11:01 [1508] Get First Server!05/26 16:11:01 [1508] <GetFirstSEMServer> Selecting a random server05/26 16:11:01 [1508] <GetFirstServer> Using server '10.0.0.25'05/26 16:11:01 [1508] HEARTBEAT: Check Point 205/26 16:11:01 [1508] <PostEvent>going to post event=EVENT_SERVER_CONNECTING05/26 16:11:01 [1508] <PostEvent>done post event=EVENT_SERVER_CONNECTING, return=005/26 16:11:01 [1508] HEARTBEAT: Check Point 305/26 16:11:01 [1508] <IndexHeartbeatProc>Setting the session timeout on Profile Session to 3000005/26 16:11:01 [1508] HEARTBEAT: Check Point 405/26 16:11:01 [1508] <IndexHeartbeatProc>===Get Index STAGE===05/26 16:11:01 [1508] ************CSN=2899805/26 16:11:01 [1508] <mfn_MakeGetIndexUrl:>Request is: action=12&hostid=E08125620A00001901D5B88324B9CE6D&chk=D94ED4E866402A65CD619F60428B4580&ck=0BD9B23AFF5ABA29160F913250AFBDAA&uchk=4A4F9B6F6FCFDAC222E51C273843777D&uck=A780077068263BF94F627ACFB7ECAC80&hid=40D344CE34D89293F9B0C1E61648B96D&groupid=F34834370A0000190015B758697663EE&mode=0&hbt=1800&as=28998&cn=[hex]4C4F544F54534B49595850&lun=[hex]61646D696E6973747261746F72&udn=[hex]5045524D2E534E532E474B05/26 16:11:01 [1508] <GetIndexFileRequest:>http://10.0.0.25:8014/secars/secars.dll?h=54EB7B35441DFF6954C29031A6359987E1329E7FA870CE00602E86DF14F43B202CEABC59A0C62316CFFDE9EDAD6607CDE1B8BB22790B208A4E58263B489E72DBA01BAF0F4D4CDEC8719AD2FDB709A196CEAF4E3E10B28217AE4572A646E9862CE81ED46A0DD9EF594A9E382F463A8A68220ECB8B81EB184F980F0F2725CA077B5F13580B7697F3A86D55F192E559B9E67DDEE873C15E6AA6C35E784AC89228BFEF6C7CED39F90BCCAE6735A1B717D483277CA8723E6FFE35806BAD6AB73A6C024F313A138F8B5B4EE1F9DA3E179CE8FF645D9E9FF1174DDED39BBE81E6F5CF750A347A899BDCA613A990F2C55E52CB3DC58306E3D75DE9CA243C150176F6210D796C297D62A77C96002A4D6486337F81667F0B12AFB1D234CFFAA2B3CAE668246A3953A4BE29E14F2D0A813F9F268081F7688310D14C86CA86FEE0E027328353B6181B34B9369DEFD501455F4481977EBCB22BD03D0CDE1EA45EC9C2DE2759ED3E0378E9465E86C5428FAD4F428E3F268D7246830557E151C1D64F0693E5D904AE16A2066190705B0933371D437511C080503A9BB011F22203D1A4EBC0303BFA05/26 16:11:01 [1508] <GetIndexFileRequest:>SMS return=50005/26 16:11:01 [1508] <ParseHTTPStatusCode:>500=>500 INTERNAL SERVER ERROR05/26 16:11:01 [1508] HTTP returns status code=50005/26 16:11:01 [1508] <GetIndexFileRequest:>RECEIVE STAGE COMPLETED05/26 16:11:01 [1508] <GetIndexFileRequest:>COMPLETED05/26 16:11:01 [1508] <IndexHeartbeatProc>GetIndexFile handling status: 50005/26 16:11:01 [1508] <IndexHeartbeatProc>Switch Server flag=105/26 16:11:01 [1508] HEARTBEAT: Check Point 5.105/26 16:11:01 [1508] <ScheduleNextUpdate>new scheduled heartbeat=128 seconds05/26 16:11:01 [1508] HEARTBEAT: Check Point 805/26 16:11:01 [1508] Get Next Server!05/26 16:11:01 [1508] <IndexHeartbeatProc>switch to another server05/26 16:11:01 [1508] <DecrementScheduleTime:>New scheduled heartbeat=64 seconds05/26 16:11:01 [1508] HEARTBEAT: Check Point 105/26 16:11:01 [1508] HEARTBEAT: Check Point 205/26 16:11:01 [1508] <PostEvent>going to post event=EVENT_SERVER_CONNECTING05/26 16:11:01 [1508] <PostEvent>done post event=EVENT_SERVER_CONNECTING, return=005/26 16:11:01 [1508] HEARTBEAT: Check Point 305/26 16:11:01 [1508] <IndexHeartbeatProc>Setting the session timeout on Profile Session to 3000005/26 16:11:01 [1508] HEARTBEAT: Check Point 405/26 16:11:01 [1508] <IndexHeartbeatProc>===Get Index STAGE===05/26 16:11:01 [1508] ************CSN=2899905/26 16:11:01 [1508] <mfn_MakeGetIndexUrl:>Request is: action=12&hostid=E08125620A00001901D5B88324B9CE6D&chk=D94ED4E866402A65CD619F60428B4580&ck=0BD9B23AFF5ABA29160F913250AFBDAA&uchk=4A4F9B6F6FCFDAC222E51C273843777D&uck=A780077068263BF94F627ACFB7ECAC80&hid=40D344CE34D89293F9B0C1E61648B96D&groupid=F34834370A0000190015B758697663EE&mode=0&hbt=1800&as=28999&cn=[hex]4C4F544F54534B49595850&lun=[hex]61646D696E6973747261746F72&udn=[hex]5045524D2E534E532E474B05/26 16:11:01 [1508] <GetIndexFileRequest:>http://frade.sns.gk:8014/secars/secars.dll?h=54EB7B35441DFF6954C29031A6359987E1329E7FA870CE00602E86DF14F43B202CEABC59A0C62316CFFDE9EDAD6607CDE1B8BB22790B208A4E58263B489E72DBA01BAF0F4D4CDEC8719AD2FDB709A196CEAF4E3E10B28217AE4572A646E9862CE81ED46A0DD9EF594A9E382F463A8A68220ECB8B81EB184F980F0F2725CA077B5F13580B7697F3A86D55F192E559B9E67DDEE873C15E6AA6C35E784AC89228BFEF6C7CED39F90BCCAE6735A1B717D483277CA8723E6FFE35806BAD6AB73A6C024F313A138F8B5B4EE1F9DA3E179CE8FF645D9E9FF1174DDED39BBE81E6F5CF750A347A899BDCA613A990F2C55E52CB3DC58306E3D75DE9CA243C150176F6210D796C297D62A77C96002A4D6486337F81667F0B12AFB1D234CFFAA2B3CAE668246A3953A4BE29E14F2D0A813F9F2680813574EF4CA226E74E871ACC2B4536FEFCB6181B34B9369DEFD501455F4481977EBCB22BD03D0CDE1EA45EC9C2DE2759ED3E0378E9465E86C5428FAD4F428E3F268D7246830557E151C1D64F0693E5D904AE16A2066190705B0933371D437511C080503A9BB011F22203D1A4EBC0303BFA05/26 16:11:04 [1508] <GetIndexFileRequest:>SMS return=50005/26 16:11:04 [1508] <ParseHTTPStatusCode:>500=>500 INTERNAL SERVER ERROR05/26 16:11:04 [1508] HTTP returns status code=50005/26 16:11:04 [1508] <GetIndexFileRequest:>RECEIVE STAGE COMPLETED05/26 16:11:04 [1508] <GetIndexFileRequest:>COMPLETED05/26 16:11:04 [1508] <IndexHeartbeatProc>GetIndexFile handling status: 50005/26 16:11:04 [1508] <IndexHeartbeatProc>Switch Server flag=105/26 16:11:04 [1508] HEARTBEAT: Check Point 5.105/26 16:11:04 [1508] <ScheduleNextUpdate>new scheduled heartbeat=128 seconds05/26 16:11:04 [1508] HEARTBEAT: Check Point 805/26 16:11:04 [1508] Get Next Server!05/26 16:11:04 [1508] <PostEvent>going to post event=EVENT_SERVER_DISCONNECTED05/26 16:11:05 [1508] <PostEvent>done post event=EVENT_SERVER_DISCONNECTED, return=005/26 16:11:05 [1508] <IndexHeartbeatProc>====== IndexHeartbeat Procedure stops at 16:11:05 ======05/26 16:11:05 [1508] <IndexHeartbeatProc>Set Heartbeat Result= 105/26 16:11:05 [1508] <IndexHeartbeatProc>Sylink Comm.Flags: 'Connection Failed' = 1, 'Using Backup Sylink' = 0, 'Using Location Config' = 005/26 16:11:05 [1508] <IndexHeartbeatProc>Connection Failed! No. of tries = 205/26 16:11:05 [1508] Use new configuration05/26 16:11:05 [1508] HEARTBEAT: Check Point Complete05/26 16:11:05 [1508] <IndexHeartbeatProc>Done, Heartbeat=128seconds05/26 16:11:05 [1508] </CSyLink::IndexHeartbeatProc()>05/26 16:11:05 [1508] <CheckHeartbeatTimer>====== Heartbeat loop stops at 16:11:05 ======

Тоесть, в принципе то что я и в снифере видел.

Обновил управляющий сервер SEPM до 11.0.4202. Та же ошибка 500я.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Shell

Ну вот почему так всегда... Только собираешься похвалить один из 3х последних версий самый стабильный клиент SEP. И вот тебе раз

Обновил управляющий сервер SEPM до 11.0.4202. Та же ошибка 500я.

и потерял этот сервер. после перезапуска службы = java -1.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кирилл Керценбаум
и потерял этот сервер. после перезапуска службы = java -1.

поверх какой версии ставили?

Вот это проверяли?

http://service1.symantec.com/support/ent-s...d9?OpenDocument

И еще посмотрите вот эту статью, эта ошибка давно исправлено, но похоже ли на вашу проблему?

http://service1.symantec.com/support/ent-s...a2?OpenDocument

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Shell

Статьи уже давно в закладках. Не помогло сначала ничего абсолютно. Перепроверил все параметры, которые отвечали за данную ошибку. Уже все с закрытыми глазами делаю.

В логе ошибка

2009-05-26 18:29:31.236 SEVERE: Unknown Exception in: com.sygate.scm.server.servlet.StartupServletjava.lang.Exception: HTTP 404 Not Found, URL: http://localhost:8014/secars/secars.dll?action=34

и все тут. Служба стартует, две-три секунды и останавливается с типовой ошибкой. Реконфигурация сервера SEPM тоже не помогала.

Но настырности не занимать. Установка\удаление программ->Recovery. Результат положительный. Сервер восстановился, база цела, настройки тоже.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Shell

Кейс зарегистрирован 27 мая. Пока молчание. По словам поддержки - проблема из за создающихся дублей в БД.

Есть ли смысл пройтись на боевом сервере по табличкам запросом и поубивать записи относящиеся к данным компам? И не будет ли краха базы? Там же вроде все проиндексировано...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Shell

Попробовал удалить проблемного клиента из таблиц скриптом по COMPUTER_ID = 2013D99E0A000019003C96161F81FE87 (этот ID выдернут из таблиц, принадлежит 1му клиенту).

DELETE FROM [Endpoint].[dbo].[sEM_COMPUTER]Where [COMPUTER_ID] = '2013D99E0A000019003C96161F81FE87'DELETE FROM [Endpoint].[dbo].[sEM_AGENT]Where [COMPUTER_ID] = '2013D99E0A000019003C96161F81FE87'DELETE FROM [Endpoint].[dbo].[sEM_CLIENT]Where [COMPUTER_ID] = '2013D99E0A000019003C96161F81FE87'DELETE FROM [Endpoint].[dbo].[LEGACY_AGENT]Where [COMPUTER_ID] = '2013D99E0A000019003C96161F81FE87'

Увы, к положительному результату не привело.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кирилл Керценбаум
Увы, к положительному результату не привело.

Напишите мне в ЛС номер кейса

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Кирилл Керценбаум

Shell пытаются воспроизвести проблему, должны в ближайшее время связаться

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Shell

Решение есть. Спасибо поддержке.

Необходимо:

1) Остановить SEPM

2) Остановить SEP на клиенте (или smc -stop).

3) Выбрать из таблиц запросом проблемного клиента SEP

SELECT * from [Endpoint].[dbo].[sEM_COMPUTER]where [COMPUTER_NAME] = 'clientname'SELECT * from [Endpoint].[dbo].[sEM_CLIENT]where [COMPUTER_NAME] = 'clientname'

Выбирать необходимо из обоих таблиц, так как искомый [CLIENT_ID] может быть в нескольких записях и разный в таблицах.

4) Выбираем [CLIENT_ID] для дополнения запроса.

5) Скриптом указанным ниже удаляем записи из таблиц

DELETE from [Endpoint].[dbo].[sEM_COMPUTER]where [COMPUTER_NAME] = 'clientname'DELETE from [Endpoint].[dbo].[sEM_CLIENT]where [COMPUTER_NAME] = 'clientname'DELETE from [Endpoint].[dbo].[sEM_AGENT]where [COMPUTER_ID] = 'clientid' orwhere [COMPUTER_ID] = 'clientid2' orwhere [COMPUTER_ID] = 'clientid3'

6) Стартуем SEPM

7) Стартуем на клиенте SEP и смотрим в troubleshooting-->server.

Можно и таким скриптом (проще :) )

delete from [Endpoint].[dbo].[sEM_AGENT] where [COMPUTER_ID] not in (select [COMPUTER_ID] from [Endpoint].[dbo].[sEM_COMPUTER])

где [Endpoint].[dbo] - имя БД SQL (по умолчанию, по-моему sem5).

Предыдущей моей ошибкой было то что не остановил SEPM\SEP.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

  • Сообщения

    • Ego Dekker
      Домашние антивирусы для Windows были обновлены до версии 19.0.14.
    • PR55.RP55
      Microsoft ускоряет Проводник в Windows 11 с помощью предзагрузки https://www.comss.ru/page.php?id=18618
    • AM_Bot
      Вендор Crosstech Solutions Group выпустил решение для защиты контейнерной инфраструктуры Crosstech Container Security (CTCS). Оно обеспечивает безопасность контейнерных сред: от сканирования образов до контроля запуска рабочих нагрузок и реагирования на инциденты в средах выполнения.      ВведениеФункциональные возможности Crosstech Container Security2.1. Анализ и контроль безопасности образов2.2. Контроль запуска контейнеров2.3. Безопасность в средах выполнения (Runtime Security)2.4. Безопасность окружения2.5. Внешние интеграцииАрхитектура Crosstech Container Security3.1. Основные компоненты Crosstech Container SecurityСистемные требования и лицензирование Crosstech Container Security4.1. Лицензирование4.2. Требования к аппаратной части4.3. Требования к программной части4.4. Процесс установкиСценарии использования5.1. Сценарий №1. Сканирование образов5.2. Сценарий №2. Политики безопасности образов контейнеров5.3. Сценарий №3. Контроль запуска контейнеров5.4. Сценарий №4. Мониторинг безопасности сред выполненияВыводыВведениеРоссийский рынок контейнерных разработок постоянно растёт. В 2024 году затраты на ПО для контейнеризации достигли 3 млрд рублей — это на 66 % больше, чем в 2023. Контейнерные технологии ускоряют процессы разработки, экономят ресурсы компаний, поэтому их всё чаще внедряют в свою работу ИТ-департаменты.Вместе с ростом масштабов контейнеризации увеличивается и поверхность атак: уязвимости в образах, ошибки конфигураций, несанкционированные действия внутри контейнеров. Crosstech Container Security помогает компаниям выстраивать комплексную систему защиты контейнерной инфраструктуры.Функциональные возможности Crosstech Container SecurityCrosstech Container Security объединяет функции анализа, мониторинга и управления безопасностью контейнерных сред. Решение охватывает весь жизненный цикл контейнера — от момента его создания до удаления. Продукт помогает DevSecOps-командам выявлять уязвимости, проверять конфигурации, контролировать сетевую активность и реагировать на инциденты в режиме реального времени.Анализ и контроль безопасности образовCrosstech Container Security интегрируется с реестрами хранения образов и позволяет проводить их сканирование как в ручном режиме, так и по расписанию. В результате анализа система обнаруживает дефекты в образах: уязвимости, неправильные конфигурации, секреты, а также фиксирует используемые в образах OSS-лицензии для пакетов и библиотек. По каждому найденному дефекту предоставляется детальная информация.CTCS поддерживает экспорт SBOM в форматах SPDX и CycloneDx, что упрощает аудит и обмен данными с другими решениями. Интерфейс продукта предоставляет визуализацию образов с маппингом (сопоставлением данных) на дефекты безопасности. CTCS также осуществляет дискаверинг (обнаружение) образов, располагающихся в защищаемых кластерах и на standalone-хостах.Для автоматизации контроля доступны настраиваемые политики безопасности образов, разделяемые по критериям:наличие уязвимостей в образах контейнеров выше заданной оценки критичности;наличие уязвимостей в образах контейнеров согласно заданным идентификаторам;обнаружение root в Dockerfile;возможность указания перечня образов, на которые будет распространяться созданная политика безопасности образов.При нарушении хотя бы одного из критериев политики администратор получает уведомление в интерфейсе CTCS и может оперативно принять меры: заблокировать образ, исключить его из деплоя или добавить в список исключений с указанием причины. Такой подход обеспечивает прозрачность процессов и повышает уровень доверия к среде разработки и эксплуатации.Контроль запуска контейнеровРешение обеспечивает контроль запуска контейнеров как в средах Kubernetes, так и на отдельных standalone-хостах в соответствии с заданными политиками безопасности. Это позволяет предотвращать запуск рабочих нагрузок, не соответствующих требованиям безопасности компании, ещё на этапе их инициализации.В зависимости от настроек администратор может выбрать режим реагирования: блокирование или оповещение о нарушении политики безопасности. Информация обо всех срабатываниях отображается в интерфейсе системы, обеспечивая прозрачность и возможность оперативного реагирования.Политики безопасности включают следующие критерии:попытка запуска контейнеров на базе образов, не соответствующих политикам безопасности;попытка запуска контейнеров из-под пользователя root;попытка запуска контейнеров с повышенными привилегиями ядра Linux;контроль запуска контейнеров на базе образов, не прошедших сканирование CTCS.Дополнительно решение поддерживает интеграцию с OPA Gatekeeper и имеет возможность создания и импорта политик через интерфейс CTCS.Безопасность в средах выполнения (Runtime Security)CTCS использует возможности инструмента Tetragon для создания и применения кастомных политик безопасности, позволяющих контролировать сетевые взаимодействия внутри контейнеров. Администраторы могут выбрать набор кластеров для распространения политик, что обеспечивает гибкость при внедрении требований безопасности.Вся информация о срабатываниях политик фиксируется в интерфейсе CTCS, предоставляя специалистам по информационной безопасности прозрачную картину активности в средах выполнения и возможность оперативного реагирования на инциденты.Безопасность окруженияРешение выполняет сканирование кластеров на соответствие стандартам конфигурирования CIS Kubernetes Benchmarks. Аналогично система проводит проверку standalone-хостов на соответствие CIS Docker Benchmarks. Дополнительно CTCS поддерживает сканирование конфигурационных файлов, расположенных в директориях нод кластеров, выполняя роль сканера на основе IaC (Infrastructure as Code, управление инфраструктурой через использование кода).Внешние интеграцииРешение поддерживает интеграцию с реестрами хранения образов, что обеспечивает доступ к актуальным данным для анализа и контроля безопасности контейнеров. Также CTCS поддерживает передачу журналов событий в системы сбора по протоколу Syslog для их централизованного хранения и обработки.Доступна интеграция с системой идентификации, управления доступом Keycloak с поддержкой OAuth и доменными службами каталогов. Это позволяет пользователям авторизовываться в интерфейсе системы через доменные учётные записи. Рисунок 1. Планы по развитию Crosstech Container Security Архитектура Crosstech Container SecurityАрхитектура CTCS реализована в формате однонаправленных соединений со стороны ядра системы в сторону агентов защиты (протокол TCP/IP), располагающихся в защищаемых кластерах. Такой подход позволяет использовать инстанс ядра в единственном экземпляре для инфраструктур, сегментированных по уровням доверия. Рисунок 2. Логическая архитектура Crosstech Container Security Основные компоненты Crosstech Container SecurityCTCS состоит из 3 основных компонентов:CTCS Core — группа микросервисов, отвечающая за управление системой: хранение данных, настроек, создание политик безопасности, бизнес-логика продукта, а также взаимодействие со смежными системами.CTCS Agent-Manager: модуль агент-менеджера реализован в формате оператора Kubernetes с целью контроля за установкой и изменениями кастомных ресурсов (custom resource definition, CRD), а также управления и передачи информации агент-воркерам, устанавливаемым на каждую защищаемую ноду в формате DaemonSet.CTCS Scanner — модуль, сканирующий образы контейнеров на уязвимости, неправильные конфигурации, конфиденциальные данные, информацию по OSS-лицензиям для пакетов и библиотек из состава образа, а также сканирующий кластеры на соответствие стандартам конфигурирования.Системные требования и лицензирование Crosstech Container SecurityПеред выбором модели лицензирования заказчикам рекомендуется оценить масштаб защищаемой инфраструктуры и нагрузку на кластеры. Crosstech Container Security предусматривает гибкий подход: ядро и агенты могут разворачиваться в разных сегментах сети, включая тестовые и продуктивные среды. Такой принцип позволяет оптимально распределять ресурсы и лицензии, избегая избыточных затрат.ЛицензированиеCTCS лицензируется по количеству защищаемых нод, на которые распространяются агенты защиты.В продукте реализовано гибкое лицензирование, которое позволяет заказчикам самостоятельно выбирать перечень защищаемых объектов. При достижении лимита по количеству лицензий, предусмотренных договором, администратор может отключить часть текущих объектов защиты и переназначить лицензии на новые кластеры и ноды. Рисунок 3. Включение/выключение агентов защиты Рисунок 4. Лицензии CTCS На странице лицензирования доступна подробная информация о параметрах действующей лицензии. Пользователь видит:количество оставшихся дней действия лицензии;количество нод, предусмотренных лицензией;актуальные данные о числе используемых нод в рамках лицензии;сведения о типе лицензии;информация о поставщике;информация о владельце лицензии.Рисунок 5. Страница «Лицензирование» Требования к аппаратной частиКластер, на котором производится установка CTCS, должен соответствовать минимальным характеристикам, приведённым ниже. Для определения значений millicpu (единицы времени процессора, эквивалентной тысячной части работы, которую может выполнить одно ядро CPU) рекомендуется воспользоваться документацией Kubernetes.Кластер, на который будет установлен helm-чарт ядра (без учёта сканера) должен иметь характеристики не ниже 8190 millicpu, 7410 MiB RAM.Для каждого экземпляра сканера: 3 CPU, 6 GB RAM, при добавлении дополнительных экземпляров значения увеличиваются пропорционально.В случае использования большего количества реплик значения пропорционально умножаются на их число. По умолчанию в чарте допускается до 6 реплик, что требует 18 CPU, 36 GB RAM.Каждый кластер для развёртывания чарт-агента должен иметь 2 CPU, 8 GB RAM.Необходимый минимум для каждой используемой СУБД PostgreSQL: 4 CPU, 8 GB RAM, 100 GB.Приведённые требования указаны для усреднённой конфигурации и могут быть изменены в зависимости от количества одновременных сканирований образов, генерируемых событий, деплоев, пространств имён (namespaces) и подов.Требования к программной частиДля корректной интеграции и работы приложение CTCS должно быть развёрнуто в кластере Kubernetes. При настройке системы в конфигурационном файле helm-чарта должны быть настроены необходимые параметры.Поддерживаемые контейнерные среды CRI (container runtime interface): containerd и docker.В момент выполнения инструкции на хосте администратора должны быть установлены следующие утилиты для выполнения установки:tar;helm;kubectl.Необходимые сервисы в инфраструктуре:PostgreSQL: рекомендуется размещать базу данных для хранения логов на отдельном инстансе от основной БД, чтобы избежать падения производительности основных операций при большом объёме логируемых событий;Keycloak (опционально, имеется возможность поставки в составе дистрибутива);Vault (опционально, имеется возможность использования стандартного объекта Kubernetes Secret).Требования к операционной системе и ядру:рекомендуется использовать ОС с версией ядра 5.4 или выше для обеспечения поддержки Tetragon;в ядре должна быть включена функция BTF;должны быть активированы модули eBPF и cgroup, а также корректным образом настроены или отключены модули безопасности Linux (LSM), контролирующие запуск eBPF-программ (в соответствии с официальной документацией Tetragon).Требования к версиям Kubernetes:центральная управляющая часть кластера – не ниже версии 1.23;дочерние кластеры – версия 1.23 или выше.Дополнительные требования:В кластере Kubernetes должен быть установлен, подключён и настроен storage class, в котором будет минимум 10 GB свободного места.В master-кластер должен быть установлен External Secrets (опционально).В дочерние кластеры должен быть установлен External Secrets (опционально).Во всех кластерах, где развёртывается ядро и агенты CTCS, должен быть установлен ingress-контроллер.Совокупность этих требований обеспечивает стабильную работу системы и корректное взаимодействие всех модулей CTCS. При соблюдении указанных параметров производительность решения остаётся предсказуемой даже при высокой интенсивности сканирований и большом количестве событий безопасности. Такой подход гарантирует надёжность, масштабируемость и устойчивость контейнерной инфраструктуры.Процесс установкиДля развёртывания CTCS вендор предоставляет архив, содержащий helm-чарты и образы системных контейнеров. При необходимости может быть предоставлена учётная запись для выгрузки дистрибутивов из репозиториев вендора напрямую.Сценарии использованияCrosstech Container Security закрывает ключевые задачи обеспечения безопасности контейнерных платформ — от анализа уязвимостей до защиты на уровне среды выполнения. Решение органично интегрируется в процессы DevSecOps и помогает компаниям повысить устойчивость инфраструктуры к современным киберугрозам без потери скорости разработки.Сценарий №1. Сканирование образовCTCS позволяет выполнять сканирование образов контейнеров, хранящихся как в интегрированных реестрах образов, так и локально в защищаемых кластерах. Рисунок 6. Подключённые реестры После интеграции с реестрами образов на вкладке «Образы» – «Реестры» отображается подключённый реестр и информация о хранящихся в нём образах. Реализовано в формате иерархии:Реестры.Название образа и количество его версий (тегов).Название образа и его версии.Карточка конкретного образа.Рисунок 7. Образ и список его версий Рисунок 8. Карточка образа На каждом уровне иерархии есть возможность запуска сканирования по требованию с выбором типа дефектов, которые будут учитываться в процессе сканирования. Дополнительно предоставляется общая информация об образе, данные о его соответствии установленным политикам, сведения о слоях образов с маппингом на обнаруженные дефекты. Рисунок 9. Слои образа На странице интеграций с реестрами в настройках доступно выставление расписания для проведения автоматизированного сканирования. Рисунок 10. Сканирование по расписанию Для работы с образами, обнаруженными локально в защищаемых кластерах, доступна отдельная вкладка «Образы» – «Локальные образы». Рисунок 11. Таблица локальных образов При запуске процесса сканирования доступен выбор ноды, на которой он будет проводиться. Если обнаруженный образ находится в интегрированном реестре, сканирование будет приоритетно выполняться на стороне ядра системы в рамках интеграции с реестром. Рисунок 12. Выбор нода для проведения сканирования Сценарий №2. Политики безопасности образов контейнеровВ рамках Crosstech Container Security реализовано создание политик безопасности для образов контейнеров. После их настройки система автоматически проверяет все известные образы на соответствие заданным критериям. По результатам проверки на карточке каждого образа отображается информация о соответствии или несоответствии политикам безопасности (Рисунок 7). Если образ нарушает несколько политик безопасности одновременно, в карточке отображается, какие именно политики безопасности были нарушены. Рисунок 13. Создание политики безопасности образов Сценарий №3. Контроль запуска контейнеровВ CTCS доступна интеграция с OPA Gatekeeper, обеспечивающая валидацию контейнерных деплоев и реагирование в соответствии с заданными политиками безопасности.При настройке политик безопасности доступен выбор режима реагирования — оповещение либо блокировка — а также определение перечня критериев безопасности, по которым будет осуществляться контроль. Рисунок 14. Таблица политик валидации и контроля запусков Политики безопасности могут создаваться по выделенным критериям (Рисунок 13) или импортироваться в виде кастомных политик (Рисунок 14). Рисунок 15. Создание политики валидации и контроля запусков Рисунок 16. Импорт кастомных политик безопасности Результаты срабатывания политик доступны в интерфейсе системы, что позволяет оперативно анализировать инциденты и корректировать настройки безопасности. Рисунок 17. Срабатывание политик валидации и контроля запусков Сценарий №4. Мониторинг безопасности сред выполненияВ текущей версии реализован мониторинг безопасности сред выполнения на базе Tetragon, что позволяет контролировать эксплуатацию рабочих нагрузок.В CTCS доступна форма для создания или импорта готовых политик безопасности с возможностью выбора области применения. Рисунок 18. Создание политики среды выполнения При срабатывании политик система отображает перечень событий в формате таблицы. Для каждого события можно перейти в режим детального просмотра, где отображается его идентификатор, дата и время создания, короткое описание и содержание в формате json. Рисунок 19. Событие срабатывания политики среды выполнения ВыводыАнализ решения Crosstech Container Security показал, что в версии 3.0.0 продукт предоставляет широкие функциональные возможности для защиты контейнерной инфраструктуры: от обеспечения безопасности образов контейнеров до контроля запуска и реагирования на нелегитимные процессы в средах выполнения в соответствии с политиками безопасности. CTCS также предоставляет инструменты для проведения сканирований защищаемых кластеров на соответствие стандартам конфигурирования, что повышает уровень безопасности контейнерной инфраструктуры.Достоинства:Архитектура. Благодаря однонаправленным соединениям со стороны ядра системы в сторону агентов защиты обеспечивается соответствие требованиям заказчиков, которые используют «Zero Trust»-модель на уровне сегментов инфраструктуры.Широкая площадь покрытия. CTCS обеспечивает контроль запуска контейнеров не только в рамках оркестратора Kubernetes, но и на отдельных хостах контейнеризации за счёт использования standalone-агентов.Гибкие возможности при работе с API. Весь функционал из веб-интерфейса CTCS также доступен для вызова через API, что позволяет специалистам заказчика решать нетривиальные задачи в рамках своей рабочей деятельности и интегрировать продукт в существующие процессы.Удобство при работе со сканированием образов. Иерархический подход обеспечивает гибкость при выборе области сканирования и повышает прозрачность анализа.Недостатки:Отсутствие возможности встраивания в процесс сборки (CI/CD) (планируется к реализации в первом квартале 2026 года).Отсутствие данных по ресурсам Kubernetes (Workloads, RBAC, Custom Resources, Feature Gates): планируется в 4-м квартале 2025 – 1-м квартале 2026).Отсутствие настройки гибкого разграничения прав доступа пользователей в интерфейс системы (реализация запланирована на первый квартал 2026).Отсутствие отчётности по результатам работы с системой (планируется в первом квартале 2026).Реклама, 18+. ООО «Кросстех Солюшнс Групп» ИНН 7722687219ERID: 2VfnxvVGwXfЧитать далее
    • demkd
    • PR55.RP55
      И ещё это: https://www.comss.ru/page.php?id=18330 Это и на работе Образов с Live CD может сказаться ?
×