Доступна система обнаружения атак Suricata 3.0

Доступна система обнаружения атак Suricata 3.0

Доступна система обнаружения атак Suricata 3.0

После почти двух лет разработки организация OISF (Open Information Security Foundation) представила релиз системы обнаружения и предотвращения сетевых вторжений Suricata 3.0, примечательной поддержкой ускорения работы через задействование вычислений на стороне GPU (CUDA и OpenCL).

Suricata также поддерживает многопоточность для оптимального задействования мощностей многоядерных систем и имеет развитые средства инспектирования различных видов трафика. В конфигурациях Suricata допустимо задействование базы сигнатур, развиваемой проектом Snort, а также наборов правил Emerging Threats и Emerging Threats Pro. Исходные тексты проекта распространяются под лицензией GPLv2, сообщает opennet.ru.

Из новшеств, добавленных в Suricata 3.0, можно отметить:

  • Улучшены средства детектирования атак, в том числе поддержка xbits для выявления эксплоитов, передаваемых через несколько потоков, и возможность использования одного сервера для обработки правил выявления атак для нескольких клиентов (multi tenancy).
  • Представлены расширенные средства инспектирования протокола SMTP и добавлена возможность извлечения файлов из почтовых вложений;
  • Поддержка нового метода захвата трафика NETMAP, актуального для пользователей FreeBSD;
  • Поддержка отбрасывания трафика ICMP (ранее отбрасывание допускалось для TCP и UDP через отправку RST или ICMP error);
  • Поддержка сборки в виде исполняемого файла PIE (Position-Independent Executable) для полноценного использования ASLR;
  • Многочисленные улучшения средств для написания скриптов на языке Lua (добавлен доступ к Stream Payloads и TCP quad / Flow Tuple, поддержка обработки вывода на Lua, обработка TLS и SSL);
  • Поддержка декодирования пакетов MPLS over Ethernet, Modbus, DNS nxdomain, Cisco erspan;
  • Улучшены компоненты вывода информации, включая модернизацию средств для вывода событий в формате JSON (например, в JSON можно передавать "payload"), поддержку подсветки элементов в выводе и возможность сохранения результатов в БД Redis;
  • Значительно улучшены масштабируемость, производительность, точность и надёжность.

Особенности Suricata:

  • Использование для вывода результатов проверки унифицированного формата Unified2, также используемого проектом Snort, что позволяет использовать стандартные инструменты для анализа, такие как barnyard2. Возможность интеграции с продуктами BASE, Snorby, Sguil и SQueRT. Поддержка вывода в формате PCAP;
  • Поддержка автоматического определения протоколов (IP, TCP, UDP, ICMP, HTTP, TLS, FTP, SMB и т.п.), позволяющая оперировать в правилах только типом протокола, без привязки к номеру порта (например, блокировать HTTP трафик на нестандартном порту). Наличие декодировщиков для протоколов HTTP, SSL, TLS, SMB, SMB2, DCERPC, SMTP, FTP и SSH;
  • Мощная система анализа HTTP-трафика, использующая для разбора и нормализации HTTP-трафика специальную библиотеку HTP, созданную автором проекта Mod_Security. Доступен модуль для ведения подробного лога транзитных HTTP пересылок, лог сохраняется в стандартном формате Apache. Поддерживается извлечение и проверка передаваемых по протоколу HTTP файлов. Поддержка разбора сжатого контента. Возможность идентификации по URI, Cookie, заголовкам, user-agent, телу запроса/ответа;
  • Поддержка различных интерфейсов для перехвата трафика, в том числе NFQueue, IPFRing, LibPcap, IPFW, AF_PACKET, PF_RING. Возможен анализ уже сохранённых файлов в формате PCAP;
  • Высокая производительность, способность обрабатывать на обычном оборудовании потоки до 10 гигабит/cек.
  • Высокопроизводительный механизм сопоставления по маске с большими наборами IP адресов. Поддержка выделение контента по маске и регулярным выражениям. Выделение файлов из трафика, в том числе их идентификация по имени, типу или контрольной сумме MD5.
  • Возможность использования переменных в правилах: можно сохранить информацию из потока и позднее использовать ее в других правилах;
  • Использование формата YAML в файлах конфигурации, что позволяет сохранить наглядность при легкости машинной обработки;
  • Полная поддержка IPv6;
  • Встроенный движок для автоматической дефрагментации и пересборки пакетов, позволяющий обеспечить корректную обработку потоков, независимо от порядка поступления пакетов;
  • Поддержка протоколов туннелирования: Teredo, IP-IP, IP6-IP4, IP4-IP6, GRE;
  • Поддержка декодирования пакетов: IPv4, IPv6, TCP, UDP, SCTP, ICMPv4, ICMPv6, GRE, Ethernet, PPP, PPPoE, Raw, SLL, VLAN;
  • Режим ведения лога ключей и сертификатов, фигурирующих в рамках соединений TLS/SSL;
  • Возможность написания скриптов на языке Lua для обеспечения расширенного анализа и реализации дополнительных возможностей, необходимых для определения видов трафика, для которых не достаточно стандартных правил.

Internet Archive научил WordPress автоматически чинить битые ссылки

Internet Archive и Automattic запустили полезный инструмент для всех, кто работает с WordPress. Новый плагин под названием Link Fixer призван бороться с одной из главных болей интернета — «гниением ссылок» (link rot). Если коротко, проблема в том, что со временем ссылки в статьях начинают вести в никуда.

Страницы удаляются, сайты закрываются, URL меняются; и вместо полезного источника читатель получает ошибку.

По данным исследования Pew Research за 2024 год, почти 40% ссылок, существовавших в 2013 году, к сегодняшнему дню уже не работают.

Link Fixer решает эту проблему в связке с Wayback Machine — архивом веб-страниц от Internet Archive. Плагин сканирует публикации на WordPress, проверяет все внешние ссылки и сверяется с архивом.

Если нужной страницы в архиве ещё нет, инструмент сам создаёт её снимок. А если оригинальная ссылка со временем «умирает», читателя автоматически перенаправляют на сохранённую версию.

При этом плагин работает аккуратно: он регулярно перепроверяет ссылки, и если исходная страница снова становится доступной, редирект на архив отключается, а пользователь снова попадает на оригинал. Вдобавок Link Fixer архивирует и сами публикации владельца сайта, помогая сохранить их для будущего.

Управление плагином довольно простое: например, можно настроить, как часто он будет проверять ссылки (по умолчанию — раз в три дня). В итоге инструмент работает в фоне и почти не требует внимания.

Описание и всю подробную информацию можно найти на GitHub.

RSS: Новости на портале Anti-Malware.ru