В России готовят систему для учёта IP-адресов и защиты от кибермошенников

В России готовят систему для учёта IP-адресов и защиты от кибермошенников

В России готовят систему для учёта IP-адресов и защиты от кибермошенников

Во втором пакете мер по борьбе с кибермошенничеством появилось новое предложение — создать государственную систему, которая будет учитывать, какой стране принадлежат IP-адреса. Операторы связи должны будут передавать туда данные о местоположении сетевых адресов.

Идея в том, чтобы использовать эти сведения не только для статистики, но и для защиты: например, ограничивать доступ к виртуальным АТС (ВАТС) с зарубежных IP, которые часто используют мошенники.

По словам Юрия Силаева, заведующего лабораторией доверенного искусственного интеллекта РТУ МИРЭА, такая база может стать полезным инструментом для кибербезопасности.

Она позволит фильтровать трафик на национальном уровне и блокировать подключения с территорий, откуда регулярно идут DDoS-атаки или кибератаки на критическую инфраструктуру.

«Это повысит устойчивость КИИ к внешним воздействиям и поможет бороться с фишингом и мошенничеством, ведь большинство подобных ресурсов размещаются за рубежом», — поясняет эксперт.

Функции по сбору и хранению данных, согласно проекту закона, будут возложены на Роскомнадзор, а оператором системы станет Радиочастотная служба.

Директор Координационного центра доменов .RU/.РФ Андрей Воробьёв отмечает, что сейчас зарубежные геосервисы часто ошибаются — например, по Крыму и новым регионам России они до сих пор показывают украинскую принадлежность. Из-за этого могут неправильно блокироваться российские пользователи в рамках борьбы с зарубежными атаками.

Собственная база позволит точнее контролировать сетевые потоки и быстрее выявлять инциденты — от утечек данных до попыток взлома.

Однако Силаев, которого цитирует «RG.RU», предупреждает: у такой системы есть и риски. Централизованное хранение информации создаёт единую точку отказа.

Если база будет взломана, злоумышленники получат карту всей сетевой инфраструктуры страны. Кроме того, совокупность IP-адресов с другими данными может позволить деанонимизировать пользователей. Ошибки в системе тоже могут обернуться массовыми блокировками легитимных сайтов.

Коммерческий директор компании «Код Безопасности» Фёдор Дбар считает, что подобная система усилит защиту от кибератак, ведь принадлежность IP к стране — один из факторов анализа при обнаружении аномалий в трафике.

«Это не революция, но важный шаг для повышения эффективности защиты», — говорит он.

По мнению эксперта, риски минимальны, потому что эти данные и так общедоступны, просто сейчас нет единого государственного реестра с проверенной информацией.

Подобные решения существуют и за рубежом. Например, в Китае действует знаменитый «Великий китайский файрвол», который фильтрует трафик с учётом геолокации. В США и Европе таких централизованных систем нет, но работают коммерческие и национальные сервисы, помогающие блокировать вредоносный трафик.

Разница, как отмечает Силаев, в подходах: на Западе подобные технологии в первую очередь направлены на защиту от кибератак, а не на контроль информационных потоков.

Напомним, ранее мы предупреждали об угрозе, которую для «белых» хакеров несут меры по защите от мошенников. Компании, работающие в сфере кибербезопасности, считают это прямым ограничением для исследователей, занимающихся поиском уязвимостей.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Языковые модели тупеют от мусорных данных из интернета

Группа исследователей из Университета Техаса и Университета Пердью предложила необычную идею: большие языковые модели (LLM), вроде ChatGPT, могут «тупить» от некачественных данных примерно так же, как люди — от бесконечных часов в соцсетях.

В отчёте специалисты выдвигают «гипотезу гниения мозга LLM». Суть проста: если продолжать дообучать языковую модель на «мусорных» текстах из интернета, она со временем начнёт деградировать — хуже запоминать, терять логику и способность к рассуждению.

Авторы понимают, что отличить хороший контент от плохого сложно. Поэтому они решили изучить 100 миллионов твитов с HuggingFace и отобрать те, что подходят под определение «junk».

В первую группу попали короткие твиты с большим количеством лайков и репостов — те самые, которые вызывают максимальное вовлечение, но несут минимум смысла. Во вторую — посты с «низкой семантической ценностью»: поверхностные темы, кликбейт, громкие заявления, конспирология и прочие «триггерные» темы.

 

Чтобы проверить качество отбора, результаты GPT-4o сверили с оценками трёх аспирантов — совпадение составило 76%.

Учёные обучили четыре разные языковые модели, комбинируя «мусорные» и «качественные» данные в разных пропорциях. Потом прогнали их через тесты:

  • ARC — на логическое рассуждение,
  • RULER — на память и работу с длинным контекстом,
  • HH-RLHF и AdvBench — на этические нормы,
  • TRAIT — на анализ «личностного стиля».

Результаты оказались любопытными: чем больше в обучающем наборе было «интернет-мусора», тем хуже модель справлялась с задачами на рассуждение и память. Однако влияние на «этичность» и «черты личности» было неоднозначным: например, модель Llama-8B с 50% «мусора» даже показала лучшие результаты по «открытости» и «низкой тревожности».

Исследователи сделали вывод: переизбыток интернет-контента может привести к деградации моделей и призвали разработчиков тщательнее отбирать данные для обучения. Особенно сейчас, когда всё больше онлайн-текста создаётся уже самими ИИ — и это может ускорить эффект так называемого model collapse, когда модели начинают обучаться на собственных ошибках.

Учёные шутят: если так пойдёт и дальше, возможно, придётся вернуться к книгам — хотя бы ради того, чтобы «накормить» модели чем-то действительно качественным.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru