Специалисты Click Forensics обнаружили клик-ботнет

Специалисты Click Forensics обнаружили клик-ботнет

Специалисты компании Click Forensics сообщили об обнаружении ботнета, архитектура которого создана для воспроизведения настоящего поискового рекламного трафика. В терминологии Click Forensics данный ботнет получил название Bahama Botnet, так как изначально она перенаправляла трафик через 200 000 припаркованных доменов на Багамских островах, правда сейчас сеть уже использует ресурсы преимущественно в Великобритании, Нидерландах и США.

Работа клик-ботнетов заключается в следующем: клики по рекламным ссылкам делают вредоносные программы, предварительно размещенные на зараженных компьютерах. Алгоритмы действия таких ботнетов различны, но цель всегда одна - "накрутить" как можно больше фиктивных переходов по ссылкам, чтобы те выглядели как реальные клики пользователей, заинтересованных в объявлениях.

Для создания видимости подлинных кликов ботнет Bahama маскировал источники кликов, чтобы системы отлова фиктивных кликов не срабатывали. В качестве источника маскировки указывались учебные заведения западных стран, корпоративные сети и так далее. Кроме того, бот-сеть также контролировала активность и интервалы кликов, что еще больше затрудняло обнаружение факта мошенничества.

В Click Forensics говорят, что уже оповестили крупнейшие рекламные сети о своей находке. Однако в Yahoo и Google пока деятельность Bahama Botnet пока не комментируют.

cybersecurity.ru 

На Википедии нашли галлюцинации в ИИ-переводах и ввели ограничения

У Википедии снова случился спор про ИИ, на этот раз из-за переводов. Редакторы ввели новые ограничения для части переводчиков, связанных с Open Knowledge Association (OKA), после того как в ряде ИИ-переводов нашли галлюцинации: подменённые источники, неподтверждённые фразы и даже абзацы, опиравшиеся на материалы, не связанные с темой статьи.

Сама OKA — это швейцарская некоммерческая организация, которая платит стипендии переводчикам и прямо пишет на своём сайте, что использует большие языковые модели, чтобы автоматизировать значительную часть работы.

В англоязычном сегменте Википедии у проекта есть отдельная страница, там сказано, что OKA финансирует переводчиков и работает с несколькими языками, включая русский, испанский, французский и немецкий.

Проблему заметили не «в теории», а на конкретных статьях. Один из редакторов, Ильяс Леблё, рассказал 404 Media, что при выборочной проверке быстро нашёл ошибки: где-то источники были перепутаны, где-то появлялись фразы без верификации, а в одном случае в статью про выборы во французский Сенат попали абзацы, вообще не подтверждавшиеся указанными материалами.

Отдельно редакторов смутило, как именно была организована работа. Публичные инструкции OKA для переводчиков на Meta-Wiki подтверждают, что организация обучает новичков и публикует свои рекомендации открыто. В обсуждении вокруг инцидента также всплывали указания использовать популярные LLM для чернового перевода и правки лидов статей; 404 Media пишет, что раньше в инструкциях фигурировал и Grok, хотя позднее акцент сместили на другие модели.

В итоге Википедия не стала запрещать ИИ-переводы целиком, но решила ужесточить подход именно к переводчикам OKA. По правилам, которые цитирует 404 Media, если такой переводчик за шесть месяцев получает четыре корректно вынесенных предупреждения за непроверяемый контент, то при следующем нарушении его могут заблокировать без дополнительных предупреждений. А материалы, добавленные таким участником, могут удалить, если за них не возьмёт ответственность другой редактор с хорошей репутацией.

У самой OKA своя версия истории. Основатель организации Джонатан Циммерманн заявил, что переводчикам платят почасово, а не за количество статей, и что фиксированной нормы публикаций у них нет. По его словам, организация делает ставку на качество, признаёт, что ошибки случаются, и уже усиливает контроль: вводит второй независимый этап проверки через другую LLM, но не как замену человеку, а как дополнительный фильтр перед ручной верификацией.

RSS: Новости на портале Anti-Malware.ru