Google усилила контроль над исследованиями с щекотливыми темами

Google усилила контроль над исследованиями с щекотливыми темами

Google усилила контроль над исследованиями с щекотливыми темами

Судя по внутренним документам, попавшим в руки журналистов, в компании Google введен дополнительный уровень контроля над научными публикациями, способными пошатнуть ее репутацию.  Проводимые в Google исследования нередко поднимают вопросы этического или политического характера, и позиция авторов при этом бывает нелицеприятной.

Закручивание гаек в цензуре началось вскоре после увольнения Тимнит Гебру (Timnit Gebru),  руководителя исследований Google по вопросам этики интеграции искусственного интеллекта в программные продукты. В своей работе автор поставила под сомнение объективность алгоритмов ИИ, а также заявила, что подобные средства имитации речи создадут проблемы для маргинализованных слоев населения.

Последние годы Google, по данным Reuters, активно внедряет ИИ в свои сервисы, используя эту технологию для интерпретации сложных поисковых запросов, принятия решений по рекомендациям на YouTube и автозаполнения предложений в письмах пользователей Gmail.

Перекосы в таких Google-сервисах, согласно новой политике компании, являются «деликатным» вопросом, наряду с такими темами, как сбор данных геолокации, персонализация веб-контента, безопасность жилища, беспилотные автомобили, страхование, религия, COVID-19, добыча нефти, взаимоотношения с Китаем, Израилем и Ираном.

В ходе интервью исследователи из Google отметили, что им настоятельно рекомендовано подавать материалы в «позитивном ключе» и подвергнуть их дополнительному аудиту на наличие «дезинформации, предвзятых или несправедливых заключений», а также субъективности в подборе содержимого, способной привести к поляризации мнений. Более того, новый уклад компании расширяет возможность вмешательства сверху на заключительных этапах работы исследователей.

Комментируя нововведения Google, журналисты не преминули отметить, что на своем сайте компания во всеуслышание утверждает, что ее исследователи пользуются «значительной» свободой. Усиление цензуры, по мнению «Рейтер», в данном случае излишне: все научные публикации и без того достаточно тщательно просеиваются, проходя через советы по этике, армии рецензентов и другие привычные этапы оценки.

К сожалению, таковы издержки проведения исследований под крылом крупной компании. Если у нее достаточно большой авторитет в определенной сфере, она неизбежно будет пытаться пресечь публикации работ, способных ущемить ее интересы. Так, помимо Google технологии ИИ ныне активно продвигают такие гиганты ИТ-индустрии, как Facebook, Apple и Microsoft, и у них тоже есть причины опасаться критики в свой адрес.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

Через вредоносные Blender-файлы распространяют инфостилер StealC V2

Исследователи обнаружили новую кампанию «с российским следом», в рамках которой злоумышленники распространяют инфостилер StealC V2 через вредоносные файлы Blender, загруженные на крупные 3D-маркетплейсы вроде CGTrader. Blender позволяет выполнять Python-скрипты — они используются для автоматизации, кастомных панелей, ригов и аддонов.

Если у пользователя включена функция Auto Run, скрипты запускаются автоматически при открытии файла. Этим и пользуются атакующие: многие художники и моделлеры включают Auto Run ради удобства.

Специалисты Morphisec заметили, что вредоносные .blend-файлы содержат встроенный Python-код, который загружает лоадер с домена в Cloudflare Workers.

 

Далее загрузчик скачивает PowerShell-скрипт, который подтягивает два ZIP-архива — ZalypaGyliveraV1 и BLENDERX — с IP-адресов, контролируемых злоумышленниками.

Архивы распаковываются во временную папку, откуда создают LNK-файлы в автозагрузке для постоянства. Затем жертве подсовываются два компонента: основной инфостилер StealC и вспомогательный Python-стилер для подстраховки.

 

По данным Morphisec, атакующие используют последнюю версия второго поколения StealC — того самого, который ранее изучала Zscaler. Новый StealC заметно расширил функции:

  • крадёт данные из 23+ браузеров и поддерживает расшифровку паролей на стороне сервера, включая Chrome 132+;
  • поддерживает свыше 100 расширений криптокошельков и более 15 отдельных приложений;
  • ворует данные мессенджеров (Telegram, Discord, Tox, Pidgin), VPN-клиентов (ProtonVPN, OpenVPN) и почтовых программ, включая Thunderbird;
  • оснащён обновлённым механизмом обхода UAC.

При этом свежие версии StealC по-прежнему почти не детектируются антивирусами: Morphisec отмечает, что образец, который они изучали, не был распознан ни одним движком на VirusTotal.

Атака опасна тем, что 3D-маркетплейсы не могут проверять встроенный в файлы код. Художникам, аниматорам и моделлерам рекомендуется:

  • отключить автоматический запуск Python-скриптов: Blender → Edit → Preferences → снять галочку с Auto Run Python Scripts;
  • относиться к 3D-ассетам как к потенциально исполняемому коду;
  • скачивать файлы только у надёжных авторов или тестировать их в песочнице.

Злоумышленники явно ориентируются на профессиональное сообщество 3D-контента — и такая схема может оказаться особенно опасной для студий и фрилансеров, которые работают с большим количеством моделей из внешних источников.

AM LiveПодписывайтесь на канал "AM Live" в Telegram, чтобы первыми узнавать о главных событиях и предстоящих мероприятиях по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru