Google усилила контроль над исследованиями с щекотливыми темами

Google усилила контроль над исследованиями с щекотливыми темами

Google усилила контроль над исследованиями с щекотливыми темами

Судя по внутренним документам, попавшим в руки журналистов, в компании Google введен дополнительный уровень контроля над научными публикациями, способными пошатнуть ее репутацию.  Проводимые в Google исследования нередко поднимают вопросы этического или политического характера, и позиция авторов при этом бывает нелицеприятной.

Закручивание гаек в цензуре началось вскоре после увольнения Тимнит Гебру (Timnit Gebru),  руководителя исследований Google по вопросам этики интеграции искусственного интеллекта в программные продукты. В своей работе автор поставила под сомнение объективность алгоритмов ИИ, а также заявила, что подобные средства имитации речи создадут проблемы для маргинализованных слоев населения.

Последние годы Google, по данным Reuters, активно внедряет ИИ в свои сервисы, используя эту технологию для интерпретации сложных поисковых запросов, принятия решений по рекомендациям на YouTube и автозаполнения предложений в письмах пользователей Gmail.

Перекосы в таких Google-сервисах, согласно новой политике компании, являются «деликатным» вопросом, наряду с такими темами, как сбор данных геолокации, персонализация веб-контента, безопасность жилища, беспилотные автомобили, страхование, религия, COVID-19, добыча нефти, взаимоотношения с Китаем, Израилем и Ираном.

В ходе интервью исследователи из Google отметили, что им настоятельно рекомендовано подавать материалы в «позитивном ключе» и подвергнуть их дополнительному аудиту на наличие «дезинформации, предвзятых или несправедливых заключений», а также субъективности в подборе содержимого, способной привести к поляризации мнений. Более того, новый уклад компании расширяет возможность вмешательства сверху на заключительных этапах работы исследователей.

Комментируя нововведения Google, журналисты не преминули отметить, что на своем сайте компания во всеуслышание утверждает, что ее исследователи пользуются «значительной» свободой. Усиление цензуры, по мнению «Рейтер», в данном случае излишне: все научные публикации и без того достаточно тщательно просеиваются, проходя через советы по этике, армии рецензентов и другие привычные этапы оценки.

К сожалению, таковы издержки проведения исследований под крылом крупной компании. Если у нее достаточно большой авторитет в определенной сфере, она неизбежно будет пытаться пресечь публикации работ, способных ущемить ее интересы. Так, помимо Google технологии ИИ ныне активно продвигают такие гиганты ИТ-индустрии, как Facebook, Apple и Microsoft, и у них тоже есть причины опасаться критики в свой адрес.

Путин поручил запустить пилот по обучению ИИ и информационной безопасности

Владимир Путин поручил запустить в Московской области пилотный проект по обучению технологиям искусственного интеллекта и информационной безопасности. Соответствующие поручения опубликованы на сайте Кремля по итогам заседания Госсовета.

Проект правительство должно реализовать совместно с властями региона. Доклад о его запуске президент ожидает до 1 июля — его представят премьер-министр Михаил Мишустин и губернатор Подмосковья Андрей Воробьёв.

Кроме того, к 15 июля поручено включить компетенции в сфере ИИ в образовательные и профессиональные стандарты. Речь идёт о том, чтобы навыки работы с искусственным интеллектом стали частью формальной системы подготовки специалистов.

Отдельно поставлена задача организовать программы повышения квалификации для преподавателей и учителей по направлениям ИТ и ИИ — с участием технологических компаний.

Тема развития искусственного интеллекта ранее уже звучала на федеральном уровне. В ноябре, выступая на конференции AI Journey-2025, президент заявил о необходимости создать штаб по управлению отраслью ИИ и поручил правительству совместно с регионами сформировать национальный план внедрения генеративного ИИ.

Тогда Владимир Путин подчеркнул, что зависимость от иностранных нейросетей недопустима, поскольку речь идёт о технологическом суверенитете страны. Новые поручения, судя по всему, становятся практическим шагом в этом направлении.

Анастасия Федорова, руководитель образовательных программ Positive Education, поделилась с Anti-Malware.ru своим комментарием:

«Поручение о запуске пилотного проекта по обучению ИИ и кибербезопасности —  сигнал о приоритете повышения безопасности в цифровой среде. Это поможет интегрировать ключевые компетенции в образование и сформировать культуру кибербезопасности на всех уровнях.

Внимание к вопросу кибербезопасности на самом высшем уровне говорит о том, что киберугрозы воспринимаются как серьезная проблема, решение которой — межотраслевая задача.

Аналитики Positive Technologies в 2026 году прогнозируют рост успешных атак на компании и частных лиц на 30–35% по сравнению с 2025 годом. Важно понимать, что сегодня личный и корпоративный кибербез неразделимы — часть атак на бизнес начинается с компрометации устройств или аккаунтов сотрудников в личном пространстве. Поэтому обучение должно фокусироваться на реальных повседневных сценариях, где ошибка одного человека может запустить цепную реакцию до уровня компании. В Positive Education мы активно развиваем именно такие корпоративные программы».

RSS: Новости на портале Anti-Malware.ru