Google продвигает вперед значимое соглашение, позволяющее Министерству обороны США использовать свои модели искусственного интеллекта для целей, составляющих государственную тайну. Это решение принято, несмотря на сильное внутреннее сопротивление: сотни сотрудников призвали компанию избегать военных применений ИИ, которые они считают опасными или неподдающимися контролю.
О сделке, впервые сообщившей The Information, известно, что она позволяет Пентагону использовать инструменты ИИ от Google для «любых законных государственных целей», включая чувствительные военные операции. Подписывая это соглашение, Google присоединяется к растущему числу технологических гигантов — включая OpenAI и xAI — которые заключили аналогичные контракты на работу с секретными данными с военными США.
Объем соглашения и меры безопасности
Хотя договор предусматривает широкое военное использование, он включает конкретные ограничения. В соглашении прямо указано, что системы ИИ Google не предназначены для массового внутреннего наблюдения или для автономного оружия без контроля человека.
Однако условия также уточняют, что у Google нет права вето на законные оперативные решения, принятые правительством. Более того, компания обязуется помогать в настройке параметров безопасности и фильтров по запросу государственных структур. Представитель Google заявил изданию CNET, что предоставление доступа к API коммерческих моделей в соответствии со стандартными практиками является «ответственным подходом» к поддержке национальной безопасности, вновь подтвердив приверженность компании принципу запрета на автономное оружие без контроля и на внутреннее наблюдение.
Ключевой контекст: Этот сдвиг означает отход от предыдущей позиции Google. В феврале компания обновила свои принципы в области ИИ, сделав акцент на том, что «демократии должны лидировать в разработке ИИ» и что сотрудничество между компаниями и правительствами необходимо для защиты людей и поддержки национальной безопасности. Это заменило более ранние формулировки, строго запрещающие технологии, которые могут причинить общий вред или нарушить права человека.
Внутреннее сопротивление и исторические противоречия
Объявление вызвало значительную волну критики внутри Google. Более 600 сотрудников подписали открытое письмо на имя генерального директора Сундара Пичая, призывая компанию «отказаться делать наши системы ИИ доступными для задач, составляющих государственную тайну».
Сотрудники утверждают, что их близость к технологии налагает ответственность предотвращать ее самые неэтичные применения. Их опасения выходят за рамки смертоносного автономного оружия и массового наблюдения: они беспокоятся, что работа с секретными данными устраняет прозрачность, делая невозможным для сотрудников узнать, как и где именно развертываются модели.
Это напряжение отзывается одним из самых заметных внутренних конфликтов в истории Google: протестами 2018 года против Project Maven — программы Пентагона, использующей ИИ для анализа видеозаписей с дронов. Тогда тысячи работников выступили против контракта, что в итоге привело к решению Google не продлевать его. С тех пор позиция компании по отношению к военному ИИ заметно смягчилась.
Почему это важно
Это развитие событий ставит критические вопросы о роли частных технологических компаний в сфере национальной безопасности и пределах корпоративного контроля.
- Потеря прозрачности: В отличие от коммерческих приложений, секретные военные применения происходят в тени. Сотрудники и общественность не могут аудировать поведение этих моделей в реальных боевых или разведывательных сценариях.
- Отраслевой тренд: Поскольку OpenAI и xAI также взаимодействуют с Пентагоном, это сигнализирует о более широком сдвиге в отрасли, где основные разработчики ИИ становятся неотъемлемой частью военной инфраструктуры, стирая грань между гражданскими технологическими инновациями и оборонными возможностями.
- Этическая дилемма: Основой конфликта остается вопрос: может ли компания заявлять о своей приверженности этическим принципам ИИ, одновременно предоставляя инструменты для непрозрачных и потенциально вредных государственных операций?
«Мы хотим, чтобы ИИ приносил пользу человечеству, а не видел, как он используется негуманными или чрезвычайно вредными способами», — говорится в открытом письме, подчеркивая глубокий моральный раскол в коллективе.
Заключение
Решение Google о партнерстве с Пентагоном в области секретных проектов с ИИ представляет собой стратегический поворот в сторону сотрудничества в сфере национальной безопасности, согласуя действия компании с другими крупными фирмами-разработчиками ИИ. Однако этот шаг возобновил жаркие внутренние дебаты, подчеркивая растущую сложность баланса между этической ответственностью и требованиями государства в быстро меняющейся сфере искусственного интеллекта.


























