Google ведет переговоры с Министерством обороны США о соглашении, которое позволит использовать его модели искусственного интеллекта Gemini в режимах, относящихся к защищенным и засекреченным вычислениям. Об этом говорится в сообщении, основанном на информации от двух источников, знакомых с ходом обсуждений. Если контракт будет согласован, это станет заметным поворотом в подходе Google к сотрудничеству с военными ведомствами и расширит присутствие компании в качестве технологического подрядчика Пентагона.
Что именно обсуждают в переговорах
Суть договоренностей, по данным о переговорах, сводится к тому, чтобы Пентагон получил возможность применять разработки Google для любых законных задач. При этом Google, как предполагается, стремится заранее закрепить ограничения в самом контракте — чтобы снизить риски применения ИИ в спорных сценариях.
В частности, предлагаемые формулировки должны препятствовать использованию системы для внутреннего массового наблюдения, а также для автономных вооружений — включая функции наведения и поражения — без должного контроля со стороны человека. Под «надлежащим человеческим надзором» в таких контекстах обычно подразумевается участие оператора в принятии решений, проверка действий системы и предотвращение ситуаций, когда оружие действует полностью самостоятельно и без возможности вмешательства.
Почему это важно: смена позиции Google
Речь идет о существенном изменении курса. Ранее Google занимала более осторожную позицию в вопросах военного сотрудничества, и ее участие в проектах для Пентагона было предметом публичных споров. Потенциальное соглашение с оборонным ведомством фактически повышает роль компании в цепочке поставок технологий для американской армии — то есть делает ее одним из ключевых поставщиков ИИ-инструментов для государственных задач.
Параллели с контрактом OpenAI
Предполагаемые условия, которые Google предлагает включить в договор, внешне напоминают соглашение, достигнутое ранее в этом году между Пентагоном и OpenAI. Глава OpenAI Сэм Альтман (Sam Altman) в этом контексте, как сообщалось, обращался к оборонному ведомству с просьбой предоставить аналогичные условия всем компаниям в отрасли.
Логика такого запроса проста: если государство выдвигает определенный стандарт безопасного использования ИИ, то его применение желательно распространить на всех участников рынка. Это помогает избежать ситуации, когда один поставщик получает более выгодные или более жесткие условия, а также формирует единый подход к контролю рисков.
Останутся ли предложения Google в финальном контракте
На данный момент неясно, будут ли предложенные Google формулировки включены в итоговый документ. По сути, спорные темы — внутреннее наблюдение и автономность — уже становились причиной конфликтов между оборонным ведомством и компаниями, разрабатывающими ИИ.
Так, вопросы наблюдения и автономного применения оказались в центре разногласий, которые разгорелись в феврале между Пентагоном и Anthropic. В качестве предыстории называют январскую фазу конфликта: он начался после того, как Anthropic отказалась ослабить «предохранительные ограждения» (safety guardrails) в своих системах.
«Safety guardrails» — это встроенные механизмы безопасности, которые ограничивают поведение модели и снижают вероятность небезопасных или запрещенных сценариев. В подобных спорах стороны обычно расходятся в том, насколько именно нужно менять эти ограничения для нужд военных контрактов.
Как конфликт с Anthropic поставил вопрос о “риске цепочки поставок”
Пентагон охарактеризовал Anthropic как потенциальный риск для «цепочки поставок» (supply-chain risk). В корпоративном смысле это означает, что если конкретный поставщик не готов соответствовать требованиям заказчика по безопасности или совместимости, то его участие может поставить под угрозу выполнение государственных задач. В итоге возникла ситуация, при которой правительственные контракты компании оказались под угрозой.
Ключевые точки, которые, судя по обсуждениям, будут влиять на исход переговоров
- Возможность использования Gemini для любых законных целей в рамках требований контракта.
- Запрет или жесткое ограничение применения ИИ для внутреннего массового наблюдения.
- Ограничения на автономные вооружения, включая поражение и наведение, без «надлежащего человеческого надзора».
- Согласование условий с учетом прецедента OpenAI и подходов, обсуждавшихся в переговорах с другими игроками рынка.
- Риск, что спорные параметры безопасности могут стать предметом торга и задержать финализацию соглашения.
Если контракт будет подписан, он не только расширит присутствие Google на рынке оборонных технологий, но и закрепит в коммерческом документе один из наиболее чувствительных вопросов современной ИИ-этики: где проходит граница между полезной автоматизацией и применением, которое требует строгого контроля человека.
