Акции Alphabet, материнской компании Google, в среду прибавили 1,7% после ряда заявлений на конференции Cloud Next ’26. В центре внимания оказались новые разработки в области ИИ-инфраструктуры и расширение партнерских программ — темы, напрямую влияющие на то, как компании будут строить и масштабировать решения на базе искусственного интеллекта в ближайшие годы.
Что стоит за ростом акций Alphabet
Движение котировок связано с тем, что Google Cloud представил обновление вычислительной базы для ИИ и подтвердил курс на «агентные» сценарии — когда модели не просто отвечают на запросы, а выполняют действия в цифровой среде (например, планируют задачи, инициируют процессы и взаимодействуют с инструментами).
TPU 8t и TPU 8i: два направления — обучение и выполнение
В рамках анонсов Google Cloud показал восьмое поколение TPU (Tensor Processing Units) — специализированных ускорителей для задач машинного обучения. TPU — это аппаратная архитектура, оптимизированная под нейросети: она помогает быстрее обрабатывать большие объемы данных и ускорять вычисления при обучении и запуске моделей.
- TPU 8t ориентирован на обучение (training). Google Cloud отмечает, что платформа масштабируется до 9 600 чипов в составе одного «суперпода» (superpod — крупный вычислительный кластер, объединяющий ресурсы для более масштабных нагрузок). При этом заявлена емкость двух петабайт общей памяти. Производительность, по данным компании, в три раза выше по сравнению с предыдущим поколением.
- TPU 8i предназначен для инференса (inference) — то есть для выполнения уже обученных моделей. В этом сценарии Google Cloud делает акцент на скорости и пропускной способности: новый подход предполагает подключение 1 152 TPU в рамках одного пода (pod — вычислительный блок в облачной инфраструктуре). Также увеличена емкость on-chip SRAM (быстрой встроенной памяти на чипе) — она заявлена как в три раза больше, чтобы поддерживать AI-агентов, которым важны низкая задержка и высокая пропускная способность.
Финансирование партнерской экосистемы: фонд на 750 млн долларов
Помимо железа, Google Cloud объявил финансовый инструмент — фонд на 750 млн долларов. Он предназначен для поддержки партнерской экосистемы компании, в которой насчитывается 120 000 участников. Цель — ускорить создание и внедрение «агентных» ИИ-решений (агентных — то есть способных действовать по заданным правилам и целям, используя инструменты и данные).
В рамках программы партнеры смогут получать ресурсы на:
- оценку ценности ИИ-инициатив (AI value assessments);
- быстрое прототипирование;
- разработку и сборку агентов;
- обучение и повышение квалификации (upskilling) для команд в консалтинге, у системных интеграторов и у софтверных партнеров.
Рост клиентского использования ИИ-продуктов
Google Cloud также привел показатели по нагрузке на свои ИИ-модели. Компания заявила, что клиенты, используя прямой программный интерфейс (API), сейчас обрабатывают более 16 млрд токенов в минуту. Это больше, чем было в прошлом квартале: тогда показатель составлял 10 млрд.
Для контекста: токен — это минимальная единица текста, которую модель обрабатывает (часть слова, слово или комбинации символов). Чем выше токен-объем, тем больше вычислительных ресурсов нужно для обработки запросов и тем выше спрос на инфраструктуру.
Отдельно компания отметила, что почти 75% клиентов Google Cloud задействуют продукты компании в сфере ИИ. За последние 12 месяцев 330 клиентов обрабатывали более триллиона токенов каждый.
Партнерство с Thinking Machines Lab и использование NVIDIA GB300
Еще один важный пункт — расширение соглашения с Thinking Machines Lab. В новом формате компания будет применять виртуальные машины A4X Max с ускорителями NVIDIA GB300 GPUs.
По результатам раннего тестирования Thinking Machines Lab сообщила о росте скоростей. В частности, обучение и обслуживание (training and serving) — то есть подготовка моделей и последующее использование в продуктах — увеличились в два раза на A4X Max VMs по сравнению с предыдущим поколением GPU.
Gemini Enterprise Agent Platform и динамика пользовательской базы
Google Cloud представил Gemini Enterprise Agent Platform. Платформа нацелена на то, чтобы организации могли строить, масштабировать и управлять ИИ-агентами — включая вопросы контроля, внедрения и соблюдения корпоративных требований.
Компания также привела метрику по продукту: в первом квартале отмечен рост на 40% в платных ежемесячно активных пользователях (paid monthly active users) по сравнению с предыдущим кварталом для Gemini Enterprise.
Внутренние процессы: доля кода, создаваемого ИИ
На уровне собственных разработок Google сообщил, что 75% всего нового кода в компании теперь генерируется с помощью ИИ и затем одобряется инженерами. Для сравнения: осенью прошлого года эта доля составляла 50%.
Такой подход обычно означает, что ИИ ускоряет рутинные задачи — например, черновики кода, варианты реализации и подсказки по архитектуре, — но финальное решение остается за разработчиками, которые проверяют корректность и безопасность.
Что это означает для рынка
Набор анонсов — от новых TPU и масштабируемых кластеров до фондов для партнеров и платформ для агентных решений — показывает, что Google Cloud делает ставку на инфраструктуру как на стратегическое конкурентное преимущество. Для отрасли это важно: именно вычислительные мощности, экосистема интеграторов и доступность инструментов для внедрения определяют, насколько быстро компании смогут переходить от экспериментов с ИИ к производственным сценариям.
