Google Cloud Expande Família de TPUs com Novos Chips de Última Geração
A Alphabet revelou nesta terça-feira (22) os dois mais recentes processadores Tensor, mirando diretamente no domínio da Nvidia no mercado de chips de inteligência artificial.
Os novos TPU v5e e TPU v5p chegam ao mercado com promessas ousadas: velocidade até 2,5 vezes superior à geração anterior e custos até 40% menores por operação de treinamento de modelos de IA. O anúncio, feito durante o evento Google Cloud Next em São Francisco, marca a maior investida da gigante de buscas contra a dominante Nvidia desde o lançamento dos primeiros TPUs em 2016.
Arquitetura e Especificações: O Que Há de Novo
Os novos chips representam uma reestruturação significativa na estratégia de hardware de IA do Google. Enquanto o TPU v5e foi projetado para inferência em larga escala — o processo pelo qual modelos já treinados geram respostas — o TPU v5p foi desenvolvido especificamente para treinamento de modelos foundation, incluindo grandes modelos de linguagem (LLMs) e sistemas de IA generativa.
Segundo dados técnicos liberados pela empresa:
- TPU v5e: 196 TFLOPs por chip, interconexão de 400 Gbps
- TPU v5p: 459 TFLOPs por chip, memória HBM aumentada em 3x em relação ao v4
- Suporte a clusters de até 8.960 chips operando em paralelo
- Integração nativa com o Vertex AI e Google Kubernetes Engine (GKE)
"Estes são os TPUs mais poderosos que já construímos. O v5p foi projetado especificamente para treinar os modelos de próxima geração que vão definir a próxima década da IA." — Richard Seroter, diretor de gerenciamento de produtos do Google Cloud
A empresa também anunciou expansão da disponibilidade global, com data centers em São Paulo, México, Madri e Varsóvia recebendo os novos chips até o terceiro trimestre de 2026.
Contexto de Mercado: A Guerra dos Chips de IA
O lançamento ocorre em um momento crítico para a indústria. O mercado global de aceleradores de IA para data centers foi avaliado em US$ 53,4 bilhões em 2025, com projeções de alcançar US$ 171,5 bilhões até 2029, segundo a IDC. A Nvidia ainda domina com aproximadamente 80% de participação, mas alternativas como TPUs do Google, chips da AMD (MI300X), AWS Trainium/Inferentia e Microsoft Maia estão ganhando tração.
Posicionamento Competitivo
| Fabricante | Chip Principal | TFLOPs | Foco Principal |
|---|---|---|---|
| Nvidia | H200 | 1.979 | Treinamento de ponta |
| TPU v5p | 459 | Custo-eficiência | |
| AMD | MI300X | 1.653 | Memória unificada |
| AWS | Trainium2 | 638 | Ecossistema AWS |
A estratégia do Google difere fundamentalmente da Nvidia. Enquanto a empresa verde otimiza seus chips para flexibilidade total, os TPUs são projetados para workloads específicos de machine learning, oferecendo vantagens em custo quando usados com frameworks como JAX, TensorFlow e PyTorch (via exportação).
Implicações para a América Latina
Para o mercado latino-americano, o anúncio carrega implicações diretas. A região representa uma das áreas de crescimento mais acelerado para serviços de IA em nuvem, com o Brasil registrando crescimento de 47% em adoção de serviços de IA generativa em 2025, conforme dados da Brasscom.
Os novos TPUs arriving a data centers locais podem representar:
- Redução de latência para aplicações de IA serving no Brasil e México
- Custos menores para startups locais treinando modelos personalizados
- Sovereign AI: capacidade de processar dados sensíveis dentro das fronteiras nacionais
"A expansão dos TPUs para a América Latina é uma resposta direta à demanda por infraestrutura de IA que respeite regulamentações como a LGPD. Muitas empresas brasileiras não podem enviar dados de clientes para data centers nos EUA para processamento de IA." — Fernanda Weiden, CEO da startup de IA generativa Noid, baseada em São Paulo
O Google Cloud reportou crescimento de US$ 12,3 bilhões em receita no último trimestre, com segmento de IA representando 28% do crescimento year-over-year — um salto significativo em relação aos 12% do mesmo período em 2024.
O Que Esperar: Próximos Passos e Previsões
Curto Prazo (2026)
- Disponibilidade geral dos TPU v5e esperada para maio de 2026
- TPU v5p em preview privado até julho, GA em setembro
- Preços por hora a partir de US$ 1,35 (v5e) e US$ 2,98 (v5p)
Médio Prazo (2027-2028)
- Integração com modelos do Google Gemini 3 nativamente otimizados
- Expectativa de redução de 30-50% nos custos de treinamento para modelos de até 100 bilhões de parâmetros
- Possível lançamento de TPU v6 com arquitetura de memória泼溅 (compute-in-memory)
Perspectivas de Mercado
Analistas do Bernstein Research projetam que os TPUs do Google podem capturar 8-12% do mercado de treinamento de IA em nuvem até 2028, especialmente em cargas de trabalho de inferência em larga escala onde a relação custo-performance é mais importante que o desempenho máximo.
A grande questão permanece: a Nvidia responderá com novos chips ou preços mais competitivos? Com o Blackwell B200 já no mercado e Rubin projetado para 2027, a competição na infraestrutura de IA promete se intensificar — e os clientes latino-americanos estarão entre os maiores beneficiários.
Fontes: Google Cloud, IDC, Bernstein Research, Brasscom. Dados de mercado conforme disponíveis em abril de 2026.



