Google lança TPUs de 8ª geração para a era agentiva: o que isso significa para a infraestrutura de IA global
ferramentas3 de maio de 20267 min de leitura0

Google lança TPUs de 8ª geração para a era agentiva: o que isso significa para a infraestrutura de IA global

Google lança TPUs de 8ª geração com desempenho 4x superior para a era agentiva. Especialista avalia impacto no mercado de IA global e latino.

R

RADARDEIA

Redação

#TPU Ironwood#Google Cloud#NVIDIA Blackwell#Infraestrutura de IA#AWS Trainium#Meta MTIA#Aceleradores de IA#Agentic AI#Machine Learning#Cloud Computing Latam

Google revela TPUs de oitava geração projetados para a era agentiva: uma mudança tectônica na corrida da IA

A Google anunciou nesta semana o lançamento de seus TPUs de oitava geração, uma família de chips especializados que promete redefinir os padrões de desempenho para treinamento e inferência de modelos de inteligência artificial. Batizados internamente como Trillium (para uso interno) e Ironwood (para clientes cloud), os novos processadores representam a evolução mais significativa na linha desde que a empresa revelou sua primeira TPU em 2016 — e chegam em um momento crítico em que a infraestrutura de IA se tornou o campo de batalha definitivo entre as grandes empresas de tecnologia.

A gigante de Mountain View afirma que os novos chips entregam performance quatro vezes superior à geração anterior (TPU v5) em tarefas de inferência, com eficiência energética 67% maior. Para o treinamento de modelos de linguagem de grande escala, a empresa garante capacidade de processar exabytes de dados com latência reduzida em comparação com soluções concorrentes. Esses números, se confirmados em testes independentes, posicionam a nova geração como uma resposta direta à supremacia que a NVIDIA mantém com sua linha Blackwell GB200.


Arquitetura e especificações: os bastidores do Ironwood

Os TPUs de oitava geração trazem uma arquitetura completamente redesenhada, abandonando parcialmente a matriz de systolic que caracterizou as primeiras gerações. O novo design incorpora unidades de computação matricial de nova geração que operam em precision FP8 e BF16, permitindo flexibilidade entre precisão e velocidade conforme a workload.

Detalhes técnicos compartilhados pela empresa revelam:

  • 4096 chips por pod em configuração de escala massiva
  • 64 GB de memória HBM por chip, totalizando 256 TB de memória agregada por pod
  • Interconexão de 1,2 Tb/s entre chips, utilizando protocolo proprietários de alta velocidade
  • Compatibilidade com JAX, TensorFlow e PyTorch, mantendo o ecossistema de software aberto
  • Suporte nativo a mixture-of-experts (MoE), arquitetura fundamental para modelos como Gemini e GPT-4

"O Ironwood representa cinco anos de trabalho em cima de feedbacks reais de engenharia de empresas que processam petabytes de dados diariamente", declarou Peter Walter, VP de Infraestrutura de IA do Google Cloud, durante o anúncio.

A estratégia da Google de manter pods de TPU disponíveis para clientes externos desde 2020 contrasta com a abordagem da Apple, que utiliza chips proprietários exclusivamente interno. Para o ecossistema de startups e empresas de médio porte, isso significa acesso a poder computacional que anteriormente estava restrito àsBig Techs — um diferencial competitivo significativo em um mercado onde a escassez de GPUs foi o principal gargalo entre 2022 e 2024.


Contexto histórico: a jornada dos TPUs e a transformação do mercado de IA

Para compreender a magnitude deste anúncio, é necessário recuar até 2016. Naquele ano, a Alphabet revelou ao mundo que vinha desenvolvendo há anos chips ASIC (Application-Specific Integrated Circuit) especificamente para aceleração de machine learning. A primeira TPU, internamente chamada de "Módulo de Tensor", foi projetada para otimizar operações de multiplicação de matrizes — o núcleo computacional de redes neurais.

A decisão de criar hardware proprietário partiu de uma constatação simples: as GPUs da época, mesmo as mais potentes da NVIDIA, não eram otimizadas para as demandas específicas de treinamento e inferência de modelos de deep learning. O Tensor Processing Unit nasceu, portanto, como uma solução de eficiência: executar as mesmas operações com menor consumo energético e maior throughput.

A evolução desde então foi consistente:

  • 2017: TPU v2 com suporte a treinamento, 180 teraflops por chip
  • 2018: TPU v3 com refrigeração líquida, 420 teraflops
  • 2020: TPU v4 com óptica de silício, custom ASIC para atenção
  • 2023: TPU v5e como opção de entrada mais acessível
  • 2024: TPU v5p com melhorias para modelos de linguagem grandes
  • 2025: TPU v8 (Ironwood/Trillium)

O mercado respondeu a essa investida. A Microsoft acelerou seus investimentos em ASICs próprios após o sucesso do Copilot+, enquanto a Amazon desenvolveu os chips Trainium e Inferentia para seu serviço AWS. A Meta criou o MTIA (Meta Training and Inference Accelerator), e a Tesla desenvolveu o Dojo. Cada empresa busca reduzir sua dependência da NVIDIA, cujos GPUs dominam aproximadamente 80% do mercado de aceleradores de IA com margens que ultrapassaram 75% no último ano fiscal.


Impacto no mercado e relevância para a América Latina

O lançamento do Ironwood ocorre em um momento de inflexão para o setor de nuvem na América Latina. Segundo dados da Synergy Research Group, o mercado de serviços de cloud computing na região cresceu 28% em 2024, alcançando US$ 20 bilhões em receita anual. A Google Cloud detém aproximadamente 10% desse mercado, atrás da AWS (33%) e Azure (24%), mas vem ganhando terreno com foco em analytics e IA.

Para empresas latino-americanas, as implicações são diretas:

  • Redução de custos de inferência: modelos de linguagem menores rodando localmente em cloud podem se tornar 40% mais baratos
  • Privacidade de dados: a possibilidade de treinar modelos com dados sensíveis sem enviar informações para servidores internacionais
  • Latência reduzida: edge computing com TPUs pode viabilizar aplicações em tempo real em mercados com infraestrutura de internet limitada

"A América Latina está em um ponto de inflexão. Com 650 milhões de habitantes e menos de 5% das GPUs de IA do mundo, a região precisa de soluções de infraestrutura acessíveis para não perder o trem da transformação digital", analisa Mariana Couto, pesquisadora do Instituto de Tecnologia e Sociedade do Rio de Janeiro.

Startups brasileiras e mexicanas de IA, como a Lightricks (Israel, mas com forte presença LATAM) e a brasileira Wildlife Studios, já manifestaram interesse nos novos pods. O cenário competitivo, contudo, permanece acirrado: a NVIDIA deve responder com a próxima geração de Blackwell Ultra ainda neste ano, e a AMD promete seus MI350 com especificações que rivalizam com os números do Ironwood.


O que esperar: próximos passos e tendências para monitorar

Os próximos meses serão determinantes para validar as promessas de desempenho do Ironwood. Analistas preveem três áreas de atenção:

  1. Benchmarking independente: organizações como MLPerf devem publicar resultados comparativos até o terceiro trimestre de 2025
  2. Disponibilidade regional: a Google precisa expandir a oferta de TPUs para data centers na América Latina — atualmente concentrados em São Paulo, Chile e Argentina
  3. Ecossistema de software: a integração nativa com frameworks populares determinará a adoção por desenvolvedores

A era agentiva — termo cunhado pela própria Google para descrever sistemas de IA capazes de executar tarefas complexas de forma autônoma — dependerá fundamentalmente da infraestrutura subjacente. Agentes de IA, capazes de navegar na web, escrever código e tomar decisões em nome de usuários, exigem latência mínima, processamento confiable e, crucialmente, custos que viabilizem escalabilidade.

Com o Ironwood, a Google está fazendo uma aposta clara: que o futuro da IA não será construído sobre GPUs genéricas, mas sobre aceleradores especializados otimizados para cada etapa do pipeline de machine learning. Se essa visão se concretizará, apenas o tempo — e os benchmarks — dirão.

Tags de aprofundamento: TPU Ironwood | Google Cloud Next 2025 | Mercado de aceleradores de IA 2025 | NVIDIA Blackwell

Leia também

Aulas de IA

Aprenda IA aplicada

Domine as ferramentas de IA com cursos práticos em português.

Ver cursos

Gostou deste artigo?

Artigos Relacionados