Meta diversifica infraestrutura de IA com chips Graviton da AWS
A Meta fechou um acordo estimado em bilhões de dólares com a Amazon Web Services (AWS) para incorporar centenas de milhares de processadores Graviton em sua infraestrutura de inteligência artificial. A decisão marca uma mudança estratégica significativa na forma como a gigante das redes sociais alimenta seus modelos de machine learning, abandonando parcialmente a dependência exclusiva dos GPUs NVIDIA que dominam o mercado de IA há anos.
O acordo, revelado nesta quinta-feira (24), representa a maior parceria já firmada entre as duas empresas no segmento de infraestrutura tecnológica. Analistas do setor estimam que o valor do contrato ultrapassa US$ 5 bilhões ao longo de múltiplos anos, abrangendo não apenas a aquisição de chips, mas também serviços de nuvem, suporte técnico e desenvolvimento conjunto de otimizações específicas para as necessidades da Meta.
Como os chips Graviton transformam o processamento de IA
Os AWS Graviton3 e Graviton4 são processadores baseados na arquitetura ARM, desenvolvidos internamente pela Amazon como alternativa aos chips tradicionais x86. Embora não sejam usados para treinamento de grandes modelos de linguagem do zero — tarefa que ainda requer GPUs de alta performance como a linha H100 da NVIDIA —, os Graviton se destacam em cargas de trabalho de inferência, onde modelos já treinados processam solicitações em tempo real.
Vantagens competitivas dos Graviton
- Eficiência energética: consumo até 40% menor de energia comparado a processadores x86 equivalentes
- Custo por performance: economia estimada de 20 a 30% em custos operacionais para tarefas de inferência
- Escalabilidade: capacidade de provisionar milhares de instâncias simultaneamente na infraestrutura AWS
- Integração nativa: compatibilidade com frameworks populares como PyTorch, TensorFlow e JAX
Para a Meta, que opera mais de 3,2 bilhões de usuários ativos mensais em suas plataformas (Facebook, Instagram, WhatsApp e Messenger), a inferência representa o grosso do consumo computacional. Cada interação com o Meta AI, o assistente virtual integrado aos aplicativos, ou com os algoritmos de recomendação que alimentam o feed dos usuários, exige bilhões de operações de inferência diariamente.
"A escolha pelo Graviton não é uma rejeição à NVIDIA, mas uma estratégia de diversificação inteligente. A Meta precisa de um portfólio diversificado para otimizar custos e reduzir riscos de dependência de fornecedor único", explica Carlos Silva, analista sênior de infraestrutura tecnológica da IDC Brasil.
Contexto histórico: a corrida por chips de IA
A parceria Meta-AWS acontece em um momento de intensa reestruturação no mercado de semicondutores para inteligência artificial. Historicamente dominada pela NVIDIA, que detém aproximadamente 80% do mercado de GPUs para data centers, a indústria testemunhou nos últimos dois anos uma onda de investimentos em alternativas proprietárias.
A Google iniciou essa tendência em 2020 com seus TPUs (Tensor Processing Units), usados internamente para alimentar o Gemini e os serviços do Google Cloud. A Microsoft desenvolveu os chips Maia 100 para cargas de trabalho de IA no Azure. Já a Amazon acelerou o desenvolvimento dos Graviton a partir de 2021, quando a escassez global de chips agravou a dependência das big techs de fornecedores únicos.
Cronologia da diversificação de hardware de IA
- 2020: Google lança TPUs v4, estabelecendo precedente para chips customizados
- 2021: Escassez de semicondutores expõe vulnerabilidades na cadeia de suprimentos
- 2023: Microsoft anuncia Maia 100 para Azure AI
- 2024: AWS amplia Graviton3 para mais de 150 serviços de nuvem
- 2025: Meta firma acordo bilionário para adoção em escala de Graviton
A NVIDIA respondeu com sua plataforma CUDA e os ecossistemas cuDNN e TensorRT, criando uma moat (fosso de proteção) tecnológico difícil de replicar. No entanto, empresas como a Meta argumentam que a diversificação de infraestrutura não apenas reduz custos, mas também cria redundância estratégica essencial em um setor onde interrupções podem custar milhões por hora.
Impacto no mercado e relevância para a América Latina
O acordo entre Meta e Amazon reverbera além das fronteiras dos Estados Unidos, com implicações diretas para o ecossistema de tecnologia na América Latina. O Brasil, maior mercado digital da região com mais de 181 milhões de usuários de internet, sente os efeitos dessas mudanças de forma indireta — seja na qualidade dos serviços oferecidos por plataformas globais, seja nas oportunidades para empresas locais de IA.
O que muda para o ecossistema latino-americano
- Redução de latência: data centers regionais da AWS podem se beneficiar de otimizações desenvolvidas para Meta
- Democratização tecnológica: tecnologias de inferência mais acessíveis podem baratear soluções de IA para startups
- Formação de profissionais: demanda por habilidades em arquitetura ARM e otimização de modelos cresce
- Competição regional: provedores locais enfrentam pressão para oferecer alternativas competitivas
A AWS opera 10 regiões na América Latina (incluindo São Paulo e Virgínia do Norte para o mercado norte-americano), com planos de expansão. A Meta, por sua vez, mantém centros de engenharia em São Paulo, Bogotá e Buenos Aires, empregando mais de 2.000 profissionais na região.
"O acordo sinaliza uma nova era de colaborações cross-industry entre big techs. Não é mais questão de querer fazer tudo internamente — mesmo empresas do porte da Meta reconhecem que parceria estratégica é essencial", avalia Fernanda Morales, CEO da consultoria TechLA Intelligence.
O que esperar: tendências para 2025 e além
O acordo Meta-AWS é apenas o começo de uma transformação mais ampla no mercado de infraestrutura de IA. Especialistas preveem que os próximos 18 meses trarão:
- Novos acordos de chip: outras big techs devem seguir o exemplo de diversificação
- Consolidação de fornecedores: mercado de chips para IA deve experimentar ondas de fusões e aquisições
- Eficiência como prioridade: custo por token de inference se torna métrica central
- ARM vs x86: arquitetura ARM ganha tração significativa em data centers
- IA edge computing: processamento distribuído ganha relevância com chips mais eficientes
Para a Meta, o acordo com a Amazon representa apenas uma peça do quebra-cabeça. A empresa continua investindo pesado em seus próprios chips de inferência — os MTIA (Meta Training and Inference Accelerator) — além de manter parcerias com a NVIDIA para cargas de trabalho de treinamento. A estratégia de multi-fornecedor parece ser o caminho escolhido por quem quer dominar a próxima geração de inteligência artificial.
Fontes: Olhar Digital, IDC Brasil, TechLA Intelligence, relatórios financeiros da Meta (2024), dados da ANATEL sobre internet no Brasil.



