Contexto da tensão entre o Pentágono e a Anthropic
Anthropic, empresa de inteligência artificial fundada em 2021 por ex-executivos da OpenAI, apresentou na última sexta-feira duas declarações juramentadas perante a Justiça federal da Califórnia, contestando diretamente a classificação do Pentágono que considera a empresa um "risco inaceitável à segurança nacional". Os documentos, obtidos pelo TechCrunch, revelam uma discrepância significativa: enquanto o presidente Donald Trump declarava publicamente que o relacionamento com a Anthropic estava "kaput" (terminado), servidores do Pentágono informavam à empresa que "os dois lados estavam quase alinhados".
A crise entre a Anthropic e o governo dos Estados Unidos não é um evento isolado, mas o capítulo mais recente de uma disputa que se arrasta desde meados de 2025, quando o governo Biden-Harris才开始 implementando regulations mais rígidas para empresas de IA que mantinham contratos com agências de defesa. A Anthropic, avaliada em US$ 18 bilhões após uma rodada de financiamento série E liderada pela Google em 2024, desenvolveu os modelos Claude 3.5 e Claude 3.7, amplamente utilizados em aplicações corporativas e governamentais.
O que revelam os documentos judiciais
As declarações juramentadas, assinadas pelo CEO Dario Amodei e pela directora jurídica da empresa, estabelecem três pontos fundamentais que contradizem a narrativa do governo:
Desconexão entre deliberações internas e posicionamento público: engenheiros e negociadores do Pentágono mantiveram comunicações regulares com a Anthropic até uma semana antes do pronunciamento de Trump, sugerindo progresso nas tratativas sobre protocolos de segurança e transparência algorítmica.
** Alegações nunca formalmente apresentadas**: a Anthropic argumenta que o Pentágono nunca levantou, durante os meses de negociação, as objeções técnicas específicas que agora fundamentam a acusação de "risco inaceitável". Segundo os documentos, a empresa operou sob a premissa de que as conversas caminhavam para um acordo de conformidade.
Equívocos técnicos na avaliação governamental: a empresa sustenta que os especialistas do Pentágono misinterpretaram a arquitetura do
Claude 3.7 Sonnet, confundindo funcionalidades de raciocínio avançado com capacidades potencialmente desestabilizadoras para operações militares.
"A empresa respondeu consistentemente a cada demanda de informação e implementou modificações solicitadas, tudo sob a suposição de que havia boa fé por parte do governo. Descobrir que o Pentágono já havia concluído que somos um 'risco inaceitável' — enquanto isso não foi comunicado em nenhum momento — representa uma violação fundamental do processo devido", escreveu Amodei na declaração.
Posicionamento anterior do Pentágono
Em março de 2025, o Escritório do Secretário de Defesa emitiu um comunicado identificando a Anthropic — ao lado da xAI de Elon Musk e da Cohere — como empresas sob revisão de segurança nacional. A designação não proíbe automaticamente operações comerciais, mas impõe restrições a contratos governamentais e pode complicar parcerias estratégicas com infrastructure providers que operam em ambientes regulados.
Implicações para o mercado de IA e a América Latina
O episódio Anthropic-Pentágono reverbera diretamente no ecossistema tecnológico latino-americano, onde o uso de modelos de linguagem de empresas americanas tornou-se central para operações de fintechs, healthtechs e plataformas de comércio eletrônico.
Números que contextualizam a relevância regional:
- O mercado de IA na América Latina deve alcançar US$ 24,5 bilhões até 2027, segundo estimativas da Goldman Sachs
- A Anthropic registrou crescimento de 340% em sua base de clientes na região entre 2024 e 2025
- Empresas como Nubank, Mercado Libre e ** Rappi** integram a lista de clientes corporativosLATAM da empresa
A incerteza jurídica coloca CFOs e chief compliance officers de empresas latino-americanas numa posição delicada. Se o governo dos EUA efetivamente classificar a Anthropic como fornecedor de risco, subsidiárias e parceiras comerciais em países como Brasil, México, Colômbia e Argentina podem enfrentar pressões regulatórias locais para reavaliar contratos.
Panorama competitivo: quem se beneficia da disputa
A controvérsia não poderia ocorrer em momento mais sensível para o mercado de IA empresarial. A OpenAI, competidores diretos da Anthropic, mantém contratos significativos com agências de defesa através do programa ChatGPT Enterprise Government. Já a Google DeepMind — que possui participação acionária na Anthropic — mantém uma posição ambígua, beneficiando-se potencialmente de qualquer reconfiguração do mercado que deixe a Anthropic em posição vulnerável.
No cenário latino-americano, startups locais de IA enfrentam uma janela de oportunidade. A Cortical.io (Uruguai), Aivo (Argentina) e Brahman (Brasil) reportaram aumento de 27% em inquiries de potenciais clientes que buscam alternativas a modelos americanos, segundo dados da asociación regional de venture capital LAVCA.
O que esperar nos próximos meses
A batalha judicial promete intensificar-se. Lawyers especializados antecipam pelo menos três desenvolvimentos críticos:
Audiência preliminar: agendada para maio de 2026,届时 um juiz federal avaliará se a classificação de "risco inaceitável" foi atribuída com base em evidências substanciais ou em omissão processual
Possível descoberta de documentos: a Anthropic solicitou acesso a comunicações internas do Pentágono que poderiam revelar se a decisão de classificar a empresa já estava tomada antes das negociações alegadamente produtivas
Impacto no ciclo regulatório: independentemente do resultado judicial, o caso Anthropic acelerará debates no Congresso dos EUA sobre frameworks regulatórios para IA de defesa, potencialmente influenciando políticas no Parlamento Europeu e em legislações latino-americanas em elaboração
Para o ecossistema tecnológico da América Latina, a recomendação de especialistas é de cautela proativa. "EmpresasLATAM devem diversificar fornecedores de IA generativa e estabelecer cláusulas de exit em contratos que contemplem cenários de sanções ou reclassificações de risco por parte do governo americano", recomenda Marina Santos, sócia da prática de tecnologia do escritório TozziniFreire em São Paulo.
A Anthropic, por sua vez, sinalizou intenção de cooperar com qualquer processo de revisão que respeite o devido processo legal. "Não somos adversários do governo. Somos uma empresa comprometida com o desenvolvimento responsável de IA. Mas também não aceitararemos decisões unilateralmente danosas tomadas sem a oportunidade de defesa adequada", declarou Amodei em comunicado institucional.
O desfecho deste braço-de-ferro entre uma das mais valiosa startups de IA do mundo e a máquina burocrática de defesa americana enviará um sinal claro sobre os limites da regulação governamental sobre tecnologia — não apenas nos Estados Unidos, mas em todo o globo.
Fontes: TechCrunch (20/03/2026), Goldman Sachs AI Market Report Q1 2026, LAVCA Regional Insights, filings federais disponíveis no PACER.
