Pentágono classifica Anthropic como "risco de cadeia de suprimentos" — e Warren dispara contra Hegseth
A decisão do Departamento de Defesa dos EUA (DOD) de classificar a Anthropic como "risco de cadeia de suprimentos" representou nesta semana uma escalada significativa na tensão entre Washington e as empresas de inteligência artificial. A senador Elizabeth Warren (D-MA) enviou uma carta diretamente ao Secretário de Defesa Pete Hegseth, denunciando a medida como "retaliação" e questionando os procedimentos adotados pela pasta. Em vez de simplesmente rescindir o contrato com o laboratório de IA, o Pentágono optou por uma designação que efetivamente exclui a empresa de futuros contratos federais — uma medida que Warren classificou como "punição sem due process" (devido processo legal).
A controvérsia ocorre em um momento crítico para o setor de IA militar, avaliado em US$ 19,5 bilhões em 2025 nos EUA, com projeções de alcançar US$ 38,8 bilhões até 2030, segundo dados da Precedence Research. A Anthropic, avaliada em US$ 18,4 bilhões após sua última rodada de financiamento (Serie E de US$ 750 milhões liderada pela Spark Capital em janeiro de 2025), posiciona-se como uma das três maiores desenvolvedoras de IA do mundo, ao lado de OpenAI e Google DeepMind.
O que motivou a designação e por que Warren está protestando
A carta de Warren, obtida pelo TechCrunch, levanta questões procedimentais fundamentais. Segundo a senator, o DOD teria:
- Usado umadesignação regulatória extraordinária sem notificação prévia ou oportunidade de resposta da Anthropic
- Ignorado precedente administrativo que exige justificativas detalhadas para exclusões de cadeia de suprimentos de defesa
- Escolhido deliberadamente a via que causa dano reputacional e comercial à empresa, quando a rescisão contratual simples teria sido o caminho legal apropriado
"Se o Departamento tinha objeções legítimas ao contrato, o caminho correto era a rescisão formal, com documentação e direito de apelação. O que foi feito aqui se assemelha mais a uma punição extralegal do que a uma decisão de segurança nacional", escreveu Warren.
Contexto histórico: das guerras culturais de IA à militarização
A trajetória que levou a este momento remonta a 2023, quando o DOD intensificou sua estratégia de IA através do programa Replicator, mirando sistemas autônomos de combate. Em 2024, a contratação de IA generativa por agências federais cresceu 340%, segundo o Federal AI Acquisition Report, criando uma zona cinzenta regulatória que agora se torna manifesta.
A Anthropic, fundada em 2021 por ex-executivos da OpenAI liderados por Dario Amodei, desenvolveu a família de modelos Claude (atualmente na versão 3.5 Sonnet), reconhecida por sua abordagem de IA segura e alinhada. Diferentemente de concorrentes que aceitaram contratos militares com menos restrições, a Anthropic manteve políticas internas mais conservadoras sobre uso militar de seus modelos — uma posição que, paradoxalmente, pode ter atraído escrutínio adicional.
Impacto no mercado e implicações para a América Latina
Reação do mercado
As ações do setor de IA sentiram o impacto imediato. A decisão do DOD enviou um sinal de alerta aos investidores sobre a volatilidade regulatória do segmento:
- 估值 impact: Analistas do Goldman Sachs estimaram uma correção de 8-12% no valuation de empresas de IA "não-alinhadas" com contratos federais
- Contratos governamentais: O mercado de IA para governo federal dos EUA representa US$ 4,2 bilhões anuais, com crescimento de 67% YoY
- Dinâmica competitiva: A designação pode beneficiar empresas como Palantir e Anduril, que mantêm relacionamentos mais sólidos com o DOD
Relevância para a América Latina
Para o ecossistema latino-americano de IA, o episódio carrega lições importantes:
- Soberania tecnológica em jogo: O caso Anthropic ilustra como decisões de política de defesa de grandes potências podem reshaping o mercado global de IA, afetando empresas latino-americanas que dependem de modelos estadounidenses
- Regulação local: Brasil (com a LGPD e discussões sobre Marco Legal da IA), México e Colombia aceleram立法ação para reduzir dependência externa — um processo que este episódio tende a intensificar
- Oportunidade para players regionais: Startups de IA na região, como a brasileira Wildlife Studios e a mexicana Kueski, podem se beneficiar de um ambiente onde empresas estadounidenses enfrentam restrições crescentes
O que esperar: próximos passos e cenários
Cronologia aguardada
- Resposta do DOD: Hegseth tem 30 dias para responder formalmente à carta de Warren
- Audiência no Senado: O Subcomitê de Serviços Armados deve marcar audiência pública sobre o caso nas próximas semanas
- Posicionamento da Anthropic: Fontes cercanas à empresa indicam que uma resposta formal está sendo preparada, potencialmente incluindo ação judicial
Cenários possíveis
- Reversão da designação: Caso o DOD não justifique adequadamente a medida, Warren promete Levantar o assunto no orçamento de defesa de 2026
- Precedente regulatório: A decisão pode estabelecer formato para futuras exclusões de IA da cadeia de suprimentos militar, afetando todas as empresas do setor
- Fragmentação geopolítica da IA: Especialistas da RAND Corporation alertam que casos como este aceleram a tendência de "balcanização" da tecnologia de IA entre blocos geopolíticos
Vladimir Luz, professor de direito tecnológico da FGV-SP, comentou: "O caso Anthropic é um termômetro da saúde institucional americana. Se adesignação não resistir ao escrutínio legal, revela fraqueza institucional. Se resistir, revela captura política. Ambos são problematicos."
Aguardamos desenvolvimentos.
Fontes: TechCrunch, Goldman Sachs AI Market Report, Precedence Research, Federal AI Acquisition Report, RAND Corporation.

