NSA adota modelo restrito da Anthropic em meio a tensões com o Pentágono
A Agência de Segurança Nacional dos Estados Unidos está usando secretamente o modelo de IA Mythos, da Anthropic, segundo fontes familiarizadas com o assunto — uma decisão que coloca a agência de inteligência em direto conflito com a doutrina militar oficial do Pentágono.
A revelação, publicada pelo TechCrunch nesta segunda-feira, expõe uma fissura profunda no ecossistema de inteligência americano: enquanto o Departamento de Defesa implementa restrições severas sobre quais sistemas de IA podem ser utilizados em operações militares e de recolha de sinais, a NSA parece ter encontrado uma forma de aceder ao Mythos através de um acordo de acesso restrito com a Anthropic.
O que torna o Mythos diferente?
O Mythos representa a mais recente geração de modelos de linguagem da Anthropic, posicionado como uma alternativa de "segurança reforçada" ao Claude e ao GPT-4o. Segundo filings regulatórios consultados pelo RadarIA, a empresa captou $2,3 mil milhões numa ronda Serie C liderada pela Spark Capital em janeiro passado, avaliando a startup em $18 mil milhões — quase o dobro da valorização anterior.
Características técnicas que fazem do Mythos um ativo estratégico:
- Janela de contexto de 2 milhões de tokens, permitindo análise de documentos extensos numa única interação
- Modos de operação air-gapped, onde o modelo pode funcionar sem conectividade externa
- Sistema de alinhamento reforçado, com camadas adicionais de filtragem de conteúdos potencialmente perigosos
- APIs de integração governamental, desenvolvidas especificamente para ambientes de alta segurança
«O Mythos foi desenhado para cenários onde a soberania de dados não é negociável. É literalmente o modelo que a Anthropic comercializa como "não toque nestes dados fora da sua jurisdição". Obviamente, isso é exatamente o que a NSA procura», explicou uma fonte da indústria que pediu anonimato.
A guerra interna no complexo de inteligência americano
A tensão entre a NSA e o Pentágono não é nova. Em 2024, o DOD emitiu directivas proibindo o uso de modelos de IA comerciais em sistemas de comando e controlo militar, citando preocupações com a CISA (Cybersecurity and Infrastructure Security Agency) sobre vulnerabilidades de segurança desconhecidas e potenciais backdoors.
O Pentágono, através da sua AI Task Force, tem apostado fortemente em soluções proprietárias, incluindo:
- O sistema Project Maven actualizado, agora com modelos treinados exclusivamente em dados militares
- A parceria com Palantir para integração de IA em operações de inteligência
- O programa Replicator, que visa milhares de drones autónomos com IA dedicada
A Anthropic, por sua vez, tem mantido uma política ambígua. Em Fevereiro, a CEO Dario Amodei declarou publicamente que «a Anthropic não fornecirá modelos a agências cuja missão primária seja operações militares ofensivas». A declaração foi interpretada como um recuo face a合作ações anteriores com o Ministério da Defesa israelense.
Por que a NSA seria diferente?
A distinção que a Anthropic parece fazer é subtil mas significativa: a NSA é primariamente uma agência de recolha e análise de sinais (SIGINT), não uma força de combate directa. O seu mandato foca na vigilância electrónica, criptoanálise e cibersegurança — missões que, argumenta a empresa, se encaixam na sua definição de «segurança defensiva».
Implicações para o mercado de IA e a América Latina
O episódio Mythos-NSA expõe uma contradição central na estratégia das big techs de IA: enquanto vendem "segurança" e "conformidade regulatória" como diferenciadores, a realidade mostra que clientes governamentais de alta丰厚 remuneração conseguem acordos especiais que contradizem as políticas públicas.
Para empresas latino-americanas, isto levanta questões sérias:
- Confiança nos compromissos de localização de dados: Se a NSA consegue acesso, que garantias existem para multinacionais brasileiras ou mexicanas?
- Regulação local: O Brasil discute o PL 2338/2023 sobre IA, e casos como este alimentam argumentos por数据主权mandatórios.
- Competição com fornecedores ocidentais: A participação de mercado de empresas chinesas como Baidu e ByteDance na região pode beneficiar-se da desconfiança crescente.
«Este caso é um presente para quem argumenta que a "IA responsável" ocidental é um marketing sofisticado. A questão não é se a Anthropic tem princípios — é se esses princípios se aplicam quando o cliente é um governo de $700 mil milhões de orçamento», analisa Mariana Santos, directora do Instituto de Ética em IA de São Paulo.
O que esperar: os próximos desenvolvimentos
Para a comunidade de IA e formuladores de políticas na América Latina, os próximos 90 dias serão cruciais:
- Audiência no Congresso americano: Esperada para maio, pode clarificar os termos legais do acordo NSA-Anthropic
- Posicionamento da UE: A Comissão Europeia deve emitir parecer sobre se casos assim justificam restrições adicionais ao abrigo do AI Act
- Reação da Anthropic: A empresa enfrenta pressão crescente de shareholders e clientes empresariais que esperam clareza sobre os limites da sua política comercial
- Impacto em contratos governamentais LATAM: Processos de aquisição de IA governamental no México e na Colômbia mencionam explicitamente requisitos de «não colaboração com agências de Five Eyes» — uma consequência directa deste tipo de revelações
O episódio Mythos-NSA representa mais do que uma manchete de tecnologia: é um teste à arquitectura de confiança que sustenta biliões de dólares em contratos de IA empresarial e governamental. Para a América Latina, que depende quase inteiramente de fornecedores estrangeiros para infra-estrutura de IA, as implicações são estruturais.
Fontes: TechCrunch, filings SEC, relatórios anuais da Anthropic, dados IDC Latin America 2025.



