Anthropic bloqueia modelo Mythos e reacende debate sobre segurança da IA
Em um movimento que enviou ondas de choque pela indústria de inteligência artificial, a Anthropic confirmou nesta semana que restringiu o lançamento do Mythos, seu modelo mais avançado até hoje, após descobrir que a tecnologia era capaz de identificar e explorar vulnerabilidades em softwares utilizados por centenas de milhões de pessoas globalmente. A decisão coloca a empresa — avaliada em US$ 18 bilhões após rodada de financiamento liderada pela Spark Capital em 2025 — no centro de uma tempestade perfeita entre segurança cibernética, competição de mercado e a crescente tensão entre desenvolvimento de IA e seus potenciais misuse.
A confirmação veio através de um memorando interno obtido pelo TechCrunch, no qual a CEO Dario Amodei descreveu o Mythos como "o modelo de linguagem mais capaz já desenvolvido em tarefas de raciocínio de segurança ofensiva" — uma designação que, segundo especialistas ouvidos pelo RadarIA, revela tanto a magnitude do achievement técnico quanto os riscos iminentes de sua liberação irrestrita.
O que torna o Mythos diferente — e perigoso
Diferentemente de modelos anteriores, o Mythos foi projetado com uma arquitetura de reasoning de múltiplas camadas que permite não apenas identificar falhas de segurança, mas também gerar exploit código funcional para vulnerabilidades de dia zero. Em testes internos conduzidos em janeiro de 2026, o modelo conseguiu mapear e criar provas de conceito para 147 vulnerabilidades em sistemas amplamente adotados, incluindo três falhas críticas em bibliotecas de criptografia usadas por mais de 60% dos serviços financeiros latino-americanos.
"O Mythos não é apenas um modelo que encontra bugs — ele pensa como um atacante sofisticado. Consegue encadear vulnerabilidades, entender dependências entre sistemas e gerar código de exploit que funciona em contextos reais. Isso muda completamente o jogo," explicou Carlos Souza, pesquisador-chefe do NIC.br, órgão responsável pela gestão de domínios no Brasil.
A capacidade levantó preocupações imediatas sobre o que acontece se tal tecnologia cai em mãos erradas. Historicamente, exploits de dia zero — vulnerabilidades desconhecidas pelos desenvolvedores — são comercializados no mercado negro por valores entre US$ 100 mil e US$ 5 milhões, dependendo da criticidade do sistema afetado. Um modelo capaz de gerar tais vulnerabilidades automaticamente poderia democratizar — e baratear drasticamente — o mercado de ataques cibernéticos.
Contexto histórico: da moratória de IA ao atual impasse
Esta não é a primeira vez que a indústria enfrenta dilemas sobre liberação de tecnologia de IA potencialmente perigosa. Em março de 2023, líderes da OpenAI, Anthropic, DeepMind e outras empresas assinaram uma moratória voluntária de seis meses para treinamento de modelos acima de uma certain threshold computacional. Embora a pausa tenha sido brevemente respeitada, a competição acirrada — impulsionada pela corrida pelo domínio do mercado de IA generativa, projetado para alcançar US$ 1,3 trilhão até 2030 — acelerou o ritmo de desenvolvimento.
A Anthropic posiciona-se publicamente como defensora de "IA segura e beneficiosa", incorporando em sua filosofia os chamados Constitutional AI principles. Seus modelos da linha Claude são reconhecidos por seus guardrails de segurança robustos. No entanto, a decisão de restringir o Mythos levanta questões sobre se a empresa também busca proteger sua posição competitiva enquanto a OpenAI, Google (Gemini Ultra) e emergentes como a Mistral AI avançam em seus próprios modelos de fronteira.
Implicações de mercado e relevância para a América Latina
O episódio Mythos expõe uma vulnerabilidade crítica para o ecossistema tecnológico latino-americano. A região, que viu seus investimentos em cibersegurança crescerem 34% em 2025 para US$ 3,8 bilhões, permanece altamente dependente de soluções de código aberto e bibliotecas de terceiros — muitas das quais são mantidas por pequenas equipes sem recursos para resposta rápida a vulnerabilidades emergentes.
"Se um modelo como o Mythos leaked, mesmo que parcialmente, teríamos uma situação sem precedentes. Criminosos organizados, inclusive aqueles com presença na América Latina, ganhariam capacidade de automatizar ataques a infraestrutura crítica," alertou Fernanda Oliveira, Diretora de Inteligência Ameaçante da Kaspersky para América Latina.
Para empresas latino-americanas, o incidente também serve como lembrete sobre os riscos da dependência de APIs de modelos de IA cloud. A tendência de integrar LLMs em sistemas financeiros, saúde e infraestrutura abre novas superfícies de ataque — especialmente se provedores começarem a restringir acesso a modelos por razões de segurança ou competição.
No front competitivo, a decisão da Anthropic pode beneficiar rivais. A OpenAI, avaliada em US$ 157 bilhões após levantar US$ 6,6 bilhões em 2025, e a Google DeepMind não emitiram statements públicos sobre limitações similares em seus modelos de ponta. Se o Mythos permanece engavetado, a vantagem competitiva da Anthropic em tarefas de raciocínio avançado fica temporariamente neutralizada — abrindo espaço para concorrentesganharem market share em segmentos como coding assistants e análise de segurança.
O que esperar: transparência, regulamentação e a próxima geração de modelos
Os próximos meses serão críticos para definir como a indústria equilibra inovação e segurança. Especialistas antecipam pelo menos três desenvolvimentos:
- Publicação de whitepaper técnico pela Anthropic explicando os guardrails planejados para o Mythos — algo que pode estabelecer precedente para disclosure de segurança em modelos de IA;
- Intensificação de debates regulatórios no Parlamento Europeu e no Congresso dos EUA sobre requisitos de licenciamento para modelos de "risco elevado", com possível reflexo na América Latina via acordos de compliance;
- Surgimento de startups especializadas em detecção de vulnerabilidades geradas por IA, criando um novo segmento de mercado estimado em US$ 2,4 bilhões até 2028.
Para consumidores e empresas latino-americanas, o recado é claro: a era dos modelos de IA com capacidades de ataque automatizado já começou — mesmo que seu acesso permaneça, por ora, restrito. A questão não é se подобные modelos serão liberados, mas quando, como e sob quais salvaguardas.
A Anthropic, por sua vez, enfrenta o desafio de demonstrar que sua decisão foi motivada primariamente por responsabilidade, não por estratégia competitiva. Se falhar nessa comunicação, arrisca enfrentar scrutiny regulatório precisamente no momento em que busca levantar uma nova rodada de financiamento estimada em US$ 2 bilhões para expansão internacional.


