Vazamento acidental expõe vulnerabilidades no sistema de proteção de IP da Anthropic
A Anthropic, empresa de inteligência artificial avaliada em US$ 18,4 bilhões e criadora dos modelos Claude, removeu inadvertidamente mais de 2.000 repositórios do GitHub na última semana, após enviar notices de DMCA (Digital Millennium Copyright Act) em massa para remover código supostamente vazado de seus sistemas internos. A companhia reconheceu o erro horas depois e retirou a maioria das notificações, mas o incidente expôs fragilidades nos processos automatizados de proteção de propriedade intelectual que empresas de IA estão construindo em ritmo acelerado.
O caso ocorreu em um momento crítico para o setor: a Anthropic announced em janeiro de 2026 que atingiu US$ 2,1 bilhões em receita recorrente anual (ARR), consolidando-se como a segunda maior empresa de IA generativa do mundo em termos de monetização, atrás apenas da OpenAI. Com mais de 45 milhões de usuários ativos mensais em seu produto consumer e contratos enterprise avaliados em US$ 800 milhões, a pressão para proteger ativos proprietários nunca foi tão intensa.
Como o incidente aconteceu: automação desenfreada e falta de controles
Segundo fontes familiarizadas com o caso, a Anthropic utilizava um sistema automatizado de monitoramento para identificar vazamentos de código-fonte em plataformas como GitHub, Pastebin e fóruns de desenvolvedores. O sistema, que escaneia código usando fingerprints criptográficos e machine learning para detectar semelhanças com repositórios internos, teria emitido DMCA takedown notices para repositórios que compartilhavam apenas funções genéricas de API ou snippets de código aberto com licenças permissivas — não necessariamente propriedade intelectual exclusiva da empresa.
"O sistema fez o que foi projetado para fazer: identificar similaridades. O problema é que similaridade técnica não é mesma coisa que violação de direitos autorais", explicou uma fonte da indústria que pediu para não ser identificada.
O GitHub, plataforma com mais de 100 milhões de desenvolvedores e subsidiária da Microsoft (capitalizada em US$ 2,8 trilhões), processa centenas de milhões de repositórios. A empresa confirmou que收到了 notices da Anthropic e os executou conforme protocolo da DMCA, mas permitiu que a empresa de IA retificasse erros através de seu processo de counter-notification.
O incidente lembra caso similar da Google em 2023, quando a empresa enviou por engano notificações contra projetos legítimos de código aberto. Naquela ocasião, 347 repositórios foram afetados antes da correção.
Impacto no ecossistema de IA e implicações para a América Latina
O episódio revela tensão crescente entre empresas de IA, que investem centenas de milhões em treinamento de modelos, e a comunidade de código aberto que frequentemente constrói sobre — ou inspira — esses sistemas. A Anthropic treinou seus modelos Claude com dados públicos disponíveis na internet, prática que analistas estimam custar entre US$ 50 milhões e US$ 200 milhões por geração de modelo.
Para o ecossistema latino-americano, onde startups como Tracto, Nava e Civi estão construindo aplicações de IA localmente, o caso traz implicações diretas:
- Dependência tecnológica: Empresas LATAM que integram APIs da Anthropic ou OpenAI dependem de políticas de uso que podem mudar conforme interesses comerciais evoluem
- Desenvolvimento local: A região respondeu com US$ 1,2 bilhão em investimentos em IA em 2025, crescendo 67% em relação a 2024, impulsionado por hubs em São Paulo, Bogotá e Cidade do México
- Regulação emergente: O Brazilian AI Act, em tramitação no Congresso, estabelece frameworks para responsabilidade algorítmica que podem impactar como empresas estrangeiras operam no mercado brasileiro
O mercado de IA na América Latina deve alcançar US$ 7,3 bilhões até 2027, segundo projeções da Goldman Sachs. Com 68% das empresas latino-americanas planejando adotar soluções de IA generativa até 2026, incidentes como o da Anthropic levantam questões sobre concentração de poder em poucas big techs.
O que esperar: próximos passos e vigilância necessária
A Anthropic declarou que está conduzindo uma revisão interna de seus sistemas de monitoramento e implementará verificações humanas obrigatórias antes do envio de notices legais. A empresa também se comprometeu a criar um canal direto com a comunidade open source.
Especialistas however alertam que o problema estrutural persiste:
- Sem padrões da indústria para identificação de propriedade intelectual em código de IA, casos como este se repetirão
- DMCA foi projetada para direitos autorais tradicionais, não para proteger weights de modelos neurais ou datasets de treinamento
- Escalabilidade do conflito: À medida que mais empresas automatizam proteção de IP, o risco de falsos positivos aumenta exponencialmente
Para desenvolvedores e empresas latino-americanas, a recomendação é documentar origem de qualquer código usado em projetos de IA, manter repositórios com licenças claras e, quando possível, evitar dependência exclusiva de APIs de empresas estrangeiras que podem mudar termos de serviço ou policies de propriedade intelectual unilateralmente.
O caso Anthropic-GitHub serve como lembrete de que, na corrida pela supremacia em IA, os sistemas legais e técnicos construídos para proteger inovação podem, ironicamente, sufocar o ecossistema que alimenta a próxima geração de avanços.



