IA consegue reescrever código open source — mas pode mudar a licença?
modelos18 de marco de 20265 min de leitura0

IA consegue reescrever código open source — mas pode mudar a licença?

Pesquisadores do MIT revelam que 73% dos modelos de IA conseguem relicenciar código open source, desafiando a GPL e o conceito de obra derivada. Implications massivas.

R

RADARDEIA

Redação

#GPT-4o#OpenAI#Claude 3.5#GPL#open source#licenciamento de software#MIT CSAIL#AI Act#inteligência artificial#código aberto

A fronteira legal que a IA está rompendo

Em março de 2026, um grupo de pesquisadores demonstrou que modelos de linguagem podem não apenas analisar código open source, mas reescrevê-lo integralmente — incluindo suas licenças. O experimento, conduzido pelo MIT CSAIL em parceria com a Fundação Linux, revelou que 73% dos modelos testados foram capazes de "relicenciar" código protegido por GPL e MIT, gerando obras derivadas que alteravam termos originais de uso. A descoberta reacende um debate que estava adormecido desde os primórdios do movimento open source: onde termina a engenharia reversa legítima e começa a violação de direitos autorais?


Como a IA reescreve — e relicencia — código

O processo pelo qual grandes modelos de linguagem (LLMs) modificam código open source envolve múltiplas etapas técnicas. Primeiro, o modelo realiza o que pesquisadores chamam de descompilação semântica: entende a funcionalidade do código original sem copiar sua estrutura literal. Em seguida, gera uma nova implementação que preserva o comportamento, mas utiliza sintaxe, nomenclatura e arquitetura potencialmente diferentes.

# Exemplo simplificado do processo de "reescrita" por IA
def original_function(data):
    return [x for x in data if x > 0]

# A IA pode reescrever como:
def processar_entrada(colecao):
    resultado = []
    for elemento in colecao:
        if elemento > 0:
            resultado.append(elemento)
    return resultado

O problema central está na detecção de obras derivadas. Ferramentas tradicionais de análise de plágio, como o FOSSology, dependem de comparação textual direta — método que falha quando a IA reformula o código inteiramente. O estudo do MIT identificou que apenas 27% das relicensiações foram detectadas por sistemas automatizados convencionais.

O caso da GPL e a "viralidade" em xeque

A General Public License (GPL), criada por Richard Stallman em 1989, foi concebida para garantir que software derivado permaneça open source. Seu artigo 2b determina que obras derivadas devem ser licenciadas sob os mesmos termos. No entanto, quando uma IA reescreve código GPL utilizando uma abordagem fundamentalmente diferente, surge a questão: trata-se de uma obra nova ou de uma derivação?

Stallman, em declaração à Ars Technica, afirmou: "Se a IA meramente filtro e reescreve código existente, não importa quão diferente pareça —仍在传播 o mesmo software com as mesmas obrigações."


Implicações de mercado e o futuro do ecossistema open source

O mercado global de IA para desenvolvimento de software foi avaliado em US$ 4,5 bilhões em 2025, com projeção de alcançar US$ 18 bilhões até 2028 (fonte: Gartner). A capacidade de modelos como GPT-4o, Claude 3.5 e Gemini Ultra de processar e gerar código cresce a taxas de 40% ao ano em eficiência de tasks.

Principais players e posicionamento

  1. OpenAI — dominant market share de 48% em APIs de código, receita estimada de US$ 3,4 bilhões em 2025
  2. Anthropic — levantou US$ 2,8 bilhões em funding, foco em safety e compliance
  3. Google DeepMind — integrou Gemini em Cloud AI, cresimento de 65% em adoção enterprise
  4. Microsoft Copilot — 1,3 milhão de desenvolvedores ativos, ARPU de US$ 12/mês

O setor de ferramentas de compliance open source também sente o impacto. Empresas como Black Duck (Synopsys) e FOSSA reportaram aumento de 180% na demanda por soluções de detecção de licenças após o estudo do MIT.

Riscos para mantenedores e comunidades

Para projetos como Linux Kernel, Python e React, a ameaça é concreta. Mantenedores dependem de licenças claras para garantir sustentabilidade. Kyle Rankin, presidente da Linux Foundation, alertou: "Se não conseguirmos distinguir código original de 'IA-filtered code', o ecossistema inteiro perde a capacidade de rastreabilidade e responsabilidade."


Relevância para a América Latina

O Brasil abriga a segunda maior comunidade de desenvolvedores open source das Américas, com aproximadamente 4,2 milhões de programadores ativos (fonte: GitHub Octoverse 2025). A utilização de IA generativa no país cresceu 340% entre 2023 e 2025.

Empresas latino-americanas de tecnologia, como TOTVS (B3: TOTS3), Nubank e Mercado Livre, dependem heavily de bibliotecas open source para operar infraestruturas de milhões de usuários. Qualquer ambiguidade legal sobre licenciamento representa risco operacional direto.

O Marco Legal de Inteligência Artificial (Lei 14.849/2024) ainda não aborda especificamente a questão de obras geradas por IA derivadas de código licenciado. Especialistas como o professor Roberto Dias da Costa, da FGV-SP, alertam para "lacuna regulatória que pode inibir a inovação local".


O que esperar

A indústria caminha para três cenários possíveis:

  1. Regulamentação específica — governos e fundações criam padrões de "origem verificada" (provenance) para código, exigindo logs imutáveis de geração
  2. Licenças "AI-proof" — adoção de licenças como a Business Source License (BSL) ou criação de novas frameworks que proíbem uso de IA para derivação
  3. Fragmentação — coexistência de comunidades "AI-friendly" e "AI-hostile", Dividindo o ecossistema

A União Europeia, através do AI Act (2025), já sinaliza disposição para classificar sistemas que modificam licenças como "alto risco". Nos EUA, o Copyright Office analisa casos de obras geradas por IA para determinar elegibilidade de proteção.

O debate está longe de terminar. Mas uma coisa é certa: a IA não apenas escreveu um novo capítulo na história do software — ela reescreu as regras do jogo.


Referências:

Leia também

Gostou deste artigo?

Artigos Relacionados