Multiverse Computing abre caminho para IA empresarial sem dependência da nuvem
A startup espanhola Multiverse Computing anunciou nesta quinta-feira (20) o lançamento de um portal de API de autoserviço e um aplicativo de demonstração que permite a desenvolvedores e empresas acessarem diretamente seus modelos de IA comprimidos — sem a necessidade de passar pelo AWS Marketplace ou outras marketplaces intermediárias. A move representa uma mudança estratégica significativa no mercado de inteligência artificial corporativa, oferecendo às organizações uma alternativa para reduzir custos de computação em nuvem enquanto mantêm controle total sobre suas implementações de IA.
A empresa, fundada em 2019 em San Sebastián, País Basco, desenvolveu a tecnologia CompactifAI, um método de compressão de modelos de IA inspirado em princípios de computação quântica. A plataforma permite reduzir o tamanho de modelos de linguagem grandes em até 80% sem perda significativa de precisão, segundo dados internos da empresa. Essa redução traduz-se em economia substancial para empresas que dependem de infraestrutura de nuvem para executar suas aplicações de IA.
CompactifAI: a tecnologia por trás da compressão quântica
A inovação central da Multiverse Computing reside no CompactifAI, uma tecnologia que aplica técnicas de otimização inspiradas em algoritmos quânticos para comprimir modelos de IA. O processo utiliza o que a empresa chama de "quantum-inspired optimization" — métodos computacionais que simulam comportamentos quânticos em hardware clássico para resolver problemas de otimização complexos.
Como funciona a compressão
- Identificação de redundâncias: O algoritmo analisa padrões de pesos e ativações nos modelos para identificar informações redundantes
- Quantização avançada: Redução da precisão numérica dos parâmetros de 32-bit para representações mais eficientes
- Poda estrutural: Remoção de conexões menos importantes mantendo a integridade funcional
- Redistribuição de conhecimento: Transferência de conhecimento do modelo original para o comprimido via destilação
"O CompactifAI não apenas reduz o tamanho do modelo — ele otimiza a arquitetura interna para eliminar ineficiências que passam despercebidas em métodos tradicionais de compressão", explicou Enrique Lizaso, CEO da Multiverse Computing, em comunicado oficial.
A empresa afirma que seus modelos comprimidos mantêm 95-98% do desempenho original em benchmarks padrão como MMLU e HumanEval. Essa retenção de performance é crucial para casos de uso empresarial onde a precisão não pode ser comprometida.
Impacto no mercado: por que este lançamento importa agora
O lançamento do portal de API ocurre em um momento crítico para o mercado de IA empresarial. Com a adoção massiva de modelos de linguagem grandes, as empresas enfrentam Pressões crescentes sobre custos de infraestrutura. Estima-se que empresas que utilizam GPT-4 ou modelos similares em produção destinem 60-70% de seus custos operacionais de IA exclusivamente para computação em nuvem.
O mercado de compressão de IA
O mercado global de compressão e otimização de modelos de IA foi avaliado em US$ 2,8 bilhões em 2025 e deve alcançar US$ 8,5 bilhões até 2028, representando uma taxa de crescimento anual composta (CAGR) de aproximadamente 32%, segundo projeções do setor. Esse crescimento é impulsionado por:
- Demanda por inferência em dispositivos edge
- Necessidade de reduzir latência em aplicações em tempo real
- Pressão para reduzir custos de nuvem
- Regulamentações de soberania de dados em mercados como LATAM
Relevância para a América Latina
A região representa uma oportunidade estratégica para a Multiverse Computing. Países como Brasil, México e Colômbia estão acelerando a adoção de IA em setores como finanças, varejo e logística. No entanto, a dependência de serviços de nuvem nordestinos (AWS, Google Cloud, Azure) cria preocupações com:
- Latência: servidores concentrados em EUA e Europa
- Custos: tarifas de transferência de dados e computação em dólar
- Soberania de dados: requisitos regulatórios locais
"Empresas latino-americanas precisam de soluções que funcionem localmente, sem comprometer a qualidade. O portal de API da Multiverse Computing permite exatamente isso — inferência rápida com controle total sobre os dados", analisou Carlos Mendoza, especialista em IA e fundador da consultoria DataLab Analytics, com sede em Lima.
Competição direta
A Multiverse Computing compete diretamente com:
- AWS SageMaker Neo e Inferentia: soluções de hardware proprietário
- Hugging Face: plataforma de modelos com otimização
- Google Cloud Vertex AI: compressão nativa
- Microsoft Azure AI: otimização de modelos
A vantagem competitiva da startup española está na abordagem agnóstica de nuvem — enquanto rivais tentam prender clientes em seus ecossistemas, a Multiverse Computing oferece portabilidade garantida.
O que esperar: próximos passos e tendências
O lançamento do portal de API representa apenas a primeira fase de uma estratégia mais ampla. A Multiverse Computing planeja:
- Expansão de modelos: Suporte para arquiteturas além de LLMs, incluindo modelos de visão e multimodais
- Parcerias regionais: Acordos com provedores de nuvem locais na América Latina
- Enterprise features: Funcionalidades de keamanan e conformidade para setores regulados
- Edge deployment: Ferramentas para implementação em dispositivos IoT e edge computing
Desafios a acompanhar
Apesar do otimismo, a empresa enfrenta desafios significativos:
- Validação independente: A claims de compressão precisam ser verificadas por terceiros
- Adoção empresarial: Mudar hábitos de fornecedores estabelecidos é complexo
- Escalabilidade: Demonstrar que a tecnologia funciona em produção em larga escala
A expectativa do mercado é que a startup, que já levantou €50 milhões em rodadas de financiamento, busque uma nova captação nos próximos 12 meses para acelerar a expansão internacional — especialmente nos mercados latino-americano e norte-americano.
O portal de API da Multiverse Computing está disponível a partir de hoje em modo de beta público. Desenvolvedores podem se registrar no site oficial da empresa para acesso limitado.


