Multiverse Computing leva seus modelos de IA compactados para o mainstream

Multiverse Computing leva seus modelos de IA compactados para o mainstream

Com os padrões de empresas privadas em execução em mais de 9,2% – a taxa mais alta em anos – a empresa de capital de risco Lux Capital aconselhou recentemente empresas que dependem de IA para cumprir seus compromissos de capacidade computacional confirmado por escrito. Com a instabilidade financeira a afetar a cadeia de abastecimento de IA, alertou Lux, um acordo de aperto de mão não é suficiente.

Mas há outra opção: parar de depender totalmente da infraestrutura de computação externa. Modelos menores de IA que são executados diretamente no próprio dispositivo do usuário — sem data center, sem provedor de nuvem, sem risco de contraparte — estão ficando bons o suficiente para valer a pena considerá-los. E Computação Multiverso está levantando a mão.

A startup espanhola tem até agora mantido um perfil mais discreto do que alguns dos seus pares, mas à medida que a procura pela eficiência da IA ​​cresce, isto está a mudar. Depois de compactar modelos dos principais laboratórios de IA, incluindo OpenAI, Meta, DeepSeek e Mistral AI, lançou um aplicativo que mostra os recursos de seus modelos compactados e um portal de API – um gateway que permite aos desenvolvedores acessar e construir com esses modelos – que os torna mais amplamente disponíveis.

O Aplicativo CompactifAIque compartilha seu nome com a tecnologia de compressão de inspiração quântica do Multiverse, é uma ferramenta de bate-papo de IA no estilo ChatGPT ou Le Chat de Mistral. Faça uma pergunta e o modelo responderá. A diferença é que o Multiverse incorporou o Gilda, um modelo tão pequeno que pode rodar localmente e offline, segundo a empresa.

Para os usuários finais, esta é uma amostra da IA ​​no limite, com dados que não saem de seus dispositivos e não requerem conexão. Mas há uma ressalva: seus dispositivos móveis devem ter memória RAM e armazenamento suficientes. Caso contrário – e muitos iPhones mais antigos não o farão – o aplicativo voltará para modelos baseados em nuvem via API. O roteamento entre o processamento local e na nuvem é feito automaticamente por um sistema que a Multiverse nomeou Ash Nazg, cujo nome soará como uma lembrança para os fãs de Tolkien, pois faz referência à inscrição do Um Anel em “O Senhor dos Anéis”. Mas quando o aplicativo é encaminhado para a nuvem, ele perde sua principal vantagem de privacidade no processo.

Essas limitações significam que o CompactifAI ainda não está pronto para adoção em massa pelos clientes, embora esse talvez nunca tenha sido o objetivo. Segundo dados da Sensor Tower, o aplicativo tinha menos de 5.000 downloads no mês passado.

O verdadeiro alvo são as empresas. Hoje, Multiverse está lançando um portal de API de autoatendimento que oferece aos desenvolvedores e às empresas acesso direto aos seus modelos compactados, sem a necessidade do AWS Marketplace.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

“O portal API CompactifAI (agora) oferece aos desenvolvedores acesso direto a modelos compactados com a transparência e o controle necessários para executá-los em produção”, disse o CEO Enrique Lizaso em comunicado.

O monitoramento de uso em tempo real é um dos principais recursos da API, e isso não é por acaso. Juntamente com as vantagens potenciais da implantação na borda, os custos de computação mais baixos são uma das principais razões pelas quais as empresas estão considerando modelos menores como uma alternativa aos modelos de linguagem grande (LLMs).

Também ajuda o fato de os modelos pequenos serem menos limitados do que costumavam ser. No início desta semana, a Mistral atualizou sua família de modelos pequenos com o lançamento do Mistral Pequeno 4que diz ser otimizado simultaneamente para bate-papo geral, codificação, tarefas de agência e raciocínio. A empresa francesa também lançou Forjaum sistema que permite às empresas criar modelos personalizados, incluindo modelos pequenos para os quais podem escolher as compensações que seus casos de uso podem tolerar melhor.

Os resultados recentes do Multiverse também sugerem que a lacuna com os LLMs está diminuindo. Seu mais recente modelo compactado, HiperNova 60B 2602é baseado em gpt-oss-120b — um modelo OpenAI cujo código subjacente está disponível publicamente. A empresa afirma que agora entrega respostas mais rápidas a um custo menor do que o original do qual foi derivado, uma vantagem que é importante especialmente para fluxos de trabalho de codificação de agentes, onde a IA conclui de forma autônoma tarefas de programação complexas e em várias etapas.

Tornar modelos pequenos o suficiente para operar em dispositivos móveis e, ao mesmo tempo, permanecer úteis é um grande desafio. Inteligência da Apple contornou esse problema combinando um modelo no dispositivo e um modelo em nuvem. O aplicativo CompactifAI do Multiverse também pode encaminhar solicitações para gpt-oss-120b via API, mas seu principal objetivo é mostrar que modelos locais como Gilda e seus futuros substitutos têm vantagens que vão além da economia de custos.

Para trabalhadores em áreas críticas, um modelo que pode ser executado localmente e sem conexão com a nuvem oferece mais privacidade e resiliência. Mas o maior valor está nos casos de uso empresarial que isso pode desbloquear – por exemplo, incorporando IA em drones, satélites e outros ambientes onde a conectividade não pode ser considerada garantida.

A empresa já serve mais de 100 clientes globais, incluindo o Banco do Canadá, a Bosch e a Iberdrola, mas a expansão da sua base de clientes poderia ajudá-la a desbloquear mais financiamento. Depois de levantar um $ 215 milhões Série B ano passado, agora é há rumores de que está levantando uma nova rodada de financiamento de € 500 milhões com uma avaliação de mais de 1,5 mil milhões de euros.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *