Meta visualiza uma API para seus modelos de IA de llama

Meta visualiza uma API para seus modelos de IA de llama

Em sua conferência inaugural de desenvolvedores da Llamacon AI na terça -feira, a Meta anunciou uma API para sua série de modelos de IA da LLAMA: a API da llama.

Disponível em visualização limitadaA API da LLAMA permite que os desenvolvedores explorem e experimentem produtos alimentados por diferentes modelos de lhama, por meta. Emparelhado com os SDKs da Meta, ele permite que os desenvolvedores construam serviços, ferramentas e aplicações orientados a lhama. A Meta não compartilhou imediatamente os preços da API com o TechCrunch.

O lançamento da API ocorre quando a Meta parece manter uma vantagem no espaço do modelo aberto ferozmente competitivo. Enquanto os modelos de lhama tenham acumulado Mais de um bilhão de downloads até o momentode acordo com a Meta, rivais como Deepseek e Qwen do Alibaba ameaçam aumentar os esforços de Meta para estabelecer um ecossistema de longo alcance com a lhama.

A API da LLAMA oferece ferramentas para ajustar e avaliar o desempenho dos modelos LLAMA, começando com a llama 3.3 8b. Os clientes podem gerar dados, treinar e, em seguida, usar o conjunto de avaliação da Meta na API da llama para testar a qualidade de seu modelo personalizado.

Créditos da imagem:Meta

A Meta disse que não usará dados de clientes da API da LLAMA para treinar os próprios modelos da empresa, e que os modelos criados usando a API de llama podem ser transferidos para outro host.

Para os desenvolvedores de desenvolvedores, especificamente os modelos LLama 4, da Meta, lançados pela Meta, a API da LLAMA oferece opções de servir de modelo via parcerias com cerebras e groq. Essas opções “primitivas experimentais” estão “disponíveis por solicitação” para ajudar os desenvolvedores a protótipo de seus aplicativos de IA, disse Meta.

“Ao simplesmente selecionar os nomes de modelos Cerebras ou Groq na API, os desenvolvedores podem (…) desfrutar de uma experiência simplificada com todo o uso rastreado em um local”, escreveu Meta em uma postagem de blog fornecida ao TechCrunch. “(W) esperamos expandir parcerias com fornecedores adicionais para trazer ainda mais opções para construir sobre o lhama”.

A Meta disse que expandirá o acesso à API da llama “nas próximas semanas e meses”.

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *