Selecione o modelo IBM Granite, de código aberto ou de terceiros mais adequado para seus negócios e implemente no local ou na nuvem.
Escolha o modelo que melhor se adapte ao seu caso de uso específico, considerações orçamentárias, interesses regionais e perfil de risco.
Adaptada para os negócios, a família IBM Granite de modelos abertos, de alto desempenho e confiáveis oferece desempenho excepcional a um preço competitivo, sem comprometer a segurança.
Os modelos Llama são grandes modelos de linguagem abertos e eficientes, desenvolvidos para oferecer versatilidade e alto desempenho em uma ampla variedade de tarefas de linguagem natural
Os modelos Mistral são modelos de linguagem rápidos, de alto desempenho e de peso aberto, projetados para modularidade e otimizados para geração de texto, raciocínio e aplicações multilíngues.
Diversos modelos de base de outros provedores estão disponíveis no watsonx.ai
O que acontece quando você treina um modelo de IA poderoso com seus próprios dados exclusivos? Melhores experiências do cliente e geração de valor acelerada com IA. Explore essas histórias e veja como.
O Wimbledon usou os modelos de base do watsonx.ai para treinar a IA para criar comentários sobre tênis.
A Recording Academy usou as histórias de IA com o IBM watsonx para gerar e escalar conteúdos editoriais relacionados aos indicados ao GRAMMY.
The Masters usa o watsonx.ai para trazer insights impulsionados por IA combinados com opiniões de especialistas para plataformas digitais.
A AddAI.Life utiliza watsonx.ai para acessar modelos de linguagem de código aberto e criar assistentes virtuais de alta qualidade.
gpt-oss-120b
OpenAI
Implementação privada em locais ou na edge, fluxos de trabalho de raciocínio, uso de ferramentas (como pesquisa e execução de código), cadeia de raciocínio personalizável, resultados estruturados, esforço de raciocínio ajustável
128k
Entrada de 0,15 tokens
Saída de 0,60 tokens
granite-3-3-8b-instruct
IBM
Oferece suporte a tarefas de raciocínio e planejamento, perguntas e respostas, preenchimento intermediário, síntese, classificação, geração, extração, geração aumentada por recuperação e programação.
128k
0,20
granite-3-2-8b-instruct
IBM
Oferece suporte a tarefas de raciocínio e planejamento, perguntas e respostas, sumarização, classificação, geração, extração, RAG e programação de código.
128k
0,20
granite-vision-3-2-2b
IBM
Oferece suporte a casos de uso de imagem para texto para análise de gráficos, infográficos e Q&A contextual
16.384
0.10
granite-3-2b-instruct (v3.1)
IBM
Oferece suporte a tarefas de perguntas e respostas, resumo, classificação, geração, extração, RAG e codificação
128k
0.10
granite-3-8b-instruct (v3.1)
IBM
Oferece suporte a tarefas de perguntas e respostas, resumo, classificação, geração, extração, RAG e codificação
128k
0,20
granite-guardian-3-8b (v3.1)
IBM
Suporte à detecção de HAP ou PII, jailbreaking, viés, violência e outros conteúdos nocivos.
128k
0,20
granite-guardian-3-2b (v3.1)
IBM
Suporte à detecção de HAP ou PII, jailbreaking, viés, violência e outros conteúdos nocivos.
128k
0.10
granite-13b-instruct
IBM
Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG.
8192
0,60
granite-8b-code-instruct
IBM
Modelo especializado em código, capaz de gerar, explicar e traduzir código a partir de comandos em linguagem natural.
128k
0,60
granite-8b-japanese
IBM
Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração, tradução e RAG em japonês.
4096
0,60
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
llama-4-scout-17b-16e-instruct
Meta
Raciocínio multimodal, processamento de contexto longo (10M de tokens), geração e análise de código, operações multilíngues (suporte a 200 idiomas), STEM e raciocínio lógico.
128k
Pré-visualização sem custo
llama-4-maverick-17b-128e-instruct-fp8
Meta
Raciocínio multimodal, processamento de contexto longo (10M de tokens), geração e análise de código, operações multilíngues (suporte a 200 idiomas), STEM e raciocínio lógico.
128k
Input: 0,35 / Saída: 1,40
llama-3-3-70b-instruct
Meta
Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês
128k
0.71
llama-3-2-90b-vision-instruct
Meta
Oferece suporte à legenda de imagens, transcrição de imagem para texto (OCR), incluindo caligrafia, extração e processamento de dados, Q&A contextual e identificação de objetos.
128k
2.00
llama-3-2-11b-vision-instruct
Meta
Oferece suporte à legenda de imagens, transcrição de imagem para texto (OCR), incluindo caligrafia, extração e processamento de dados, Q&A contextual e identificação de objetos.
128k
0.35
llama-guard-3-11b-vision
Meta
Suporte à filtragem de imagens, detecção de HAP ou PII e filtragem de conteúdo nocivo.
128k
0.35
llama-3-2-1b-instruct
Meta
Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês
128k
0.10
llama-3-2-3b-instruct
Meta
Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês
128k
0.15
llama-3-405b-instruct
Meta
Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês |
128k
Entrada: 5.00/Saída: 16.00
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
mistral-medium-2505
IA Mistral
Oferece suporte a programação, geração de legendas para imagens, transcrição de imagem para texto, chamadas de função, extração e processamento de dados, perguntas e respostas com contexto e raciocínio matemático
128k
Entrada: 3.00/Saída: 10.00
mistral-small-3-1-24b-instruct-2503
IA Mistral
Oferece suporte à legenda de imagens, transcrição de imagem para texto, chamada de funções, extração e processamento de dados, Q&A contextual e identificação de objetos.
128k
Entrada: 0,10 / Saída: 0,30
pixtral-12b
IA Mistral
Oferece suporte à legenda de imagens, transcrição de imagem para texto (OCR), incluindo caligrafia, extração e processamento de dados, Q&A contextual e identificação de objetos.
128k
0.35
mistral-large-2
IA Mistral
Oferece suporte a Q&A, resumo, geração, codificação, classificação, extração, tradução e tarefas RAG em francês, alemão, italiano, espanhol e inglês.
128k*
Entrada: 3.00/Saída: 10.00
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
allam-1-13b-instruct
SDAIA
Oferece suporte a Q&A, resumo, classificação, geração, extração, RAG e tradução em árabe.
4096
1.80
jais-13b-chat (árabe)
core42
Oferece suporte a P&R, resumo, classificação, geração, extração e tradução em árabe.
2048
1.80
flan-t5-xl-3b
Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG. Disponível para ajuste de prompt.
4096
0,60
flan-t5-xxl-11b
Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG.
4096
1.80
flan-ul2-20b
Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG.
4096
5.00
elyza-japanese-llama-2-7b-instruct
ELYZA
Oferece suporte a tarefas de Q&A, sumarização, RAG, classificação, geração, extração e tradução.
4096
1.80
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
Utilize modelos de embedding desenvolvidos pela IBM e de código aberto implementados no IBM watsonx.ai, para geração aumentada de recuperação, busca semântica e tarefas de comparação de documentos. Ou escolha um provedor de modelos de embedding de terceiros.
granite-embedding-107m-multilingual
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
granite-embedding-278m-multilingual
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
slate-125m-english-rtrvr-v2
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
slate-125m-english-rtrvr
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
slate-30m-english-rtrvr-v2
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
slate-30m-english-rtrvr
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
all-mini-l6-v2
Microsoft
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
256
0.10
all-minilm-l12-v2
OS-NLP-CV
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
256
0.10
multilingual-e5-large
Intel
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0.10
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
* O comprimento de contexto aceito depende do fornecedor do modelo, mas o limite real do contexto na plataforma é limitado. Para mais informações, consulte a documentação.
A inferência é cobrada em Unidades de Recurso. 1 Unidade de Recurso equivale a 1.000 tokens. Os tokens de entrada e saída são cobrados na mesma taxa. 1.000 tokens correspondem, em média, a 750 palavras.
Nem todos os modelos estão disponíveis em todas as regiões. Consulte nossa documentação para obter mais informações.
O comprimento do contexto é medido em tokens.
As declarações da IBM sobre seus planos, direções e intenções podem mudar ou ser retiradas sem aviso prévio, a seu exclusivo critério. Consulte Preços para mais detalhes. Salvo indicação contrária na precificação de software, todas as funcionalidades, recursos e possíveis atualizações referem-se exclusivamente ao SaaS. A IBM não garante que as funcionalidades e recursos do SaaS e do software sejam os mesmos.