Modelos de base na watsonx.ai 

Explore a biblioteca da IBM de modelos de IA disponíveis no estúdio watsonx.ai
Captura de tela do produto de modelos de base watsonx.ai

Escolha o modelo que você precisa

Selecione o modelo IBM Granite, de código aberto ou de terceiros mais adequado para seus negócios e implemente no local ou na nuvem.

Visão do IBM sobre modelos de IA Escolha os modelos de base certos

O que há de novo?

O Granite 3.3 já está disponível na biblioteca de modelos de base do watsonx.
Mistral Medium 3 agora disponível em watsonx.ai
Nova funcionalidade do modelo
Meta Llama 4 Maverick e Llama 4 Scout já estão disponíveis no watsonx.ai
Nova funcionalidade do modelo
Os novos modelos Granite 3.3 têm recursos de conversão speech to text e desempenho aprimorado do modelo de linguagem
Nova funcionalidade do modelo

Biblioteca de modelos base

Escolha o modelo que melhor se adapte ao seu caso de uso específico, considerações orçamentárias, interesses regionais e perfil de risco.

Exibir a biblioteca de modelos de embedding
Logotipo da IBM
Modelos IBM

Adaptada para os negócios, a família IBM Granite de modelos abertos, de alto desempenho e confiáveis oferece desempenho excepcional a um preço competitivo, sem comprometer a segurança.

Veja a biblioteca de modelos IBM Saiba mais sobre o Granite
Logotipo da Meta
Modelos Meta Llama

Os modelos Llama são grandes modelos de linguagem abertos e eficientes, desenvolvidos para oferecer versatilidade e alto desempenho em uma ampla variedade de tarefas de linguagem natural

Ver a biblioteca de modelos Meta Saiba mais sobre nossa parceria
Logotipo da Mistral
Modelos de IA Mistral

Os modelos Mistral são modelos de linguagem rápidos, de alto desempenho e de peso aberto, projetados para modularidade e otimizados para geração de texto, raciocínio e aplicações multilíngues.

Veja a biblioteca de modelos Mistral
Ilustração de uma lupa
Outros provedores de modelo de terceiros

Diversos modelos de base de outros provedores estão disponíveis no watsonx.ai

Visualizar a biblioteca de modelos
Logotipo da empresa Gartner

IBM é reconhecida como líder em ciência de dados e aprendizado de máquina

A IBM foi reconhecida como líder no Gartner Magic Quadrant™ em 2025 para plataformas de ciência de dados e aprendizado de máquina.

Receba o relatório

Casos de clientes

O que acontece quando você treina um modelo de IA poderoso com seus próprios dados exclusivos? Melhores experiências do cliente e geração de valor acelerada com IA. Explore essas histórias e veja como.

Logotipo do Wimbledon
Wimbledon

O Wimbledon usou os modelos de base do watsonx.ai para treinar a IA para criar comentários sobre tênis.

Leia o estudo de caso
Logotipo da Recording Academy
The Recording Academy

A Recording Academy usou as histórias de IA com o IBM watsonx para gerar e escalar conteúdos editoriais relacionados aos indicados ao GRAMMY.

Leia o anúncio
Logotipo do Masters
Os mestres

The Masters usa o watsonx.ai para trazer insights impulsionados por IA combinados com opiniões de especialistas para plataformas digitais.

Leia o anúncio
Logotipo da AddAI.Life
AddAI.Life

A AddAI.Life utiliza watsonx.ai para acessar modelos de linguagem de código aberto e criar assistentes virtuais de alta qualidade.

Leia o estudo de caso
Nome do modelo Fornecedor Casos de uso Comprimento do contexto Preço USD/1 milhão de tokens

gpt-oss-120b

OpenAI

Implementação privada em locais ou na edge, fluxos de trabalho de raciocínio, uso de ferramentas (como pesquisa e execução de código), cadeia de raciocínio personalizável, resultados estruturados, esforço de raciocínio ajustável

128k

Entrada de 0,15 tokens 
Saída de 0,60 tokens

granite-3-3-8b-instruct

Novo
Modelo em destaque

IBM

Oferece suporte a tarefas de raciocínio e planejamento, perguntas e respostas, preenchimento intermediário, síntese, classificação, geração, extração, geração aumentada por recuperação e programação.

128k

0,20

granite-3-2-8b-instruct

IBM

Oferece suporte a tarefas de raciocínio e planejamento, perguntas e respostas, sumarização, classificação, geração, extração, RAG e programação de código.

128k

0,20

granite-vision-3-2-2b

IBM

Oferece suporte a casos de uso de imagem para texto para análise de gráficos, infográficos e Q&A contextual

16.384

0.10

granite-3-2b-instruct (v3.1)

IBM

Oferece suporte a tarefas de perguntas e respostas, resumo, classificação, geração, extração, RAG e codificação 

128k

0.10

granite-3-8b-instruct (v3.1)

Modelo em destaque

IBM

Oferece suporte a tarefas de perguntas e respostas, resumo, classificação, geração, extração, RAG e codificação 

128k

0,20

granite-guardian-3-8b (v3.1)

IBM

Suporte à detecção de HAP ou PII, jailbreaking, viés, violência e outros conteúdos nocivos.

128k

0,20

granite-guardian-3-2b (v3.1)

Descontinuado

IBM

Suporte à detecção de HAP ou PII, jailbreaking, viés, violência e outros conteúdos nocivos.

128k

0.10

granite-13b-instruct

Descontinuado

IBM 

Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG.

8192

0,60

granite-8b-code-instruct

IBM

Modelo especializado em código, capaz de gerar, explicar e traduzir código a partir de comandos em linguagem natural.

 

128k

0,60

granite-8b-japanese

Descontinuado

IBM

Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração, tradução e RAG em japonês.

4096

0,60

*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade. 

Nome do modelo Fornecedor Casos de uso Comprimento do contexto Preço USD/1 milhão de tokens

llama-4-scout-17b-16e-instruct

Novo

Meta

Raciocínio multimodal, processamento de contexto longo (10M de tokens), geração e análise de código, operações multilíngues (suporte a 200 idiomas), STEM e raciocínio lógico.

128k

Pré-visualização sem custo

llama-4-maverick-17b-128e-instruct-fp8

Novo

Meta

Raciocínio multimodal, processamento de contexto longo (10M de tokens), geração e análise de código, operações multilíngues (suporte a 200 idiomas), STEM e raciocínio lógico.

128k

Input: 0,35 / Saída: 1,40

llama-3-3-70b-instruct

Meta

Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês

128k

0.71

llama-3-2-90b-vision-instruct

Meta

Oferece suporte à legenda de imagens, transcrição de imagem para texto (OCR), incluindo caligrafia, extração e processamento de dados, Q&A contextual e identificação de objetos.

128k

2.00

llama-3-2-11b-vision-instruct

Meta

Oferece suporte à legenda de imagens, transcrição de imagem para texto (OCR), incluindo caligrafia, extração e processamento de dados, Q&A contextual e identificação de objetos.

128k

0.35

llama-guard-3-11b-vision

Meta

Suporte à filtragem de imagens, detecção de HAP ou PII e filtragem de conteúdo nocivo.

128k

0.35

llama-3-2-1b-instruct

Meta

Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês

128k

0.10

llama-3-2-3b-instruct

Meta

Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês

128k

0.15

llama-3-405b-instruct

Meta

Oferece suporte a tarefas de perguntas e respostas, resumo, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês

128k

Entrada: 5.00/Saída: 16.00

*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade. 

Modelos Mistral

Nome do modelo Fornecedor Casos de uso Comprimento do contexto Preço USD/1 milhão de tokens

mistral-medium-2505

Novo

IA Mistral

Oferece suporte a programação, geração de legendas para imagens, transcrição de imagem para texto, chamadas de função, extração e processamento de dados, perguntas e respostas com contexto e raciocínio matemático

128k

Entrada: 3.00/Saída: 10.00

mistral-small-3-1-24b-instruct-2503

Novo

IA Mistral

Oferece suporte à legenda de imagens, transcrição de imagem para texto, chamada de funções, extração e processamento de dados, Q&A contextual e identificação de objetos.

128k

Entrada: 0,10 / Saída: 0,30

pixtral-12b

Descontinuado

IA Mistral

Oferece suporte à legenda de imagens, transcrição de imagem para texto (OCR), incluindo caligrafia, extração e processamento de dados, Q&A contextual e identificação de objetos.

128k

0.35

mistral-large-2

Descontinuado

IA Mistral

Oferece suporte a Q&A, resumo, geração, codificação, classificação, extração, tradução e tarefas RAG em francês, alemão, italiano, espanhol e inglês.

128k*

Entrada: 3.00/Saída: 10.00

*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade. 

Modelos de base de terceiros

Nome do modelo Fornecedor Casos de uso Comprimento do contexto Preço USD/1 milhão de tokens

allam-1-13b-instruct

SDAIA

Oferece suporte a Q&A, resumo, classificação, geração, extração, RAG e tradução em árabe.

4096

1.80

jais-13b-chat (árabe)

core42

Oferece suporte a P&R, resumo, classificação, geração, extração e tradução em árabe.

2048

1.80

flan-t5-xl-3b

Descontinuado

Google

Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG. Disponível para ajuste de prompt.

4096

0,60

flan-t5-xxl-11b

Descontinuado

Google

Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG.

4096

1.80

flan-ul2-20b

Descontinuado

Google

Oferece suporte a tarefas de Q&A, sumarização, classificação, geração, extração e RAG.

4096

5.00

elyza-japanese-llama-2-7b-instruct

Descontinuado

ELYZA

Oferece suporte a tarefas de Q&A, sumarização, RAG, classificação, geração, extração e tradução.

4096

1.80

*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade. 

Incorporando biblioteca de modelos

Utilize modelos de embedding desenvolvidos pela IBM e de código aberto implementados no IBM watsonx.ai, para geração aumentada de recuperação, busca semântica e tarefas de comparação de documentos. Ou escolha um provedor de modelos de embedding de terceiros.

IBM Embedding Models

Nome do modelo Fornecedor Casos de uso Comprimento do contexto Preço USD/1 milhão de tokens

granite-embedding-107m-multilingual

Novo

IBM

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

granite-embedding-278m-multilingual

IBM

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

slate-125m-english-rtrvr-v2

IBM

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

slate-125m-english-rtrvr

IBM

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

slate-30m-english-rtrvr-v2

IBM

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

slate-30m-english-rtrvr

IBM

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade. 

Modelos de incorporação de terceiros

Nome do modelo Fornecedor Casos de uso Comprimento do contexto Preço USD/1 milhão de tokens

all-mini-l6-v2

Novo

Microsoft

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

256

0.10

all-minilm-l12-v2

OS-NLP-CV

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

256

0.10

multilingual-e5-large

Intel

Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.

512

0.10

*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade. 

Propriedade intelectual

A IBM acredita na criação, implementação e uso de modelos de IA que promovem a inovação empresarial de forma responsável. O portfólio de IA do IBM watsonx oferece um processo completo para desenvolvimento e teste de modelos de base e IA generativa. Nos modelos desenvolvidos pela IBM, eliminamos duplicações, aplicamos listas de bloqueio de URLs, filtros para conteúdos inadequados e verificamos a qualidade dos documentos, além de usar técnicas de segmentação de frases e tokenização antes do treinamento do modelo.

Durante o processo de treinamento de dados, trabalhamos para evitar desalinhamentos nos resultados do modelo e utilizamos o ajuste fino supervisionado para habilitar um melhor seguimento de instruções, de modo que o modelo possa ser usado para concluir tarefas corporativas por meio da engenharia de prompt. Continuamos a expandir os modelos Granite em diversas frentes, como outras modalidades, conteúdo específico para setores e mais anotações de dados para treinamento, além de aplicar medidas contínuas de proteção de dados para modelos desenvolvidos pela IBM.  

Dado o cenário de rápida mudança da tecnologia da IA generativa, espera-se que nosso processo completo evolua e melhore constantemente. Como prova do rigor que a IBM aplica ao desenvolvimento e teste de seus modelos de base, a empresa oferece indenização contratual padrão de propriedade intelectual para os modelos desenvolvidos pela IBM, semelhante àquelas que oferece para itens de hardware e software da IBM.

Além disso, diferentemente de alguns outros fornecedores de grandes modelos de linguagem e em conformidade com a abordagem padrão da IBM sobre indenização, a IBM não exige que seus clientes a indenizem pelo uso que fazem dos modelos que ela desenvolveu. Além disso, de acordo com a abordagem da IBM em relação à sua obrigação de indenização, a IBM não limita sua responsabilidade de indenização para os modelos desenvolvidos pela IBM.

Agora, sob essas proteções, os modelos watsonx incluem:

(1) Família Slate de modelos somente para codificação

(2) Família Granite de modelos somente para decodificação

Saiba mais sobre o licenciamento de modelos do Granite (PDF)

Dê o próximo passo

Comece a aplicar e expandir a IA generativa e o aprendizado de máquina nos seus negócios explorando nossa avaliação sem custo ou agendando uma demonstração ao vivo

Comece sua avaliação sem custo Agende uma demonstração em tempo real
Outras maneiras de explorar Interaja com a comunidade da IBM Leia a documentação do SaaS Leia a documentação do software Encontre suporte
Notas de rodapé

* O comprimento de contexto aceito depende do fornecedor do modelo, mas o limite real do contexto na plataforma é limitado. Para mais informações, consulte a documentação.

A inferência é cobrada em Unidades de Recurso. 1 Unidade de Recurso equivale a 1.000 tokens. Os tokens de entrada e saída são cobrados na mesma taxa. 1.000 tokens correspondem, em média, a 750 palavras.

Nem todos os modelos estão disponíveis em todas as regiões. Consulte nossa documentação para obter mais informações.

O comprimento do contexto é medido em tokens.

As declarações da IBM sobre seus planos, direções e intenções podem mudar ou ser retiradas sem aviso prévio, a seu exclusivo critério. Consulte Preços para mais detalhes. Salvo indicação contrária na precificação de software, todas as funcionalidades, recursos e possíveis atualizações referem-se exclusivamente ao SaaS. A IBM não garante que as funcionalidades e recursos do SaaS e do software sejam os mesmos.