Início
AI and ML
watsonx
watsonx.ai
Modelos de base na watsonx.ai
Ter opções é essencial para adotar a IA no seu negócio com sucesso. Nem todos os modelos são criados iguais. Os melhores modelos dependerão de seus setores, áreas e casos de uso. A watsonx.ai oferece aos clientes e parceiros uma seleção de modelos que abrangem os modelos de base desenvolvidos pela IBM, modelos de código aberto e modelos provenientes de fornecedores terceirizados. Oferecemos opções e flexibilidade em duas frentes: modelos e ambientes de implementação. Você pode implementar os modelos de IA onde quer que sua carga de trabalho se encontre.
Por mais de um século, a IBM trabalha para conquistar a confiança das empresas e da sociedade introduzindo no mundo tecnologias novas e avançadas, entre elas a IA, de forma responsável e com um propósito claro.
A primeira versão da watsonx.ai incluía a família Slate de modelos somente de codificação voltados para casos de uso de processamento de linguagem natural (PNL) empresarial.
Com os recém-lançados modelos de base Granite, você pode aproveitar as vantagens de uma arquitetura somente de decodificação, projetada para tarefas generativas tais como resumo, geração de conteúdo e extração de insights.
IBM® Granite é nossa família de modelos de IA abertos, de alto desempenho e confiáveis, desenvolvidos para negócios e otimizados para ampliar suas aplicações de IA. Com o Granite 3.1, você encontrará modelos de código aberto, prontos para uso corporativo, que oferecem desempenho excepcional em uma ampla variedade de tarefas empresariais, como cibersegurança e RAG, além de atender a benchmarks de segurança.
Utilize modelos de incorporação desenvolvidos pela IBM e de código aberto, implementados no IBM watsonx.ai, para tarefas de geração aumentada por recuperação, busca semântica e comparação de documentos.
Escolha o modelo certo, desde menos de um bilhão até 34 bilhões de parâmetros, com código aberto sob a licença Apache 2.0.
Não sacrifique desempenho por custo. Granite supera modelos comparáveis em diversas tarefas empresariais.
Crie uma IA responsável com um conjunto abrangente de recursos para detecção de riscos e danos, transparência e proteção de propriedade intelectual.
Selecione um modelo de base generativo que melhor se adapte às suas necessidades. Após definir uma lista curta de modelos para o seu caso de uso, teste-os sistematicamente utilizando técnicas de engenharia de prompts para identificar aqueles que retornam os resultados desejados com maior consistência.
granite-3-2b-instruct (v3.1)
IBM
Suporta perguntas e respostas (Q&A), sumarização, classificação, geração, extração, RAG e tarefas de codificação.
128 mil
0,10
granite-3-8b-instruct (v3.1)
IBM
Suporta perguntas e respostas (Q&A), sumarização, classificação, geração, extração, RAG e tarefas de codificação.
128 mil
0,20
granite-guardian-3-8b (v3.1)
IBM
Suporta a detecção de HAP/PII, jailbreaking, viés, violência e outros conteúdos prejudiciais.
128 mil
0,20
granite-guardian-3-2b (v3.1)
IBM
Suporta a detecção de HAP/PII, jailbreaking, viés, violência e outros conteúdos prejudiciais.
128 mil
0,10
granite-20b-multilingual
IBM
Suporta perguntas e respostas, sumarização, classificação, geração, extração, tradução e tarefas de RAG em francês, alemão, português, espanhol e inglês.
8192
0,60
granite-13b-chat
IBM
Oferece suporte a tarefas de perguntas e respostas (Q&A), sumarização, classificação, geração, extração e RAG.
8192
0,60
granite-13b-instruct
IBM
Oferece suporte a tarefas de perguntas e respostas, sumarização, classificação, geração, extração e RAG.
8192
0,60
granite-34b-code-instruct
IBM
Modelo específico para tarefas de código, capaz de gerar, explicar e traduzir código a partir de um prompt em linguagem natural.
8192
0,60
granite-20b-code-instruct
IBM
Modelo específico para tarefas de código, capaz de gerar, explicar e traduzir código a partir de um prompt em linguagem natural.
8192
0,60
granite-8b-code-instruct
IBM
Modelo específico para tarefas de código, capaz de gerar, explicar e traduzir código a partir de um prompt em linguagem natural.
128 mil
0,60
granite-3b-code-instruct
IBM
Modelo específico para tarefas de código, capaz de gerar, explicar e traduzir código a partir de um prompt em linguagem natural.
128 mil
0,60
granite-8b-japanese
IBM
Oferece suporte a tarefas de perguntas e respostas, sumarização, classificação, geração, extração, tradução e RAG em japonês.
4096
0,60
llama-3-3-70b-instruct
Meta
Oferece suporte a perguntas e respostas, sumarização, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
128 mil
0,71
llama-3-2-90b-vision-instruct
Meta
Suporta legendagem de imagens, transcrição de imagem para texto (OCR), incluindo escrita manual, extração e processamento de dados, perguntas e respostas baseadas em contexto e identificação de objetos.
128 mil
2,00
llama-3-2-11b-vision-instruct
Meta
Suporta legendagem de imagens, transcrição de imagem para texto (OCR), incluindo escrita manual, extração e processamento de dados, perguntas e respostas baseadas em contexto e identificação de objetos.
128 mil
0,35
llama-guard-3-11b-vision
Meta
Suporta filtragem de imagens, detecção de HAP/PII e filtragem de conteúdo prejudicial.
128 mil
0,35
llama-3-2-1b-instruct
Meta
Oferece suporte a perguntas e respostas, sumarização, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
128 mil
0,10
llama-3-2-3b-instruct
Meta
Oferece suporte a perguntas e respostas, sumarização, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
128 mil
0,15
llama-3-405b-instruct
Meta
Suporta perguntas e respostas, sumarização, geração, programação, classificação, extração, tradução e tarefas de RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês. |
128 mil
Input: 5.00/Saída: 16.00
llama-3-1-70b-instruct
Meta
Suporta tarefas de perguntas e respostas (Q&A), sumarização, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
128 mil
1,80
llama-3-1-8b-instruct
Meta
Suporta tarefas de perguntas e respostas (Q&A), sumarização, geração, codificação, classificação, extração, tradução e RAG em inglês, alemão, francês, italiano, português, hindi, espanhol e tailandês.
128 mil
0,60
llama-3-8b-instruct
Meta
Suporta tarefas de sumarização, classificação, geração, extração e tradução.
8192
0,60
llama-3-70b-instruct
Meta
Suporta tarefas de RAG, geração, sumarização, classificação, perguntas e respostas, extração, tradução e geração de código.
8192
1,80
allam-1-13b-instruct
SDAIA
Suporta perguntas e respostas, sumarização, classificação, geração, extração, RAG e tradução em árabe.
4096
1,80
codellama-34b-instruct
Meta
Modelo específico para código, gerando e traduzindo código a partir de um prompt em linguagem natural.
16384
1,80
pixtral-12b
IA Mistral
Suporta legendagem de imagens, transcrição de imagem para texto (OCR), incluindo escrita manual, extração e processamento de dados, perguntas e respostas baseadas em contexto e identificação de objetos.
128 mil
0,35
mistral-large-2
IA Mistral
Suporta perguntas e respostas, sumarização, geração, programação, classificação, extração, tradução e tarefas de RAG em francês, alemão, italiano, espanhol e inglês.
128 mil*
Input: 3.00/Saída: 10.00
Mistral-Small-24B-Instruct-2501
IA Mistral
Suporta tarefas de linguagem, fluxos de trabalho agênticos, RAG e muito mais em dezenas de idiomas, com tempo de resposta rápido.
32768
0,35
mixtral-8x7b-instruct
IA Mistral
Suporta perguntas e respostas, sumarização, classificação, geração, extração, RAG e geração de código.
32768
0,60
jais-13b-chat (árabe)
core42
Suporta perguntas e respostas, sumarização, classificação, geração, extração e tradução em árabe.
2048
1,80
flan-t5-xl-3b
Suporta perguntas e respostas, sumarização, classificação, geração, extração e tarefas de RAG. Disponível para ajuste fino de prompt.
4096
0,60
flan-t5-xxl-11b
Oferece suporte a tarefas de perguntas e respostas, sumarização, classificação, geração, extração e RAG.
4096
1,80
flan-ul2-20b
Oferece suporte a tarefas de perguntas e respostas, sumarização, classificação, geração, extração e RAG.
4096
5,00
elyza-japanese-llama-2-7b-instruct
ELYZA
Suporta perguntas e respostas, sumarização, RAG, classificação, geração, extração e tradução.
4096
1,80
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
Modelos de embedding convertem texto de input em embeddings, que são representações vetoriais densas do texto. Os embeddings capturam relações semânticas e sintáticas sutis entre palavras e trechos no espaço vetorial.
granite-embedding-107m-multilingual
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
granite-embedding-278m-multilingual
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
slate-125m-english-rtrvr-v2
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
slate-125m-english-rtrvr
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
slate-30m-english-rtrvr-v2
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
slate-30m-english-rtrvr
IBM
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
all-mini-l6-v2
Microsoft
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
256
0,10
all-minilm-l12-v2
OS-NLP-CV
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
256
0,10
multilingual-e5-large
Intel
Suporte para geração aumentada por recuperação, busca semântica e comparação de documentos.
512
0,10
*Os preços apresentados são indicativos, podem variar de acordo com o país, excluem impostos e taxas aplicáveis e estão sujeitos à disponibilidade de ofertas do produto em uma localidade.
As empresas estão entusiasmadas com a possibilidade de integrar modelos de base e aprendizado de máquina em um único ambiente, utilizando seus próprios dados para acelerar cargas de trabalho de IA generativa.
A IBM acredita na criação, implementação e utilização de modelos de IA que promovam a inovação no ambiente corporativo de forma responsável. O portfólio IBM watsonx AI possui um processo completo para a construção e teste de modelos de base e IA generativa. Para os modelos desenvolvidos pela IBM, buscamos e removemos duplicações, aplicamos listas de bloqueio de URLs, filtros para conteúdo inadequado e verificamos a qualidade dos documentos, além de utilizar técnicas de segmentação de sentenças e tokenização, tudo antes do treinamento do modelo.
Durante o processo de treinamento de dados, trabalhamos para evitar desalinhamentos nas saídas do modelo e utilizamos ajustes supervisionados para melhorar o seguimento de instruções, permitindo que o modelo execute tarefas corporativas por meio de engenharia de prompts. Continuamos desenvolvendo os modelos Granite em diversas direções, incluindo outras modalidades, conteúdos específicos para setores e mais anotações de dados para treinamento, ao mesmo tempo em que implementamos salvaguardas regulares e contínuas de proteção de dados para os modelos desenvolvidos pela IBM.
Dado o cenário de rápida evolução da tecnologia de IA generativa, nossos processos completos devem continuar evoluindo e melhorando. Como prova do rigor que a IBM emprega no desenvolvimento e teste de seus modelos de base, a empresa oferece sua indenização padrão de propriedade intelectual contratual para os modelos desenvolvidos pela IBM, similar àquela fornecida para seus produtos de hardware e software.
Além disso, diferentemente de alguns outros fornecedores de grandes modelos de linguagem e em conformidade com a abordagem padrão da IBM sobre indenização, a IBM não exige que seus clientes a indenizem pelo uso que fazem dos modelos que ela desenvolveu. Também, em linha com sua abordagem de obrigações de indenização, a IBM não impõe um limite de responsabilidade de indenização para os modelos desenvolvidos internamente.
Agora, sob essas proteções, os modelos watsonx incluem:
(1) Família Slate de modelos somente para codificação.
(2) Família Granite de modelos somente para decodificação.
*O comprimento do contexto suportado varia conforme o provedor do modelo, mas o contexto real disponível na plataforma é limitado. Para mais informações, consulte a documentação.
A inferência é cobrada em Unidades de Recurso. 1 Unidade de Recurso equivale a 1.000 tokens. Os tokens de input e saída são cobrados à mesma taxa. Geralmente, 1.000 tokens correspondem a cerca de 750 palavras.
Nem todos os modelos estão disponíveis em todas as regiões, consulte nossa documentação para detalhes.
O comprimento do contexto é medido em tokens.
As declarações da IBM sobre seus planos, direções e intenções estão sujeitas a alterações ou retirada sem aviso prévio, a critério exclusivo da empresa. Consulte a página de preços para mais detalhes. A menos que especificado de outra forma na precificação de software, todos os recursos, funcionalidades e possíveis atualizações referem-se exclusivamente ao SaaS. A IBM não garante que os recursos e funcionalidades do SaaS e do software sejam as mesmas.