Seleziona il modello IBM Granite, open source o di terze parti più adatto alla tua attività e implementalo in sede o nel cloud.
Scegli il modello che meglio si adatta al tuo caso d'uso specifico, alle considerazioni sul budget, agli interessi geografici e al profilo di rischio.
Su misura per le aziende, la famiglia di modelli aperti, performanti e affidabili di IBM Granite offre prestazioni eccezionali a un prezzo competitivo, senza compromettere la sicurezza.
I modelli Llama sono modelli di linguaggio ampio aperti ed efficienti progettati per versatilità e prestazioni elevate in un'ampia gamma di attività in linguaggio naturale.
I modelli Mistral sono veloci, performanti, modelli di linguaggio open-weight progettati per la modularità e ottimizzati per la generazione di testo, il ragionamento e le applicazioni multilingue.
Su watsonx.ai sono disponibili diversi foundation model di altri fornitori.
Cosa succede quando addestri un potente modello AI con i tuoi dati unici? Esperienze del cliente migliori e valore più rapido con l'AI. Esplora queste storie e scopri come.
Wimbledon ha utilizzato i foundation model watsonx.ai per addestrare la sua AI per creare commenti sul tennis.
La Recording Academy ha utilizzato AI Stories con IBM watsonx per generare e scalare i contenuti editoriali riguardanti i candidati ai GRAMMY.
Il Masters utilizza watsonx.ai per portare sulle piattaforme digitali insight basati su AI, combinate con opinioni di esperti.
AddAI.Life utilizza watsonx.ai per accedere a modelli linguistici di grandi dimensioni open source selezionati e creare assistenti virtuali di qualità superiore.
gpt-oss-120b
OpenAI
Implementazione privata on-premise o edge, workflow di ragionamento, utilizzo di strumenti (ad esempio ricerca, esecuzione del codice), chain-of-thought personalizzabile, output strutturati, attività di ragionamento regolabile
128K
input di 0,15 token
output di 0,60 token
granite-3-3-8b-instruct
IBM
Supporta il ragionamento e la pianificazione, le attività di Q&A, il supporto per il fill-in-the-middle, il riepilogo, la classificazione, la generazione, l'estrazione, la RAG e le attività di codifica.
128k
0,20
granite-3-2-8b-instruct
IBM
Supporta il ragionamento e la pianificazione, le attività di Q&A, il riepilogo, la classificazione, la generazione, l'estrazione, il RAG e le attività di codifica.
128k
0,20
granite-vision-3-2-2b
IBM
Supporta casi d'uso da immagine a testo per l'analisi di diagrammi, grafici e infografiche e domande e risposte sul contesto.
16.384
0.10
granite-3-2b-instruct (v3.1)
IBM
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione, RAG e codifica.
128k
0.10
granite-3-8b-instruct (v3.1)
IBM
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione, RAG e codifica.
128k
0,20
granite-guardian-3-8b (v3.1)
IBM
Supporta il rilevamento di HAP/ o PII, jailbreaking, bias, violenza e altri contenuti dannosi.
128k
0,20
granite-guardian-3-2b (v3.1)
IBM
Supporta il rilevamento di HAP o PII, jailbreaking, bias, violenza e altri contenuti dannosi.
128k
0.10
granite-13b-instruct
IBM
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione e RAG.
8192
0.60
granite-8b-code-instruct
IBM
Modello specifico per la programmazione che genera, spiega e traduce il codice a partire da un prompt in linguaggio naturale.
128k
0.60
granite-8b-japanese
IBM
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione, traduzione e RAG in giapponese.
4096
0.60
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
llama-4-scout-17b-16e-instruct
Meta
Ragionamento multimodale, elaborazione del contesto lungo (10 milioni di token), generazione e analisi di codice, operazioni multilingue (200 lingue supportate), STEM e ragionamento logico.
128k
Anteprima gratuita
llama-4-maverick-17b-128e-instruct-fp8
Meta
Ragionamento multimodale, elaborazione del contesto lungo (10 milioni di token), generazione e analisi di codice, operazioni multilingue (200 lingue supportate), STEM e ragionamento logico.
128k
Input: 0,35 / Output: 1,40
llama-3-3-70b-instruct
Meta
Supporta le attività di Q&A, riepilogo, generazione, codifica, classificazione, estrazione, traduzione e RAG nelle lingue inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e thailandese.
128k
0.71
llama-3-2-90b-vision-instruct
Meta
Supporta la didascalia delle immagini, la trascrizione da immagine a testo (OCR) inclusa la scrittura a mano, l'estrazione e l'elaborazione dei dati, il contesto Q&A e l'identificazione degli oggetti.
128k
2.00
llama-3-2-11b-vision-instruct
Meta
Supporta la didascalia delle immagini, la trascrizione da immagine a testo (OCR) inclusa la scrittura a mano, l'estrazione e l'elaborazione dei dati, il contesto Q&A e l'identificazione degli oggetti.
128k
0.35
llama-guard-3-11b-vision
Meta
Supporta il filtro delle immagini, il rilevamento HAP o PII e il filtro dei contenuti dannosi.
128k
0.35
llama-3-2-1b-instruct
Meta
Supporta le attività di Q&A, riepilogo, generazione, codifica, classificazione, estrazione, traduzione e RAG nelle lingue inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e thailandese.
128k
0.10
llama-3-2-3b-instruct
Meta
Supporta le attività di Q&A, riepilogo, generazione, codifica, classificazione, estrazione, traduzione e RAG nelle lingue inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e thailandese.
128k
0.15
llama-3-405b-instruct
Meta
Supporta le attività di Q&A, riepilogo, generazione, codifica, classificazione, estrazione, traduzione e RAG nelle lingue inglese, tedesco, francese, italiano, portoghese, hindi, spagnolo e thailandese. |
128k
Input: 5.00 / Output: 16.00
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
mistral-medium-2505
Mistral AI
Supporta la codifica, la didascalia delle immagini, la trascrizione da immagine a testo, la chiamata di funzioni, l'estrazione e l'elaborazione dei dati, il contesto Q&A, il ragionamento matematico
128k
Input: 3.00 / Output: 10.00
mistral-small-3-1-24b-instruct-2503
Mistral AI
Supporta la didascalia delle immagini, la trascrizione da immagine a testo, il richiamo di funzioni, l'estrazione e l'elaborazione dei dati, il contesto Q&A e l'identificazione degli oggetti
128k
Input: 0,10 / Output: 0,30
pixtral-12b
Mistral AI
Supporta la didascalia delle immagini, la trascrizione da immagine a testo (OCR) inclusa la scrittura a mano, l'estrazione e l'elaborazione dei dati, il contesto Q&A e l'identificazione degli oggetti.
128k
0.35
mistral-large-2
Mistral AI
Supporta le attività di Q&A, riepilogo, generazione, codifica, classificazione, estrazione, traduzione e RAG in francese, tedesco, italiano, spagnolo e inglese.
128k*
Input: 3.00 / Output: 10.00
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
allam-1-13b-instruct
SDAIA
Supporta le attività di Q&A, riepilogo, classificazione, generazione, estrazione, RAG e traduzione in arabo.
4096
1.80
jais-13b-chat (Arabic)
core42
Supporta le attività di Q&A, riepilogo, classificazione, generazione, estrazione e traduzione in arabo.
2048
1.80
flan-t5-xl-3b
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione e RAG. Disponibile per la messa a punto dei prompt.
4096
0.60
flan-t5-xxl-11b
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione e RAG.
4096
1.80
flan-ul2-20b
Supporta le attività di domanda e risposta, riepilogo, classificazione, generazione, estrazione e RAG.
4096
5.00
elyza-japanese-llama-2-7b-instruct
ELYZA
Supporta le attività di domanda e risposta, riepilogo, RAG, classificazione, generazione, estrazione e traduzione.
4096
1.80
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
Utilizza modelli di incorporamento sviluppati e open source di IBM, implementati in IBM watsonx.ai, per attività di retrieval-augmented generation, ricerca semantica e confronto di documenti. Oppure scegli un fornitore di modelli di embedding di terze parti.
granite-embedding-107m-multilingual
IBM
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
granite-embedding-278m-multilingual
IBM
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
slate-125m-english-rtrvr-v2
IBM
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
slate-125m-english-rtrvr
IBM
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
slate-30m-english-rtrvr-v2
IBM
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
slate-30m-english-rtrvr
IBM
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
all-mini-l6-v2
Microsoft
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
256
0.10
all-minilm-l12-v2
OS-NLP-CV
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
256
0.10
multilingual-e5-large
Intel
Attività di retrieval-augmented generation, ricerca semantica e confronto di documenti.
512
0.10
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
* Lunghezza del contesto supportata dal fornitore del modello, tuttavia la lunghezza effettiva del contesto sulla piattaforma è limitata. Per ulteriori informazioni, consultare la documentazione.
L'inferenza viene fatturata in unità di risorse. 1 unità di risorsa è pari a 1.000 token. Input e token di completamento sono addebitati alla stessa tariffa. 1.000 token corrispondono generalmente a circa 750 parole.
Non tutti i modelli sono disponibili in tutte le regioni. Per maggiori dettagli, consulta la nostra documentazione.
La lunghezza del contesto è espressa in token.
Le dichiarazioni IBM relative a piani, indicazioni e intenzioni sono soggette a modifiche o a ritiro senza preavviso, a esclusiva discrezione di IBM. Per maggiori dettagli, consulta la sezione Prezzi. Se non diversamente specificato nella sezione Prezzi del software, tutte le funzioni, le funzionalità e i potenziali aggiornamenti si riferiscono esclusivamente a SaaS. IBM non garantisce che funzioni e funzionalità SaaS e del software siano le stesse.