Wählen Sie das IBM® Granite-, Open-Source- oder Drittanbieter-Modell, das am besten für Ihr Unternehmen geeignet ist, und implementieren Sie es On-Prem oder in der Cloud.
Wählen Sie das Modell, das am besten zu Ihrem spezifischen Anwendungsfall, Ihren Budgetüberlegungen, regionalen Interessen und Ihrem Risikoprofil passt.
Die offenen, leistungsstarken und vertrauenswürdigen Modelle der IBM Granite-Familie sind auf Unternehmen zugeschnitten und bieten außergewöhnliche Leistung zu einem wettbewerbsfähigen Preis, ohne Kompromisse bei der Sicherheit einzugehen.
Llama-Modelle sind offene, effiziente große Sprachmodelle, die für Vielseitigkeit und starke Leistung in einem breiten Spektrum von Aufgaben im Bereich der natürlichen Sprache konzipiert sind.
Mistral-Modelle sind schnelle, leistungsstarke, offene Sprachmodelle, die auf Modularität ausgelegt und für Texterstellung, Argumentation und mehrsprachige Anwendungen optimiert sind.
Auf watsonx.ai sind mehrere Foundation Models anderer Anbieter verfügbar.
Was passiert, wenn Sie ein leistungsstarkes KI-Modell mit Ihren eigenen einzigartigen Daten trainieren? Bessere Customer Experience und schnellere Wertschöpfung mit KI. Lesen Sie diese Geschichten und erfahren Sie, wie das möglich ist.
Wimbledon verwendete die Foundation Models von watsonx.ai, um seine KI für die Erstellung von Tenniskommentaren zu trainieren.
Die Recording Academy verwendete AI Stories mit IBM watsonx, um redaktionelle Inhalte rund um die GRAMMY-Nominierten zu generieren und zu skalieren.
The Masters nutzt watsonx.ai, um KI-gestützte „Hole Insights“ in Kombination mit Expertenmeinungen auf digitale Plattformen zu bringen.
AddAI.Life nutzt watsonx.ai, um auf ausgewählte große Open-Source-Sprachmodelle zuzugreifen und so hochwertigere virtuelle Assistenten zu entwickeln.
granite-3-3-8b-instruct
IBM
Unterstützt Aufgaben in den Bereichen Argumentation und Planung, Question and Answer (Q&A), Unterstützung beim Füllen im Mittelbereich, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung.
128.000
0,20
granite-3-2-8b-instruct
IBM
Unterstützt Aufgaben in den Bereichen Abwägen und Planen, Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung.
128.000
0,20
granite-vision-3-2-2b
IBM
Unterstützt Bild-zu-Text-Anwendungsfälle für die Analyse von Diagrammen, Grafiken und Infografiken sowie kontextbezogene Fragen und Antworten.
16.384
0.10
Granite-3-2b-Instruct (v3.1)
IBM
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung.
128.000
0.10
Granite-3-8b-Instruct (v3.1)
IBM
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung.
128.000
0,20
Granite-Guardian-3-8b (v3.1)
IBM
Unterstützt die Erkennung von HAP/oder PII, Jailbreaking, Verzerrung, Gewalt und anderen schädlichen Inhalten.
128.000
0,20
Granite-Guardian-3-2b (v3.1)
IBM
Unterstützt die Erkennung von HAP oder personenbezogenen Daten, Jailbreaking, Verzerrung, Gewalt und anderen schädlichen Inhalten.
128.000
0.10
granite-13b-instruct
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
8192
0,60
granite-8b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
128.000
0,60
granite-20b-multilingual
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in französischer, deutscher, portugiesischer, spanischer und englischer Sprache.
8192
0,60
granite-34b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
8192
0,60
granite-20b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
8192
0,60
granite-3b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
128.000
0,60
granite-8b-japanese
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in japanischer Sprache.
4096
0,60
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
llama-4-scout-17b-16e-instruct
Meta
Multimodale Argumentation, Verarbeitung langer Kontexte (10 Mio. Token), Codegenerierung und -analyse, mehrsprachige Abläufe (200 Sprachen werden unterstützt), MINT und logische Argumentation.
128 Tsd.
Kostenlose Vorschau
llama-4-maverick-17b-128e-instruct-fp8
Meta
Multimodale Argumentation, Verarbeitung langer Kontexte (10 Mio. Token), Codegenerierung und -analyse, mehrsprachige Abläufe (200 Sprachen werden unterstützt), MINT und logische Argumentation.
128 Tsd.
Eingabe: 0,35 / Ausgabe: 1,40
llama-3-3-70b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Generierung, Codierung, Klassifizierung, Extraktion, Übersetzung und RAG in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
0,71
llama-3-2-90b-vision-instruct
Meta
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, kontextbezogene Fragen und Antworten und Objektidentifizierung.
128 Tsd.
2.00
llama-3-2-11b-vision-instruct
Meta
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, kontextbezogene Fragen und Antworten und Objektidentifizierung.
128 Tsd.
0.35
llama-guard-3-11b-vision
Meta
Unterstützt Bildfilterung, HAP- oder PII-Erkennung und Filterung schädlicher Inhalte.
128 Tsd.
0.35
llama-3-2-1b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Generierung, Codierung, Klassifizierung, Extraktion, Übersetzung und RAG in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
0.10
llama-3-2-3b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Generierung, Codierung, Klassifizierung, Extraktion, Übersetzung und RAG in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
0.15
llama-3-405b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Generierung, Codierung, Klassifizierung, Extraktion, Übersetzung und RAG in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. |
128 Tsd.
Eingabe: 5,00 / Ausgabe: 16,00
llama-3-1-70b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Generierung, Codierung, Klassifizierung, Extraktion, Übersetzung und RAG in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
1,80
llama-3-1-8b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Q&A, Zusammenfassung, Generierung, Codierung, Klassifizierung, Extraktion, Übersetzung und RAG in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128.000
0,60
llama-3-70b-instruct
Meta
Unterstützt RAG-, Generierungs-, Zusammenfassungs-, Klassifizierungs-, Q&A-, Extraktions-, Übersetzungs- und Codegenerierungsaufgaben.
8192
1,80
codellama-34b-instruct
Meta
Aufgabenspezifisches Modell für Code durch Generieren und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
16384
1,80
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
mistral-medium-2505
Mistral AI
Unterstützt Codierung, Bildbeschriftung, Bild-zu-Text-Transkription, Funktionsaufrufe, Datenextraktion und -verarbeitung, kontextbezogene Fragen und Antworten, mathematisches Denken
128.000
Voranzeige
mistral-small-3-1-24b-instruct-2503
Mistral AI
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription, Funktionsaufrufe, Datenextraktion und -verarbeitung, kontextbezogene Fragen und Antworten und Objektidentifizierung
128.000
Eingabe: 0,10 / Ausgabe: 0,30
pixtral-12b
Mistral AI
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, kontextbezogene Fragen und Antworten und Objektidentifizierung.
128.000
0.35
mistral-large-2
Mistral AI
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG in französischer, deutscher, italienischer, spanischer und englischer Sprache.
128 Tsd.*
Eingabe: 3,00 / Ausgabe: 10,00
Mistral-Small-24B-Instruct-2501
Mistral AI
Unterstützt Sprachaufgaben, Agenten-Workflows, RAG und mehr in Dutzenden von Sprachen mit einer schnellen Reaktionszeit.
32768
0.35
mixtral-8x7b-instruct
Mistral AI
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Code-Programmierung.
32768
0,60
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
allam-1-13b-instruct
SDAIA
Unterstützt Q&A, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Übersetzung in Arabisch.
4096
1,80
jais-13b-chat (Arabisch)
core42
Unterstützt Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und Übersetzung ins Arabische.
2048
1,80
flan-t5-xl-3b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG. Verfügbar für Prompt-Tuning.
4096
0,60
flan-t5-xxl-11b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
1,80
flan-ul2-20b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
5,00
elyza-japanese-llama-2-7b-instruct
ELYZA
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, RAG, Klassifizierung, Generierung, Extraktion und Übersetzung.
4096
1,80
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
Verwenden Sie von IBM entwickelte und Open-Source-Integrationssmodelle, die in IBM watsonx.ai für Aufgaben zur Retrieval-Augmented Generation, zur semantischen Suche und zum Vergleich von Dokumenten bereitgestellt werden. Oder wählen Sie einen Drittanbieter von Einbettungsmodellen.
Granite-Embedding-107M-Multilingual
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
Granite-Embedding-278M-Multilingual
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
slate-125m-english-rtrvr-v2
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
slate-125m-english-rtrvr
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
slate-30m-english-rtrvr-v2
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
slate-30m-english-rtrvr
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
all-mini-l6-v2
Microsoft
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
256
0.10
all-minilm-l12-v2
OS-NLP-CV
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
256
0.10
multilingual-e5-large
Intel
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0.10
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Das IBM watsonx.ai KI-Portfolio bietet einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzaufteilungen und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.
Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit.
Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.
Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.
Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:
(1) Slate-Familie mit reinen Encoder-Modellen
(2) Granite-Familie mit reinen Decoder-Modellen
*Unterstützte Kontextlänge vom Modellanbieter, aber die tatsächliche Kontextlänge auf der Plattform ist begrenzt. Weitere Informationen finden Sie unter Dokumentation.
Inference wird in Ressourceneinheiten abgerechnet. 1 Ressourceneinheit entspricht 1.000 Token. Eingabe- und Abschluss-Token werden zum gleichen Tarif berechnet. 1.000 Token entsprechen üblicherweise etwa 750 Wörtern.
Nicht alle Modelle sind in allen Regionen verfügbar. Weitere Informationen finden Sie in unserer Dokumentation.
Die Kontextlänge ist in Token ausgedrückt.
Die Aussagen von IBM zu den Plänen, der Ausrichtung und der Absicht des Unternehmens können ohne Vorankündigung und nach alleinigem Ermessen von IBM geändert oder zurückgezogen werden. Weitere Informationen finden Sie unter Preisgestaltung. Sofern unter „Preise für Software" nicht anders angegeben, beziehen sich alle Merkmale, Funktionalitäten und möglichen Updates ausschließlich auf SaaS. IBM gibt keine Zusicherung, dass SaaS und die Software-Features und Funktionalitäten identisch sind.