IBM watsonx-Modelle sind für Unternehmen entwickelt und für spezifische Geschäftsbereiche und Anwendungsfälle optimiert. Mit dem KI-Studio IBM® watsonx.ai bieten wir eine Auswahl an preiswerten, eigens von IBM für Unternehmen entwickelten Basismodellen, Open-Source-Modellen und Modellen von Drittanbietern, die Kunden und Partnern helfen, künstliche Intelligenz (KI) schneller und mit minimalem Risiko zu skalieren und zu nutzen. Sie können die KI-Modelle individuell für Ihre Workload einsetzen, sowohl lokal als auch in der Hybrid Cloud.
IBM verfolgt einen differenzierten Ansatz zur Bereitstellung von Foundation Models der Unternehmensklasse:
Mit der Bibliothek mit Foundation Models von IBM watsonx haben Sie die Wahl und die Flexibilität, sich für das Modell zu entscheiden, das am besten zu Ihren geschäftlichen Anforderungen, regionalen Interessen und Risikoprofilen passt. Dabei umfasst die Bibliothek sowohl proprietäre Modelle als auch Open-Source- und Drittanbieter-Modelle.
IBM Granite ist unsere Auswahl offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und optimiert sind, um Ihre KI-Anwendungen zu skalieren. Mit Granite 3.1 finden Sie offene, unternehmenstaugliche Modelle, die bei einer Vielzahl von Unternehmensaufgaben, wie z. B. Cybersecurity und RAG, außergewöhnliche Leistungen erbringen und Sicherheitsbenchmarks erfüllen.
Verwenden Sie von IBM entwickelte und Open-Source-Integrationssmodelle, die in IBM watsonx.ai für Aufgaben zur Retrieval-Augmented Generation, zur semantischen Suche und zum Vergleich von Dokumenten bereitgestellt werden.
Wählen Sie das richtige Modell, von unter einer Milliarde bis zu 34 Milliarden Parametern, Open Source unter Apache 2.0.
Opfern Sie nicht die Leistung aus Kostengründen. Granite übertrifft vergleichbare Modelle 1 bei einer Vielzahl von Unternehmensaufgaben.
Entwickeln Sie verantwortungsvolle KI mit umfassenden Funktionen zur Risiko- und Schadenserkennung, Transparenz und IP-Schutz.
Entscheiden Sie sich für ein generatives Foundation Model, das Ihren Anforderungen am besten entspricht. Erstellen Sie eine übersichtliche Liste von Modellen für Ihren Anwendungsfall. Testen Sie diese Modelle anschließend systematisch mit Prompt-Engineering-Techniken, um festzustellen, welche durchgängig die gewünschten Ergebnisse liefern.
Granite-3-2b-Instruct (v3.1)
IBM
Unterstützt Aufgaben in den Bereichen: Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung.
128 Tsd.
0,10
Granite-3-8b-Instruct (v3.1)
IBM
Unterstützt Aufgaben in den Bereichen: Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung.
128 Tsd.
0,20
Granite-Guardian-3-8b (v3.1)
IBM
Unterstützt die Erkennung von HAP/PII, Jailbreaking, Verzerrung, Gewalt und anderen schädlichen Inhalten.
128 Tsd.
0,20
Granite-Guardian-3-2b (v3.1)
IBM
Unterstützt die Erkennung von HAP/PII, Jailbreaking, Verzerrung, Gewalt und anderen schädlichen Inhalten.
128 Tsd.
0,10
granite-20b-multilingual
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in französischer, deutscher, portugiesischer, spanischer und englischer Sprache.
8192
0,60
granite-13b-chat
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
8192
0,60
granite-13b-instruct
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
8192
0,60
granite-34b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
8192
0,60
granite-20b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
8192
0,60
granite-8b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
128 Tsd.
0,60
granite-3b-code-instruct
IBM
Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
128 Tsd.
0,60
granite-8b-japanese
IBM
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in japanischer Sprache.
4096
0,60
llama-3-3-70b-instruct
Meta
Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
0,71
llama-3-2-90b-vision-instruct
Meta
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, Kontext Q&A, Objektidentifizierung
128 Tsd.
2,00
llama-3-2-11b-vision-instruct
Meta
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, Kontext Q&A, Objektidentifizierung
128 Tsd.
0,35
llama-guard-3-11b-vision
Meta
Unterstützt Bildfilterung, HAP/PII-Erkennung und Filterung schädlicher Inhalte
128 Tsd.
0,35
llama-3-2-1b-instruct
Meta
Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
0,10
llama-3-2-3b-instruct
Meta
Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.
128 Tsd.
0,15
llama-3-405b-instruct
Meta
Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai. |
128 Tsd.
Eingabe: 5,00 / Ausgabe: 16,00
llama-3-1-70b-instruct
Meta
Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai
128 Tsd.
1,80
llama-3-1-8b-instruct
Meta
Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai
128 Tsd.
0,60
llama-3-8b-instruct
Meta
Unterstützt Aufgaben in den Bereichen Zusammenfassung, Klassifizierung, Generierung, Extraktion und Übersetzung.
8192
0,60
llama-3-70b-instruct
Meta
Unterstützt RAG-, Generierungs-, Zusammenfassungs-, Klassifizierungs-, Q&A-, Extraktions-, Übersetzungs- und Codegenerierungsaufgaben.
8192
1,80
allam-1-13b-instruct
SDAIA
Unterstützt Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion, RAG und Übersetzung in Arabisch.
4096
1,80
codellama-34b-instruct
Meta
Aufgabenspezifisches Modell für Code durch Generieren und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.
16384
1,80
pixtral-12b
Mistral AI
Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, Kontext Q&A, Objektidentifizierung
128 Tsd.
0,35
mistral-large-2
Mistral AI
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG in französischer, deutscher, italienischer, spanischer und englischer Sprache.
128 Tsd.*
Eingabe: 3,00 / Ausgabe: 10,00
–Mistral-Small-24B-Instruct-2501
Mistral AI
Unterstützt Sprachaufgaben, agentenbasierte Workflows, RAG und mehr in Dutzenden von Sprachen mit einer schnellen Reaktionszeit.
32768
0,35
mixtral-8x7b-instruct
Mistral AI
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Code-Programmierung.
32768
0,60
jais-13b-chat (Arabisch)
core42
Unterstützt Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und Übersetzung ins Arabische.
2048
1,80
flan-t5-xl-3b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG. Verfügbar für Prompt-Tuning.
4096
0,60
flan-t5-xxl-11b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
1,80
flan-ul2-20b
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.
4096
5,00
elyza-japanese-llama-2-7b-instruct
ELYZA
Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, RAG, Klassifizierung, Generierung, Extraktion und Übersetzung.
4096
1,80
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
Einbettungsmodelle wandeln Eingabetext in Einbettungen um, die komplexe Vektordarstellungen des Eingabetextes sind. Einbettungen erfassen nuancierte semantische und syntaktische Beziehungen zwischen Wörtern und Abschnitten im Vektorbereich.
Granite-Embedding-107M-Multilingual
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
Granite-Embedding-278M-Multilingual
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
slate-125m-english-rtrvr-v2
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
slate-125m-english-rtrvr
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
slate-30m-english-rtrvr-v2
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
slate-30m-english-rtrvr
IBM
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
all-mini-l6-v2
Microsoft
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
256
0,10
all-minilm-l12-v2
OS-NLP-CV
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
256
0,10
multilingual-e5-large
Intel
Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.
512
0,10
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
Unternehmen freuen sich über die Aussicht, Foundation Models und ML mit ihren eigenen Daten an einem zentralen Ort nutzen und damit generative KI-Workloads beschleunigen zu können.
IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Das IBM KI-Portfolio umfasst einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzsplitting und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.
Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit.
Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.
Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.
Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:
(1) Slate-Familie mit reinen Encoder-Modellen.
(2) Granite-Familie mit reinen Decoder-Modellen.
*Unterstützte Kontextlänge vom Modellanbieter, aber die tatsächliche Kontextlänge auf der Plattform ist begrenzt. Weitere Informationen finden Sie unter Dokumentation.
Inference wird in Ressourceneinheiten abgerechnet. 1 Ressourceneinheit entspricht 1.000 Token. Eingabe- und Abschluss-Token werden zum gleichen Tarif berechnet.1.000 Token entsprechen üblicherweise etwa 750 Wörtern.
Nicht alle Modelle sind in allen Regionen verfügbar. Weitere Informationen finden Sie in unserer Dokumentation.
Die Kontextlänge ist in Token ausgedrückt.
Die Aussagen von IBM zu den Plänen, der Ausrichtung und der Absicht des Unternehmens können ohne Vorankündigung und nach alleinigem Ermessen von IBM geändert oder zurückgezogen werden. Weitere Informationen finden Sie unter Preisgestaltung. Sofern unter „Preise für Software" nicht anders angegeben, beziehen sich alle Merkmale, Funktionalitäten und möglichen Updates ausschließlich auf SaaS. IBM gibt keine Zusicherung, dass SaaS und die Software-Features und Funktionalitäten identisch sind.