Startseite

KI und ML

watsonx

watsonx.ai

Basismodelle in watsonx.ai 
Die IBM-Auswahl an Basismodellen in watsonx zur Skalierung von generativer KI erkunden
Mehr über Granite erfahren Jetzt kostenlosen Test starten
Produkt-Screenshot der watsonx.ai Foundation Models

Das ist neu: die dritte Generation der Granite-Modelle von IBM – offene, leistungsfähige und sichere Sprachmodelle

Erhalten Sie neuen Schwung bei Ihrer KI-Reise dank unserer neuen unternehmensgerechten Arbeitssprachmodelle der dritten Generation

Blog lesen und Granite erkunden
Foundation Models: Sie haben die Wahl

IBM watsonx-Modelle sind für Unternehmen entwickelt und für spezifische Geschäftsbereiche und Anwendungsfälle optimiert. Mit dem KI-Studio IBM® watsonx.ai bieten wir eine Auswahl an preiswerten, eigens von IBM für Unternehmen entwickelten Basismodellen, Open-Source-Modellen und Modellen von Drittanbietern, die Kunden und Partnern helfen, künstliche Intelligenz (KI) schneller und mit minimalem Risiko zu skalieren und zu nutzen. Sie können die KI-Modelle individuell für Ihre Workload einsetzen, sowohl lokal als auch in der Hybrid Cloud.

IBM verfolgt einen differenzierten Ansatz zur Bereitstellung von Foundation Models der Unternehmensklasse:

  • Open: Integrieren Sie branchenführende IBM- und bewährte Open Source-Modelle in die watsonx Foundation Model Library oder in Ihre Bibliothek.
  • Vertrauenswürdig: Trainieren Sie Modelle anhand von vertrauenswürdigen und regulierten Daten für Anwendungen, die Transparenz, Governance und Leistung auf Unternehmensniveau erfordern.
  • Zielgerichtet: Speziell entwickelt für das Unternehmen und optimiert für gezielte Geschäftsbereiche und Anwendungsfälle.
  • Empowering: Stellen Sie Kunden preisgünstige Modelloptionen zur Verfügung, damit sie eine KI entwickeln können, die perfekt zu ihren geschäftlichen Anforderungen und Risikoprofilen passt.
IBM Model Point-of-View : Ein differenzierter Ansatz für KI Foundation Models
Granite 3.1 ist jetzt in der Bibliothek für watsonx Foundation Models verfügbar.
Neuerungen
Funktion des neuen Modells
Jetzt bei Granite: neue Granite-3.1-Modelle, brandneue Integrationsmodelle und mehr
Funktion des neuen Modells
Jetzt auf watsonx.ai verfügbar: Metas Llama 3.3 70b Instruct Model
Funktion des neuen Modells
On-Premises-Foundation-Models von Mistral AI sind jetzt in watsonx verfügbar
Podcast
Open Source für Data, Analytics und GenAI
E-Book: Erfahren Sie, wie Sie das richtige Foundation Model auswählen
IBM Modelle

Mit der Bibliothek mit Foundation Models von IBM watsonx haben Sie die Wahl und die Flexibilität, sich für das Modell zu entscheiden, das am besten zu Ihren geschäftlichen Anforderungen, regionalen Interessen und Risikoprofilen passt. Dabei umfasst die Bibliothek sowohl proprietäre Modelle als auch Open-Source- und Drittanbieter-Modelle.

Granit, entwickelt durch IBM Research

IBM Granite ist unsere Auswahl offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und optimiert sind, um Ihre KI-Anwendungen zu skalieren. Mit Granite 3.1 finden Sie offene, unternehmenstaugliche Modelle, die bei einer Vielzahl von Unternehmensaufgaben, wie z. B. Cybersecurity und RAG, außergewöhnliche Leistungen erbringen und Sicherheitsbenchmarks erfüllen.

  1. Granite 3.1 8b und 2b: Trainieren Sie Modelle, die auf hochwertigen Daten basieren und für natürliche Sprache und Unternehmensanwendungen optimiert sind
  2. Granite Guardian: LLM-basierte Schutzmechanismen zur Erkennung von schädlichen Inhalten wie Hass, Obszönität, sozialer Diskriminierung usw.
  3. Granite 13b Chat: Ein Chat-Modell, das für Gesprächsanwendungsfälle optimiert ist und gut mit virtuellen Agenten und Chat-Anwendungen zusammenarbeitet
  4. Granite 13b Instruct: Modell, das anhand hochwertiger Finanzdaten trainiert wird, ideal bei Aufgaben im Finanzbereich
  5. Granite Code: Modellreihe mit einer Parametergröße von 3B bis 34B, die in 116 Programmiersprachen trainiert wurden
  6. Granite Multilingual: Trainiert, um Text auf Englisch, Deutsch, Spanisch, Französisch und Portugiesisch zu verstehen und zu erstellen
  7. Granite Japanese: Entwickelt für Sprachaufgaben mit japanischem Text
IBM Embedding Models

Verwenden Sie von IBM entwickelte und Open-Source-Integrationssmodelle, die in IBM watsonx.ai für Aufgaben zur Retrieval-Augmented Generation, zur semantischen Suche und zum Vergleich von Dokumenten bereitgestellt werden.

  • Granite-Embedding-30M-English
  • Granite-Embedding-125M-English
  • Granite-Embedding-107M-Multilingual
  • Granite-Embedding-278M-Multilingual
Probieren Sie watsonx.ai kostenlos aus
Bericht von IBM Research
Erfahren Sie, wie Granite-Modelle trainiert und welche Datenquellen verwendet wurden
Warum IBM Granite?         Mehr über Granite erfahren
Open

Wählen Sie das richtige Modell, von unter einer Milliarde bis zu 34 Milliarden Parametern, Open Source unter Apache 2.0.

Leistungsfähig

Opfern Sie nicht die Leistung aus Kostengründen. Granite übertrifft vergleichbare Modelle 1 bei einer Vielzahl von Unternehmensaufgaben.

Trusted

Entwickeln Sie verantwortungsvolle KI mit umfassenden Funktionen zur Risiko- und Schadenserkennung, Transparenz und IP-Schutz.

Foundation Model Library

Entscheiden Sie sich für ein generatives Foundation Model, das Ihren Anforderungen am besten entspricht. Erstellen Sie eine übersichtliche Liste von Modellen für Ihren Anwendungsfall. Testen Sie diese Modelle anschließend systematisch mit Prompt-Engineering-Techniken, um festzustellen, welche durchgängig die gewünschten Ergebnisse liefern.

Weitere Informationen zur watsonx-Preisgestaltung
Modellname Anbieter Anwendungsfälle Kontextlänge Preis 1 Million Token in USD*

Granite-3-2b-Instruct (v3.1)

Neu
Ausgewähltes Modell

IBM

Unterstützt Aufgaben in den Bereichen: Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung. 

128 Tsd.

0,10

Granite-3-8b-Instruct (v3.1)

Neu
Ausgewähltes Modell

IBM

Unterstützt Aufgaben in den Bereichen: Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Codierung. 

128 Tsd.

0,20

Granite-Guardian-3-8b (v3.1)

Neu
Ausgewähltes Modell

IBM

Unterstützt die Erkennung von HAP/PII, Jailbreaking, Verzerrung, Gewalt und anderen schädlichen Inhalten.

128 Tsd.

0,20

Granite-Guardian-3-2b (v3.1)

Neu
Ausgewähltes Modell

IBM

Unterstützt die Erkennung von HAP/PII, Jailbreaking, Verzerrung, Gewalt und anderen schädlichen Inhalten.

128 Tsd.

0,10

granite-20b-multilingual

Veraltet

IBM

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in französischer, deutscher, portugiesischer, spanischer und englischer Sprache.

8192

0,60

granite-13b-chat

Veraltet

IBM

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG. 

 

8192

0,60

granite-13b-instruct

IBM

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.

8192

0,60

granite-34b-code-instruct

IBM

Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.

 

8192

0,60

granite-20b-code-instruct

IBM

Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.

 

8192

0,60

granite-8b-code-instruct

IBM

Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.

 

128 Tsd.

0,60

granite-3b-code-instruct

IBM

Aufgabenspezifisches Modell für Code durch Generieren, Erklären und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.

 

128 Tsd.

0,60

granite-8b-japanese

IBM

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, Übersetzung und RAG in japanischer Sprache. 

4096

0,60

llama-3-3-70b-instruct

Neu

Meta

Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.

128 Tsd.

0,71

llama-3-2-90b-vision-instruct

Neu

Meta

Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, Kontext Q&A, Objektidentifizierung

128 Tsd.

2,00

llama-3-2-11b-vision-instruct

Neu

Meta

Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, Kontext Q&A, Objektidentifizierung

128 Tsd.

0,35

llama-guard-3-11b-vision

Neu

Meta

Unterstützt Bildfilterung, HAP/PII-Erkennung und Filterung schädlicher Inhalte

128 Tsd.

0,35

llama-3-2-1b-instruct

Neu

Meta

Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.

128 Tsd.

0,10

llama-3-2-3b-instruct

Neu

Meta

Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.

128 Tsd.

0,15

llama-3-405b-instruct

Meta

Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai.

128 Tsd.

Eingabe: 5,00 / Ausgabe: 16,00

llama-3-1-70b-instruct

Veraltet

Meta

Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

128 Tsd.

1,80

llama-3-1-8b-instruct 

Veraltet

Meta

Unterstützt Fragen und Antworten, Zusammenfassungen, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG-Aufgaben in Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thai

128 Tsd.

0,60

llama-3-8b-instruct

Veraltet

Meta

Unterstützt Aufgaben in den Bereichen Zusammenfassung, Klassifizierung, Generierung, Extraktion und Übersetzung.

8192

0,60

llama-3-70b-instruct

Veraltet

Meta

Unterstützt RAG-, Generierungs-, Zusammenfassungs-, Klassifizierungs-, Q&A-, Extraktions-, Übersetzungs- und Codegenerierungsaufgaben.

8192

1,80

allam-1-13b-instruct

SDAIA

Unterstützt Fragen und Antworten, Zusammenfassungen, Klassifizierung, Generierung, Extraktion, RAG und Übersetzung in Arabisch.

4096

1,80

codellama-34b-instruct

Veraltet

Meta

Aufgabenspezifisches Modell für Code durch Generieren und Übersetzen von Code aus einer Eingabeaufforderung in natürlicher Sprache.

16384

1,80

pixtral-12b

Neu

Mistral AI

Unterstützt Bildbeschriftung, Bild-zu-Text-Transkription (OCR) einschließlich Handschrifterkennung, Datenextraktion und -verarbeitung, Kontext Q&A, Objektidentifizierung

128 Tsd.

0,35

mistral-large-2

Neu

Mistral AI

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Generierung, Kodierung, Klassifizierung, Extraktion, Übersetzung und RAG in französischer, deutscher, italienischer, spanischer und englischer Sprache.

128 Tsd.*

Eingabe: 3,00 / Ausgabe: 10,00

 Mistral-Small-24B-Instruct-2501

Neu

Mistral AI

Unterstützt Sprachaufgaben, agentenbasierte Workflows, RAG und mehr in Dutzenden von Sprachen mit einer schnellen Reaktionszeit.

32768

0,35

mixtral-8x7b-instruct

Mistral AI

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion, RAG und Code-Programmierung.

32768

0,60

jais-13b-chat (Arabisch)

core42

Unterstützt Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und Übersetzung ins Arabische.

2048

1,80

flan-t5-xl-3b

Google

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG. Verfügbar für Prompt-Tuning.

4096

0,60

flan-t5-xxl-11b

Google

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.

4096

1,80

flan-ul2-20b

Google

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, Klassifizierung, Generierung, Extraktion und RAG.

4096

5,00

elyza-japanese-llama-2-7b-instruct

ELYZA

Unterstützt Aufgaben in den Bereichen Fragen und Antworten, Zusammenfassung, RAG, Klassifizierung, Generierung, Extraktion und Übersetzung. 

4096

1,80

*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort. 

Bibliothek für Einbettungsmodelle

Einbettungsmodelle wandeln Eingabetext in Einbettungen um, die komplexe Vektordarstellungen des Eingabetextes sind. Einbettungen erfassen nuancierte semantische und syntaktische Beziehungen zwischen Wörtern und Abschnitten im Vektorbereich.

Modellname Anbieter Anwendungsfälle Kontextlänge Preis 1 Million Token in USD*

Granite-Embedding-107M-Multilingual

Neu

IBM

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

512

0,10

Granite-Embedding-278M-Multilingual

Neu

IBM

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

512

0,10

slate-125m-english-rtrvr-v2

Neu

IBM

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

512

0,10

slate-125m-english-rtrvr

IBM

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

 

512

0,10

slate-30m-english-rtrvr-v2

Neu

IBM

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

 

512

0,10

slate-30m-english-rtrvr

IBM

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

 

512

0,10

all-mini-l6-v2

Neu

Microsoft

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

256

0,10

all-minilm-l12-v2

OS-NLP-CV

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

256

0,10

multilingual-e5-large

Intel

Retrieval-Augmented Generation, semantische Suche und Dokumentvergleich.

512

0,10

*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort. 

Kundenberichte

Unternehmen freuen sich über die Aussicht, Foundation Models und ML mit ihren eigenen Daten an einem zentralen Ort nutzen und damit generative KI-Workloads beschleunigen zu können. 

Wimbledon verwendete die Foundation Models von watsonx.ai, um seine KI für die Erstellung von Tenniskommentaren zu trainieren. Fallstudie lesen
Die Recording Academy verwendete AI Stories mit IBM watsonx, um redaktionelle Inhalte rund um die GRAMMY-Nominierten zu generieren und zu skalieren. Watsonx bietet KI-gestützte Golferkenntnisse und KI-Narration in spanischer Sprache auf die digitalen Plattformen des Masters Tournament. AddAI.Life nutzt watsonx.ai, um auf ausgewählte große Open-Source-Sprachmodelle zuzugreifen und so hochwertigere virtuelle Assistenten zu entwickeln.

Schutz von geistigem Eigentum für KI-Modelle

IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Das IBM KI-Portfolio umfasst einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzsplitting und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.

Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit.  

Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.

Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.

Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:

(1) Slate-Familie mit reinen Encoder-Modellen.

(2) Granite-Familie mit reinen Decoder-Modellen.

Mehr zur Lizenzierung für Granite-Modelle

Gehen Sie den nächsten Schritt

Machen Sie den nächsten Schritt und beginnen Sie mit der Operationalisierung und Skalierung von generativer KI und maschinellem Lernen für Ihr Geschäft

Jetzt kostenlosen Test starten Buchen Sie eine Live-Demo
Weitere Erkundungsmöglichkeiten Kontakt zur IBM Community aufnehmen SaaS-Dokumentation Software-Dokumentation Support
Fußnoten

*Unterstützte Kontextlänge vom Modellanbieter, aber die tatsächliche Kontextlänge auf der Plattform ist begrenzt. Weitere Informationen finden Sie unter Dokumentation.

Inference wird in Ressourceneinheiten abgerechnet. 1 Ressourceneinheit entspricht 1.000 Token. Eingabe- und Abschluss-Token werden zum gleichen Tarif berechnet.1.000 Token entsprechen üblicherweise etwa 750 Wörtern.

Nicht alle Modelle sind in allen Regionen verfügbar. Weitere Informationen finden Sie in unserer Dokumentation.

Die Kontextlänge ist in Token ausgedrückt.

Die Aussagen von IBM zu den Plänen, der Ausrichtung und der Absicht des Unternehmens können ohne Vorankündigung und nach alleinigem Ermessen von IBM geändert oder zurückgezogen werden. Weitere Informationen finden Sie unter Preisgestaltung. Sofern unter „Preise für Software" nicht anders angegeben, beziehen sich alle Merkmale, Funktionalitäten und möglichen Updates ausschließlich auf SaaS. IBM gibt keine Zusicherung, dass SaaS und die Software-Features und Funktionalitäten identisch sind.