Granite

Offene, leistungsstarke und vertrauenswürdige KI-Modelle für Unternehmen.

Illustration von übereinanderliegenden geometrischen Formen in einem Farbverlauf
IBM Granite 4.0: Die nächste Generation der Granite-Modelle
Senken Sie die Kosten und beschleunigen Sie Workloads mit effizienten Modellen, die für eine skalierbar, unternehmenstaugliche KI-Einführung entwickelt wurden.
Mehr erfahren

Granite kennenlernen

Erstellen und skalieren Sie KI schneller mit anpassbaren Open-Source-Modellen, die für Unternehmens-Workloads, Kosteneffizienz und flexible Bereitstellungen optimiert sind.

Open
Granite ist Open Source unter Apache 2.0 und sorgt für Transparenz, während es gleichzeitig volle Anpassbarkeit und Bereitstellungsflexibilität in jeder Infrastruktur ermöglicht.
Leistungsfähig
Die kleinen, leistungsstarken Modelle sind so konzipiert, dass sie die Effizienz und Skalierbarkeit für wesentliche Unternehmensaufgaben maximieren.
Trusted
Eliminieren Sie das Risiko einer „Blackbox“-KI mit Transparenz bei Trainingsdaten und -prozessen, Funktionen zur Schadenserkennung und integrierten Verhaltensregeln.

Wir stellen vor: Granite 4.0

Die Modelle kennenlernen

Granite 4.0 Nano
Leichtgewichtige, lokale und Edge-KI-Aufgaben, bei denen Rechenleistung und Konnektivität begrenzt sind
Granite 4.0 Micro und Tiny
Aufgaben mit hohem Volumen und geringer Komplexität, bei denen Geschwindigkeit, Kosten und Effizienz oberste Priorität haben
Granite 4.0 Small
Enterprise-Workflows, die eine höhere Leistung erfordern, ohne die Kosten von Frontier-Modellen

In Zahlen

+70 %
Verringerung des Speicherbedarfs
2x
schnellere Inferenzgeschwindigkeiten
Granite-Docling: Ein ultrakompaktes Modell zur Dokumentenkonvertierung
IBM Granite-Docling ist ein auf Open Source basierendes und hocheffizientes Modell, das Dokumente in maschinenlesbare Formate umwandelt und dabei das Layout vollständig bewahrt.
Mehr erfahren

Granite-Familie kleiner Modelle

Kleine Sprachmodelle (Small Language Models, SLM)

Zentrale Sprachmodelle mit Schlussfolgerungen, optimiert für RAG und agentische Workflows.

Einbettung

Modelle, die hochwertige Texteinbettungen für semantische Suche, RAG und kontextuelle mehrfache Informationsabruf generieren.

Dokumentenkonvertierung

Ultrakompaktes Visionssprachmodell, das Dokumente in strukturierte, maschinenlesbare Formate umwandelt, während Layout, Tabellen und Gleichungen erhalten bleiben.

Vision

Effiziente Bild-Sprach-Modelle für das Verständnis von Dokumenten und Bildern, die OCR, Diagrammanalyse und die Extraktion von Unternehmensinhalten ermöglichen.

Sprache

Leichtgewichtige Sprachmodelle für die Transkription und Übersetzung in sieben Sprachen, die sich durch hohe Genauigkeit und Effizienz auszeichnen.

Zeitreihe

Leichte, vortrainierte Modelle für schnelles, genaues Forecasting, optimiert für eine effiziente Bereitstellung über Hardwareumgebungen hinweg.

Leitplanke

Guardrail-Modelle zur Erkennung von Halluzinationen, Verzerrungen, schädlichen Inhalten und Jailbreaks, um eine sichere Bereitstellung von KI im Unternehmen über alle Workflows hinweg zu gewährleisten.

Geodaten

NASA-IBM-Modelle zur Erdbeobachtung, die anhand großer Satellitendaten Biomasse, Klima, Landtemperatur und Überschwemmungen vorhersagen.

Leistung und Effizienz

Granite 4.0 ist auf Effizienz ausgelegt, verbraucht weniger Speicher und bietet gleichzeitig höhere Geschwindigkeiten und hohe Leistung. Dieses Gleichgewicht ermöglicht es Unternehmen, Kosten zu senken und Lösungen für entscheidende Workload schneller zu skalieren.

Granite 4.0 Kreisdiagramm für RAM-Anforderung

Die Granite 4.0-Modelle sind darauf ausgelegt, mit weniger mehr zu erreichen. Sie benötigen deutlich weniger Speicher (über 70 % weniger als vergleichbare Modelle), sodass Unternehmen leistungsstarke KI auf kostengünstigerer Hardware betreiben können. Das bedeutet niedrigere Infrastrukturkosten, schnellere Leistung und die Möglichkeit, KI im gesamten Unternehmen einfacher zu skalieren.

Granite 4.0 Liniendiagramm für den Durchsatz

Granite 4.0 liefert einen gleichbleibend hohen Durchsatz bei steigenden Workloads und bewältigt problemlos größere Batchgrößen, während andere Modelle langsamer werden. Dies stellt sicher, dass Unternehmen eine zuverlässige Leistung für Anwendungen aufrechterhalten können, die viele Benutzer oder komplexe Aufgaben auf einmal bedienen müssen.

Granite 4.0 Streudiagramm für die allgemeine Leistung

Granite 4.0 bietet eine höhere Genauigkeit bei deutlich geringerem Speicherbedarf als Konkurrenzmodelle, selbst bei kleineren Abmessungen. Diese Effizienz führt zu Kosteneinsparungen, besserer Zugänglichkeit und der Möglichkeit, KI in Unternehmen breiter und flexibler bereitzustellen.

Granite 4.0 RAG-Score
Granite 4.0 übertrifft bei RAG-Aufgaben sowohl ähnlich große als auch größere offene Modelle. Da Granite eine höhere Genauigkeit ohne zusätzliche Infrastruktur bietet, hilft es Unternehmen, zuverlässigere, wissensbasierte Anwendungen zu entwickeln und gleichzeitig die Bereitstellung effizient und kostengünstig zu gestalten.
Granite 4.0 Balkendiagramm des IFEval Leaderboards

Granite 4.0 demonstriert eine branchenführende Leistung beim Befolgen von Anweisungen unter den offenen Modellen, eine wesentliche Fähigkeit für agentische Workflows. Durch die Ausgewogenheit zwischen hoher Genauigkeit und geringerer Größe bietet Granite den Unternehmen hochwertige Ergebnisse für komplexe Aufgaben zu geringeren Infrastrukturkosten als größere offene Modelle.

Granite 4.0 Kreisdiagramm für RAM-Anforderung

Die Granite 4.0-Modelle sind darauf ausgelegt, mit weniger mehr zu erreichen. Sie benötigen deutlich weniger Speicher (über 70 % weniger als vergleichbare Modelle), sodass Unternehmen leistungsstarke KI auf kostengünstigerer Hardware betreiben können. Das bedeutet niedrigere Infrastrukturkosten, schnellere Leistung und die Möglichkeit, KI im gesamten Unternehmen einfacher zu skalieren.

Granite 4.0 Liniendiagramm für den Durchsatz

Granite 4.0 liefert einen gleichbleibend hohen Durchsatz bei steigenden Workloads und bewältigt problemlos größere Batchgrößen, während andere Modelle langsamer werden. Dies stellt sicher, dass Unternehmen eine zuverlässige Leistung für Anwendungen aufrechterhalten können, die viele Benutzer oder komplexe Aufgaben auf einmal bedienen müssen.

Granite 4.0 Streudiagramm für die allgemeine Leistung

Granite 4.0 bietet eine höhere Genauigkeit bei deutlich geringerem Speicherbedarf als Konkurrenzmodelle, selbst bei kleineren Abmessungen. Diese Effizienz führt zu Kosteneinsparungen, besserer Zugänglichkeit und der Möglichkeit, KI in Unternehmen breiter und flexibler bereitzustellen.

Granite 4.0 RAG-Score
Granite 4.0 übertrifft bei RAG-Aufgaben sowohl ähnlich große als auch größere offene Modelle. Da Granite eine höhere Genauigkeit ohne zusätzliche Infrastruktur bietet, hilft es Unternehmen, zuverlässigere, wissensbasierte Anwendungen zu entwickeln und gleichzeitig die Bereitstellung effizient und kostengünstig zu gestalten.
Granite 4.0 Balkendiagramm des IFEval Leaderboards

Granite 4.0 demonstriert eine branchenführende Leistung beim Befolgen von Anweisungen unter den offenen Modellen, eine wesentliche Fähigkeit für agentische Workflows. Durch die Ausgewogenheit zwischen hoher Genauigkeit und geringerer Größe bietet Granite den Unternehmen hochwertige Ergebnisse für komplexe Aufgaben zu geringeren Infrastrukturkosten als größere offene Modelle.

Granite für Entwickler

Rezept: Zusammenfassung von Dokumenten

Erstellen Sie mit IBM Granite einen Generator für Dokumentenzusammenfassungen, um Dokumente auch außerhalb der Grenzen des Kontextfensters zu verarbeiten.

RAG mit Langchain

Erstellen Sie eine RAG-Pipeline mit Granite, um Anfragen mithilfe einer externen Wissensdatenbank zu beantworten.

Rezept: Multimodale RAG

Erstellen Sie mit Granite und Docling eine multimodale RAG-Pipeline, um Text, Tabellen und Bilder abzufragen.

Leitfaden: Open-Source-Modelle

Erfahren Sie, wie Open-Source-LLMs Autonomie ermöglichen, Kosten senken und Entwickler bei Evaluierung, Optimierung und Bereitstellung unterstützen.

Tutorial: Zeitreihen-Forecasts

Verwenden Sie Granite-Zeitreihenmodelle, um Zero-Shot- und fein abgestimmte Zeitreihen-Forecasts durchzuführen.

Tutorial: Sprachübersetzung

Verwenden Sie automatische Spracherkennung (Automatic Speech Recognition, ASR), um mit Granite und watsonx.ai ein Podcast-Transkript zu erstellen.

Tutorial: Lokaler KI-Copilot

Erstellen Sie einen lokalen KI-Copiloten mit IBM Granite Code, Ollama und Continue.

Das vollständige Granite-Kochbuch ansehen

Das vollständige Granite-Kochbuch ansehen

Erstellung auf Granite

Granite-Modelle treiben die KI hinter vielen Produkten und Dienstleistungen von IBM an. Entdecken Sie einsatzbereite Lösungen für Codegenerierung, Anwendungsentwicklung und Modelltests. Alles basiert auf IBM Granite.

Bleiben Sie auf dem Laufenden über KI-Nachrichten

Blog | Granite 3.2: Neue Reasoning- und multimodale Funktionen

Die neuesten Granite-Modelle bieten neue Argumentationsfähigkeiten, ein visuell gestütztes Modell und mehr Effizienz – und damit wettbewerbsfähige Ergebnisse zu niedrigeren Kosten.

Podcast | DeepSeek – Fakten vs. Hype, Modelldestillation und Open-Source-Konkurrenz

In Mixture of Experts – Folge 40 geht das Panel auf Missverständnisse bei DeepSeek R1 ein, erklärt die Modelldestillation und analysiert die Open-Source-Wettbewerbslandschaft

KI Think Newsletter | Erhalten Sie KI-Erkenntnisse

Erhalten Sie eine kuratierte Auswahl von KI-Themen, Trends und Forschungsergebnissen direkt in Ihren Posteingang.

Artikel | Die KI von DeepSeek zeigt die Leistungsfähigkeit kleiner Modelle

DeepSeek-R1 ist ein digitaler Assistent, der bei bestimmten KI-Benchmarks für Mathematik- und Codierungsaufgaben genauso gut abschneidet wie OpenAIs o1, mit weitaus weniger Chips trainiert wurde und nach Angaben des Unternehmens etwa 96 % kostengünstiger in der Anwendung ist.

IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Die KI- und Datenplattform watsonx von IBM umfasst einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzsplitting und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.

Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit. 

Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.

Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.

Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:

(1) Slate-Familie mit reinen Encoder-Modellen.

(2) Granite-Familie mit reinen Decoder-Modellen.

Mehr zur Lizenzierung für Granite-Modelle

* Wie kleinere, auf die Branche zugeschnittene KI-Modelle größere Vorteile bieten können 
https://www.ft.com/partnercontent/ibm/how-smaller-industry-tailored-ai-models-can-offer-greater-benefits.html

1Leistung der Granite-Modelle, durchgeführt von IBM Research, im Vergleich zu führenden offenen Modellen in akademischen und unternehmensweiten Benchmarks – https://ibm.com/new/ibm-granite-3-0-open-state-of-the-art-enterprise-models