IBM Granite

Erzielen Sie Kosteneinsparungen von über 90 % mit den kleineren, offenen Modellen von Granite, die auf Entwicklereffizienz ausgelegt sind*

Granite kennenlernen

Unsere dritte Generation von KI-Sprachmodellen ist da. Diese auf Unternehmen abgestimmten und als Open-Source-Lösungen bereitgestellten Modelle bieten eine außergewöhnliche Leistung im Vergleich zu Sicherheitsbenchmarks und in einem breiten Spektrum von Unternehmensaufgaben von Cybersicherheit bis RAG.

Warum Granite?
Open

Wählen Sie das richtige Modell, von unter einer Milliarde bis zu 34 Milliarden Parametern, Open Source unter Apache 2.0.

Leistungsfähig

Opfern Sie nicht die Leistung aus Kostengründen. Granite übertrifft vergleichbare Modelle1 bei einer Vielzahl von Unternehmensaufgaben.

Trusted

Entwickeln Sie verantwortungsvolle KI mit umfassenden Funktionen zur Risiko- und Schadenserkennung, Transparenz und IP-Schutz.

Modelle

Granite-Sprachmodelle

Basis- und anweisungsoptimierte Sprachmodelle mit neuen Argumentationsfähigkeiten, die für Agenten-Workflows, RAG, Textzusammenfassung, Textanalyse und -extraktion, Klassifizierung und Inhaltserstellung entwickelt wurden.

Sprachmodelle auf Hugging Face erhalten
Granite Vision-Modell

Vortrainiertes Modell, das auf Bildverarbeitungsaufgaben für das Dokumenten- und Bildverständnis spezialisiert ist, eine Reihe von Dateitypen und Auflösungen unterstützt und für die effiziente Bereitstellung in Unternehmensumgebungen konzipiert ist.

Vision-Modell auf Hugging Face erhalten
Granite für Code

Reine Decoder-Modelle für Aufgaben der Codegenerierung, einschließlich Codegenerierung, Codeerklärung und Codebearbeitung. Trainiert mit Code, der in 116 Programmiersprachen geschrieben wurde.

Code-Modelle auf Hugging Face erhalten
Granite für Zeitreihen

Schlank und für Zeitreihen-Forecasting vortrainiert, optimiert für eine effiziente Ausführung für viele Hardwarkonfigurationen.

Zeitreihenmodelle auf Hugging Face erhalten
Granite Guardian

Schützen Sie KI mit Granite Guardian, indem Sie die Sicherheit von Unternehmensdaten gewährleisten und Risiken bei einer Vielzahl von Nutzerabfragen und LLM-Antworten mindern, mit Spitzenleistungen in mehr als 15 Sicherheitsbenchmarks.

Granite Guardian auf Hugging Face erhalten
Granite für georäumliche Daten

Die NASA und IBM haben sich zusammengetan, um ein KI Foundation Model für Erdbeobachtungen unter Verwendung umfassender Satelliten- und Fernerkundungsdaten zu erstellen.

Holen Sie sich das Geodatenmodell auf Hugging Face
Granite-Embedding-Modelle

Entwickelt, um die Benutzerabsicht deutlich besser zu verstehen und die Relevanz von Informationen und Quellen als Antwort auf eine Abfrage zu erhöhen.

Embedding-Modelle auf Hugging Face erhalten

Benchmarks

Die Anwendung von Argumentationsfähigkeiten auf Granite führte zu einem deutlichen Anstieg bei der Befolgung komplexer Anweisungen und behielt die allgemeinen Leistungs- und Sicherheitsmerkmale bei, während vergleichbare Modelle in diesen Bereichen eine Verschlechterung verzeichneten

Weitere Benchmarks erkunden
Benchmarking Granite Mit Reasoning

Granite-3.2-8B-Instruct

Llama Mit Reasoning

DeepSeek-R1-Distill-Llama-8B

Qwen Mit Reasoning

DeepSeek-R1-Distill-Qwen-7B

ArenaHard

Folgende Anweisungen

55,23

17,17

10,36

Alpaca-Eval-2

Folgende Anweisungen

61,16

21,85

15,35

IFEval

Folgende Anweisungen

73,57

66,50

59,10

MMLU
Allgemein

66,93

45,80

50,72

PopQA
Allgemein

28,08

13,25

9,94

TruthfulQA
Allgemein

66,37

47,43

47,14

BigBenchHard

Allgemein

65,60

65,71

65,04

DROP

Allgemein

50,73

44,46

42,76

GSM8K

Mathe

83,09

72,18

78,47

HumanEval

Code

89,47

67,54

79,89

HumanEval+

Code

86,88

62,91

78,43

AttaQ

Sicherheit

85,99

42,87

42,45

*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort. 

Wegbereiter zum Erfolg

„Bei CrushBank haben wir aus erster Hand gesehen, wie die offenen, effizienten KI-Modelle von IBM einen echten Mehrwert für die Unternehmens-KI bieten – mit der richtigen Balance aus Leistung, Kosteneffizienz und Skalierbarkeit. Granite 3.2 geht mit neuen Argumentationsfähigkeiten noch einen Schritt weiter, und wir freuen uns darauf, diese beim Aufbau neuer agentischer Lösungen zu erforschen.“

David Tan
CTO
CrushBank

Logo von US Open

Die US Open verwenden Granite Foundation Models, um Hunderte von Spielen zu kommentieren. Durch den Einsatz von Granite konnten die Anzahl der erstellten Spielberichte um 220 % gesteigert werden.

 

Mehr Informationen
LM- und Astris KI-Logo

Lockheed Martin und seine neue Tochtergesellschaft Astris AI integrieren die neuesten Granite-Modelle von IBM sowie andere hochleistungsfähige Open-Source-Modelle in ihre AI Factory-Tools, um die KI-gestützte Entwicklung für Unternehmens- und nationale Sicherheitsanwendungen zu beschleunigen.

Pressemitteilung lesen
ESPN-Logo

Tausende Treffer pro Sekunde und eine unendliche Anzahl an benutzerdefinierten Einstellungen? Die ESPN Fantasy App benötigte eine maßgeschneiderte Erklärbarkeit in großem Maßstab für 12 Millionen Fans. Granite geliefert.

Mehr erfahren
Bluepearl-Logo

Blue Pearl konnte durch eine auf Granite basierende Job-Matching-Engine den Zeitaufwand für die Datenverarbeitung und -analyse um 65 % verkürzen.

Mehr erfahren

Lernprogramme

Erstellen Sie ein dokumentenbasiertes System zur Beantwortung von Fragen, indem Sie Docling mit Granite 3.1 verwenden

Verwenden Sie IBM Docling und die Open-Source-Software Granite 3.1, um die visuelle Beantwortung von Fragen zu Dokumenten für verschiedene Dateitypen durchzuführen

Ein agentenbasiertes LangChain RAG-System mit Granite-3.0-8B-Instruct in watsonx.ai erstellen

Erfahren Sie, wie Sie einen KI-Agenten erstellen, der Fragen beantworten kann

Funktionsaufruf mit IBM Granite 3.0 8B Instruct

Bei diesem Tutorial werden Sie das IBM Granite-3.0-8B-Instruct-Modell zur Durchführung benutzerdefinierter Funktionsaufrufe verwenden, das jetzt auf watsonx.ai verfügbar ist.

Quantisierung nach dem Training von Granite-3.0-8B-Instruct in Python mit watsonx

Quantisieren Sie ein vorab trainiertes Modell auf verschiedene Weise, um die Größe der Modelle darzustellen und ihre Leistung bei einer Aufgabe zu vergleichen

Verwendung von Foundation Models für Zeitreihen-Forecasting

Prognostizieren Sie die Zukunft basierend auf Erkenntnissen mit dem TinyTimeMixer (TTM) Granite-Modell

Mit LLMs SQL aus Text generieren

Wandeln Sie Text in eine strukturierte Darstellung um und generieren Sie eine semantisch korrekte SQL Query

Einen lokalen KI-Co-Piloten mit IBM Granite-Code, Ollama und Continue erstellen

Verwenden Sie zum Prompt-Tuning eines Granite-Modells in Python einen synthetischen Datensatz mit positiven und negativen Kundenbewertungen

Das vollständige Granite-Kochbuch ansehen

Das vollständige Granite-Kochbuch ansehen

Erstellung auf Granite

Setzen Sie KI mit Open-Source-Granite-Modellen in der Produktion mit Red Hat Enterprise Linux AI und watsonx in großem Maßstab und selbstbewusst ein. Schnelleres Erstellen mit Funktionen wie Tool-Aufruf, 12 Sprachen, logische Argumentationsketten und multimodale Adapter

Bleiben Sie auf dem Laufenden über KI-Nachrichten

Blog | Granite 3.2: Neue Reasoning- und multimodale Funktionen

Die neuesten Granite-Modelle bieten neue Argumentationsfähigkeiten, ein visuell gestütztes Modell und mehr Effizienz – und damit wettbewerbsfähige Ergebnisse zu niedrigeren Kosten.

Podcast | DeepSeek – Fakten vs. Hype, Modelldestillation und Open-Source-Konkurrenz

In Mixture of Experts – Folge 40 geht das Panel auf Missverständnisse bei DeepSeek R1 ein, erklärt die Modelldestillation und analysiert die Open-Source-Wettbewerbslandschaft

KI Think Newsletter | Erhalten Sie KI-Erkenntnisse

Erhalten Sie eine kuratierte Auswahl von KI-Themen, Trends und Forschungsergebnissen direkt in Ihren Posteingang.

Artikel | Die KI von DeepSeek zeigt die Leistungsfähigkeit kleiner Modelle

DeepSeek-R1 ist ein digitaler Assistent, der bei bestimmten KI-Benchmarks für Mathematik- und Codierungsaufgaben genauso gut abschneidet wie OpenAIs o1, mit weitaus weniger Chips trainiert wurde und nach Angaben des Unternehmens etwa 96 % kostengünstiger in der Anwendung ist.

IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Die KI- und Datenplattform watsonx von IBM umfasst einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzsplitting und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.

Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit. 

Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.

Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.

Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:

(1) Slate-Familie mit reinen Encoder-Modellen.

(2) Granite-Familie mit reinen Decoder-Modellen.

Mehr zur Lizenzierung für Granite-Modelle

* Wie kleinere, auf die Branche zugeschnittene KI-Modelle größere Vorteile bieten können
https://www.ft.com/partnercontent/ibm/how-smaller-industry-tailored-ai-models-can-offer-greater-benefits.html

1Leistung der Granite-Modelle, durchgeführt von IBM Research, im Vergleich zu führenden offenen Modellen in akademischen und unternehmensweiten Benchmarks – https://ibm.com/new/ibm-granite-3-0-open-state-of-the-art-enterprise-models