Wählen Sie das richtige Modell, von unter einer Milliarde bis zu 34 Milliarden Parametern, Open Source unter Apache 2.0.
Opfern Sie nicht die Leistung aus Kostengründen. Granite übertrifft vergleichbare Modelle1 bei einer Vielzahl von Unternehmensaufgaben.
Entwickeln Sie verantwortungsvolle KI mit umfassenden Funktionen zur Risiko- und Schadenserkennung, Transparenz und IP-Schutz.
Basis- und anweisungsoptimierte Sprachmodelle mit neuen Argumentationsfähigkeiten, die für Agenten-Workflows, RAG, Textzusammenfassung, Textanalyse und -extraktion, Klassifizierung und Inhaltserstellung entwickelt wurden.
Vortrainiertes Modell, das auf Bildverarbeitungsaufgaben für das Dokumenten- und Bildverständnis spezialisiert ist, eine Reihe von Dateitypen und Auflösungen unterstützt und für die effiziente Bereitstellung in Unternehmensumgebungen konzipiert ist.
Reine Decoder-Modelle für Aufgaben der Codegenerierung, einschließlich Codegenerierung, Codeerklärung und Codebearbeitung. Trainiert mit Code, der in 116 Programmiersprachen geschrieben wurde.
Schlank und für Zeitreihen-Forecasting vortrainiert, optimiert für eine effiziente Ausführung für viele Hardwarkonfigurationen.
Schützen Sie KI mit Granite Guardian, indem Sie die Sicherheit von Unternehmensdaten gewährleisten und Risiken bei einer Vielzahl von Nutzerabfragen und LLM-Antworten mindern, mit Spitzenleistungen in mehr als 15 Sicherheitsbenchmarks.
Die NASA und IBM haben sich zusammengetan, um ein KI Foundation Model für Erdbeobachtungen unter Verwendung umfassender Satelliten- und Fernerkundungsdaten zu erstellen.
Entwickelt, um die Benutzerabsicht deutlich besser zu verstehen und die Relevanz von Informationen und Quellen als Antwort auf eine Abfrage zu erhöhen.
Die Anwendung von Argumentationsfähigkeiten auf Granite führte zu einem deutlichen Anstieg bei der Befolgung komplexer Anweisungen und behielt die allgemeinen Leistungs- und Sicherheitsmerkmale bei, während vergleichbare Modelle in diesen Bereichen eine Verschlechterung verzeichneten
Granite-3.2-8B-Instruct
DeepSeek-R1-Distill-Llama-8B
DeepSeek-R1-Distill-Qwen-7B
ArenaHard
55,23
| 17,17 |
10,36
Alpaca-Eval-2
61,16
21,85
15,35
IFEval
73,57
66,50
59,10
| MMLU |
66,93
45,80
50,72
| PopQA |
28,08
13,25
9,94
| TruthfulQA |
66,37
47,43
47,14
BigBenchHard
65,60
65,71
65,04
DROP
50,73
44,46
42,76
GSM8K
83,09
72,18
78,47
HumanEval
89,47
67,54
79,89
HumanEval+
86,88
62,91
78,43
AttaQ
85,99
42,87
42,45
*Preise sind indikativ, können je nach Land variieren, enthalten keine anfallenden Steuern und Abgaben und unterliegen der Verfügbarkeit des Produktangebots vor Ort.
„Bei CrushBank haben wir aus erster Hand gesehen, wie die offenen, effizienten KI-Modelle von IBM einen echten Mehrwert für die Unternehmens-KI bieten – mit der richtigen Balance aus Leistung, Kosteneffizienz und Skalierbarkeit. Granite 3.2 geht mit neuen Argumentationsfähigkeiten noch einen Schritt weiter, und wir freuen uns darauf, diese beim Aufbau neuer agentischer Lösungen zu erforschen.“
David Tan
CTO
CrushBank
Verwenden Sie IBM Docling und die Open-Source-Software Granite 3.1, um die visuelle Beantwortung von Fragen zu Dokumenten für verschiedene Dateitypen durchzuführen
Erfahren Sie, wie Sie einen KI-Agenten erstellen, der Fragen beantworten kann
Bei diesem Tutorial werden Sie das IBM Granite-3.0-8B-Instruct-Modell zur Durchführung benutzerdefinierter Funktionsaufrufe verwenden, das jetzt auf watsonx.ai verfügbar ist.
Quantisieren Sie ein vorab trainiertes Modell auf verschiedene Weise, um die Größe der Modelle darzustellen und ihre Leistung bei einer Aufgabe zu vergleichen
Prognostizieren Sie die Zukunft basierend auf Erkenntnissen mit dem TinyTimeMixer (TTM) Granite-Modell
Wandeln Sie Text in eine strukturierte Darstellung um und generieren Sie eine semantisch korrekte SQL Query
Verwenden Sie zum Prompt-Tuning eines Granite-Modells in Python einen synthetischen Datensatz mit positiven und negativen Kundenbewertungen
Das vollständige Granite-Kochbuch ansehen
Setzen Sie KI mit Open-Source-Granite-Modellen in der Produktion mit Red Hat Enterprise Linux AI und watsonx in großem Maßstab und selbstbewusst ein. Schnelleres Erstellen mit Funktionen wie Tool-Aufruf, 12 Sprachen, logische Argumentationsketten und multimodale Adapter
Die neuesten Granite-Modelle bieten neue Argumentationsfähigkeiten, ein visuell gestütztes Modell und mehr Effizienz – und damit wettbewerbsfähige Ergebnisse zu niedrigeren Kosten.
In Mixture of Experts – Folge 40 geht das Panel auf Missverständnisse bei DeepSeek R1 ein, erklärt die Modelldestillation und analysiert die Open-Source-Wettbewerbslandschaft
Erhalten Sie eine kuratierte Auswahl von KI-Themen, Trends und Forschungsergebnissen direkt in Ihren Posteingang.
DeepSeek-R1 ist ein digitaler Assistent, der bei bestimmten KI-Benchmarks für Mathematik- und Codierungsaufgaben genauso gut abschneidet wie OpenAIs o1, mit weitaus weniger Chips trainiert wurde und nach Angaben des Unternehmens etwa 96 % kostengünstiger in der Anwendung ist.
IBM engagiert sich für die Erstellung, den Einsatz und die Nutzung von KI-Modellen, die Innovationen unternehmensweit auf verantwortungsvolle Weise vorantreiben. Die KI- und Datenplattform watsonx von IBM umfasst einen durchgängigen Prozess zum Erstellen und Testen von Foundation Models und generativer KI. Bei den von IBM entwickelten Modellen suchen wir nach Duplikaten und entfernen diese. Außerdem setzen wir URL-Blocklisten, Filter für anstößige Inhalte und Dokumentenqualität, Satzsplitting und Tokenisierungstechniken ein – und das alles vor dem Training der Modelle.
Während des Datentrainings versuchen wir, Abweichungen in den Modellergebnissen zu vermeiden und verwenden eine überwachte Feinabstimmung, damit die Anweisungen besser befolgt werden können. Auf diese Weise kann das Modell zur Erledigung von Unternehmensaufgaben mittels Prompt Engineering eingesetzt werden. Wir entwickeln die Granite-Modelle in mehrere Richtungen weiter und arbeiten an weiteren Modalitäten, branchenspezifischen Inhalten und weiteren Datenkommentaren für das Training. Gleichzeitig stellen wir regelmäßige, fortlaufende Datenschutzmaßnahmen für die von IBM entwickelten Modelle bereit.
Angesichts der sich schnell weiterentwickelnden Landschaft der generativen KI-Technologie müssen wir unsere Prozesse durchweg kontinuierlich anpassen und verbessern. IBM legt großen Wert auf eine sorgfältige Entwicklung und Tests seiner Foundation Models. Deshalb bietet das Unternehmen für alle von IBM entwickelten Modelle eine standardmäßige vertragliche Haftungsfreistellung für geistiges Eigentum, wie sie auch für IBM Hardware- und Softwareprodukte gilt.
Im Gegensatz zu einigen anderen Anbietern von Large Language Models und gemäß dem Standardkonzept von IBM für Haftungsfreistellungen fordert IBM von seinen Kunden keine Entschädigung für die Nutzung der von IBM entwickelten Modelle durch den Kunden. Darüber hinaus legt IBM keine Obergrenze für seine Haftungsverpflichtung für die von IBM entwickelten Modelle fest und bleibt damit seinem Ansatz in Bezug auf die Haftungspflicht treu.
Folgende aktuelle watsonx Modelle unterliegen diesem Schutz:
(1) Slate-Familie mit reinen Encoder-Modellen.
(2) Granite-Familie mit reinen Decoder-Modellen.
* Wie kleinere, auf die Branche zugeschnittene KI-Modelle größere Vorteile bieten können
https://www.ft.com/partnercontent/ibm/how-smaller-industry-tailored-ai-models-can-offer-greater-benefits.html
1Leistung der Granite-Modelle, durchgeführt von IBM Research, im Vergleich zu führenden offenen Modellen in akademischen und unternehmensweiten Benchmarks – https://ibm.com/new/ibm-granite-3-0-open-state-of-the-art-enterprise-models