KI auf IBM LinuxONE

Integrierte KI, die skalierbar, energieeffizient und sicher ist
Telum II-Prozessorchip

KI-gestützte Leistung und Innovation

Künstliche Intelligenz (KI) verändert ganze Branchen. Vor diesem Hintergrund benötigen Unternehmen eine Infrastruktur, die KI-Workloads sowohl effizient als auch sicher bewältigen kann.

IBM LinuxONE, unterstützt durch den IBM® Telum-Prozessor, integriert die KI-Beschleunigung direkt in den Chip und ermöglicht so die Echtzeit-Inferenz mehrerer KI-Modelle mit minimaler Latenz. Diese Funktionen – in Kombination mit KI und großen Sprachmodellen – ermöglichen es Unternehmen, Daten dort zu analysieren, wo sie sich befinden, und so schnellere und tiefere Erkenntnisse für geschäftskritische Anwendungen wie Betrugserkennung, Risikoanalyse und medizinische Bildgebung zu liefern.

KI-Erkenntnisse in Echtzeit

Der auf dem Chip integrierte KI-Beschleuniger ermöglicht eine Inferenz mit geringer Latenz und analysiert Daten, während Transaktionen stattfinden. Speicherkohärenz und direkter Fabric-Zugriff beseitigen Engpässe für eine nahtlose KI-Ausführung.

Höherer KI-Durchsatz

Die Verwendung eines einzelnen Integrated Accelerator for AI auf einer OLTP-Workload auf IBM LinuxONE Emperor 5 entspricht dem Durchsatz der Ausführung von Inferenzen auf einem vergleichbaren X86 Server (Remote) mit 13 Kernen.1

Beschleunigte KI-Leistung

Mit IBM LinuxONE Emperor 5 verarbeiten Sie bis zu 450 Milliarden Inferenzvorgänge pro Tag mit einer Reaktionszeit von 1 Min. mit einem Deep Learning-Modell zur Betrugserkennung2

Skalierbarkeit ohne Kompromisse

Mit IBM LinuxONE Emperor 5 können Sie bis zu 5 Millionen Inferenzoperationen pro Sekunde mit einer Reaktionszeit von weniger als 1 ms mithilfe eines Deep-Learning-Modells zur Betrugserkennung verarbeiten.3

Skalierbare KI für komplexe Workloads

PCIe-Karte IBM Spyre Accelerator-Karte

Die IBM Spyre Accelerator-Karte ist ein 75 W PCIe Gen 5x KI-Beschleuniger mit 128 GB LPDDR5-Speicher, der für generative KI und multimodale LLMs optimiert ist.8 Mit 32 (+2) Kernen mit einem Scratchpad von 2 MB pro Kern und einer Kernauslastung von >55 % lässt sich Spyre nach Karten und Schubladen skalieren und ermöglicht es Unternehmen, komplexe KI-Inferenzen effizient über Unternehmensanwendungen hinweg zu handhaben.

Durch die Ergänzung von IBM LinuxONE 5 mit IBM Spyre Accelerator-Karten sind zusätzliche Anwendungsfälle möglich, darunter generative KI. 

Blog lesen über den Spyre Accelerator
Demo: Echtzeit-Erkennung von Versicherungsbetrug mit hoher Leistung auf IBM LinuxONE.

KI-Software und -Lösungen für IBM LinuxONE

KI-Toolkit für IBM LinuxONE
Ein kuratierter Satz von KI-Frameworks, optimiert für IBM LinuxONE Integrated Accelerator for AI und mit einer verbesserten Leistung mit IBM Elite Support.
IBM Synthetic Data Sets
Eine Familie künstlich generierter Datensätze, die das Training von KI-Modellen und LLMs verbessern und IBM LinuxONE im Finanzwesen helfen, schnell auf effektive, relevante Daten für KI-Initiativen zuzugreifen.
Red Hat OpenShift AI
Eine offene Plattform für die Verwaltung des Lebenszyklus von prädiktiven und generativen KI-Modellen im großen Maßstab in Hybrid-Cloud-Umgebungen.
ONNX
Ein portables Modellformat, das eine Kompatibilität über mehrere Frameworks bietet und es KI-Entwicklern ermöglicht, Modelle einmalig zu erstellen und sie dann über verschiedene Laufzeiten, Tools und Compiler bereitzustellen.
TensorFlow
Ein leistungsstarkes Open-Source-Framework für Modellentwicklung, Training und Inferenz, das ein umfangreiches, für LinuxONE optimiertes Ökosystem bietet.
IBM SnapML
Für Hochgeschwindigkeitstraining und -inferenz im maschinellen Lernen entwickelt, nutzt es den IBM Integrated Accelerator für KI, um die Leistung für Random Forest-, Extra Trees- und Gradient Boosting-Modelle zu steigern.
Triton Inference Server
Ein Open-Source-Modellserver, optimiert für Linux on Z, der sowohl CPU- als auch GPU-Inferenzen unterstützt und gleichzeitig SIMD und den IBM Integrated Accelerator for KI nutzt.
IBM Z Deep Learning Compiler
Ein Tool, das die Bereitstellung von Deep-Learning-Modellen auf IBM Z vereinfacht und es Data Scientists ermöglicht, KI-Modelle für geschäftskritische Umgebungen zu optimieren.

ISV-Anwendungen

IBM arbeitet mit dem IBM LinuxONE Ecosystem zusammen, um ISVs dabei zu helfen, Lösungen für die heutigen Herausforderungen in den Bereichen KI, Nachhaltigkeit und Cybersicherheit bereitzustellen.

Entdecken Sie zwei innovative Lösungen, die auf Finanz- und Gesundheitseinrichtungen zugeschnitten sind: Clari5 Enterprise Fraud Management auf IBM LinuxONE 4 Express zur Betrugsprävention in Echtzeit und Exponential AI's Enso Decision Intelligence Platform auf LinuxONE für fortschrittliche KI-Lösungen im großen Maßstab.

Clari5 erkunden Exponential AI erkunden
Machen Sie den nächsten Schritt

Erfahren Sie mehr über KI auf IBM LinuxONE und vereinbaren Sie ein kostenloses 30-minütiges Treffen mit einem IBM-Mitarbeiter.

Mehr zu IBM® LinuxONE 5 erfahren
KI im IBM LinuxONE-Blog

Lesen Sie einen Überblick darüber, wie KI auf IBM LinuxONE durch Erkenntnisse in Echtzeit und Leistung auf Unternehmensniveau das Geschäftswachstum und die Effizienz steigert. 

Blog lesen
IBM LinuxONE 5 erhält einen enormen KI-Schub

Lesen Sie das Cambrian-AI Forschungspapier, um mehr über die Technologie in LinuxONE 5 und die Anwendungsfälle für KI, die sich für diesen Server auf Unternehmensniveau eignen, zu erfahren.

Lesen Sie den Artikel über Cambrian-AI
Beginnen Sie Ihre Transformation zu KI auf LinuxONE

Erkunden Sie wichtige Überlegungen für die Planung eines KI-Anwendungsfalls, erfahren Sie, was mit den Telum-Chips möglich ist, und lernen Sie die nächsten Schritte für den Einstieg kennen.

Erste Schritte mit KI
Fußnoten

1 HAFTUNGSAUSSCHLUSS: Haftungsausschluss: Die Leistungsergebnisse basieren auf internen Tests von IBM, die auf IBM Systems Hardware des Maschinentyps 9175 ausgeführt wurden. Die OLTP-Anwendung und PostgreSQL wurden auf der IBM Systems Hardware bereitgestellt. Das KI-Setup des Credit Card Fraud Detection (CCFD) Ensembles besteht aus zwei Modellen (LSTM, TabFormer). Auf IBM Systems Hardware wurde die OLTP-Anwendung mit dem IBM Z Deep Learning Compiler (zDLC) kompiliertem JAR und IBM Z Accelerated for NVIDIA® Triton™ Inference Server lokal ausgeführt und die KI-Inferenzoperationen auf Kernen und dem Integrated Accelerator for AI im Gegensatz zur Ausführung der OLTP Anwendung lokal ausgeführt und die Remote KI-Inferenzvorgänge auf einem x86 Server verarbeitet, auf dem NVIDIA Triton Inference Server mit OpenVino™ Laufzeit-Backend auf CPU (mit AMX) ausgeführt wird. Jedes Szenario wurde von Apache JMeter™ 5.6.3 mit 64 parallelen Benutzern gesteuert. IBM Systems Hardwarekonfiguration: 1 LPAR mit Ubuntu 24.04 mit 7 dedizierten Kernen (SMT), 256 GB Arbeitsspeicher und IBM FlashSystem 9500 Speicher. Die Netzwerkadapter waren für NETH unter Linux dediziert. x86-Server-Konfiguration: 1 X86 Server mit Ubuntu 24.04 mit 28 Emerald Rapids Intel Xeon Gold CPUs bei 2.20 GHz mit eingeschaltetem Hyper-Threading, 1 TB Arbeitsspeicher, lokalen SSDs, UEFI mit aktiviertem maximalen Leistungsprofil, CPU P-State Control und C-States deaktiviert. Die Ergebnisse können abweichen.

2, 3 HAFTUNGSAUSSCHLUSS: Die Leistungsergebnisse wurden aus internen IBM Tests extrapoliert, die auf IBM Systems Hardware des Maschinentyps 9175 ausgeführt wurden. Der Benchmark wurde mit 1 Thread ausgeführt, der lokale Inferenzvorgänge mithilfe eines LSTM-basierten synthetischen Modells zur Betrugserkennung durchführte, um den integrierten Beschleuniger für KI zu nutzen. Es wurde eine Stapelgröße von 160 verwendet. IBM Systems Hardwarekonfiguration: 1 LPAR mit Red Hat Enterprise Linux 9.4 mit 6 Kernen (SMT), 128 GB Arbeitsspeicher. Die Ergebnisse können abweichen.