AI Toolkit for IBM Z und LinuxONE
Nutzen Sie das AI Toolkit, um das volle Potenzial beliebter Open-Source-KI-Programme auf Ihren IBM Z- und LinuxONE-Plattformen zu erschließen.
Flache Illustration des KI-Toolkits für IBM Z und IBM LinuxONE Workflow

AI Toolkit for IBM Z® und LinuxONE ist eine Familie beliebter Open-Source-KI-Framework mit IBM Elite Support und angepasst für IBM Z- und LinuxONE-Hardware.

Open-Source-Software hat KI zwar zugänglicher, erschwinglicher und innovativer gemacht, aber Sie brauchen das richtige Maß an Unterstützung, um diese Frameworks erfolgreich zu implementieren. Mit der Einführung eines KI-Toolkits für IBM Z und LinuxONE können Sie unser bewährtes Supportangebot nutzen, um beliebte Open-Source-KI-Frameworks auf Ihren z/OS®- und LinuxONE-Plattformen einzusetzen und deren Einführung zu beschleunigen.

Das KI-Toolkit besteht aus IBM Elite Support und IBM Secure Engineering, die Open-Source-KI-Frameworks und IBM-zertifizierte Container auf Sicherheitsschwachstellen überprüfen und die Einhaltung von Branchenvorschriften bestätigen.

Das AI Toolkit für IBM Z und LinuxONE wird voraussichtlich im 4. Quartal 2023 allgemein verfügbar sein.

Vorteile Mit Zuversicht bereitstellen

Nutzen Sie den Premium-Support von IBM Elite Support, um bei Bedarf fachkundige Unterstützung für den erfolgreichen Einsatz von Open-Source-KI und nicht von IBM autorisierter Software zu erhalten.

Verbesserung der Performance

Nutzen Sie IBM Z Integrated Accelerator for AI, um die Leistung von Open-Source- und IBM-fremden KI-Programmen deutlich zu verbessern.

KI-Frameworks nutzen

Nutzen Sie sowohl Deep Learning als auch traditionelle ML-Ansätze, um KI-Frameworks zu erstellen und zu bedienen.

Geringere Kosten und weniger Komplexität

Reduzieren Sie Kosten und Komplexität und beschleunigen Sie die Markteinführung mit leichtgewichtigen und kostenlos herunterladbaren Tools und Laufzeitpaketen.

Leistungsvorteile

Liefern Sie Innovationen durch Open Source mit dem AI Toolkit für IBM Z und LinuxONE.

Schnellere Betrugserkennung

Digitale Währungstransaktionen führen Inferencing für Betrug 85 % schneller aus, indem Sie Ihre Anwendung mit Snap ML auf IBM LinuxONE Emperor 4 zusammenlegen.1

Verbesserter biomedizinischer Bilddurchsatz

Mit IBM z16 Single Frame bietet der Integrated Accelerator for AI einen 6,8-fach höheren Durchsatz bei der Inferenz von biomedizinischen Bilddaten mit TensorFlow 2.9.1 im Vergleich zur Verwendung von IBM z16 Single Frame allein.2

Verstärkte biomedizinische Bildinferenzierung

Mit IBM z16 Multi-Frame und LinuxONE Emperor 4 bietet der Integrated Accelerator for AI einen 2,5-fach höheren Durchsatz bei der Inferenzierung biomedizinischer Bilddaten mit TensorFlow Serving im Vergleich zu einem x86-System.3

Geringere Reaktionszeiten bei Betrug

Führen Sie die Erkennung von Kreditkartenbetrug mit dem ONNX-MLIR-Backend für Nvidia Triton auf IBM z16 Multi-Frame und LinuxONE Emperor 4 mit 7x niedrigeren Reaktionszeiten durch als mit dem ONNX Runtime-Backend für Nvidia Triton auf einem vergleichbaren x86-Server.4

Schnellere Vorhersage von Kundentransaktionen

Führen Sie die Vorhersage von Kundentransaktionen 3,5 Mal schneller aus, indem Sie Ihre Anwendung mit der Snap ML Bibliothek auf IBM z16 Multi-Frame und LinuxONE Emperor 4 gemeinsam betreiben, als wenn Sie die Vorhersage aus der Ferne mit der NVIDIA Forest Inference Library auf einem vergleichbaren x86-Server ausführen.5

Funktionen Kompatibel mit TensorFlow

Beschleunigen Sie die nahtlose Integration von TensorFlow mit IBM Z Accelerated for TensorFlow, um Modelle für maschinelles Lernen (ML) auf neuronalen Netzwerken zu entwickeln und einzusetzen.

Beschleunigen der TensorFlow-Inferenz
Integration von KI-Frameworks

Verwenden Sie IBM Z Accelerated for NVIDIA Triton Inference Server, um KI-Inferenzen zu rationalisieren und zu standardisieren, indem Sie ML- oder DL-Modelle aus beliebigen Frameworks auf einer GPU- oder CPU-basierten Infrastruktur einsetzen.

Triton Inference Server
ML-Modelle mit TensorFlow Serving

Nutzen Sie die Vorteile von TensorFlow Serving, einem flexiblen und hochleistungsfähigen Serving-System, mit IBM Z Accelerated for TensorFlow Serving, um ML-Modelle in der Produktion einzusetzen.

TensorFlow Serving
Kompilieren von Modellen mit IBM zDLC

Konvertieren Sie ML-Modelle in einen Code, der auf z/OS oder LinuxONE mit Hilfe des IBM Z Deep Learning Compiler (IBM zDLC) ausgeführt werden kann.

Mehr über IBM zDLC erfahren
Snap ML ausführen

Verwenden Sie IBM Z Accelerated for Snap ML, um ML-Modelle mit Snap ML zu erstellen und einzusetzen. Snap ML ist eine Open-Source-Bibliothek, die das Training und Scoring gängiger ML-Modelle optimiert.

IBM Snap Machine Learning
Anwendungsfälle Verarbeitung natürlicher Sprache

Kombinieren Sie die Leistung von KI mit der Skalierbarkeit und Sicherheit von IBM Z und LinuxONE, um riesige Datenmengen zu verarbeiten und zu analysieren und so genaue Klassifizierungen und Vorhersagen zu erstellen. KI-Inferencing mit On-Chip-Beschleunigern liefert NLP-Ergebnisse in Echtzeit.

Betrugserkennung und -prävention

Nutzen Sie KI mit dem IBM Telum Prozessor und dem integrierten Beschleuniger, um große Transaktionsmengen mit geringer Latenz zu überwachen, sich dynamischer an alle Arten von Betrug wie Kreditkartenbetrug anzupassen und Betrug in Echtzeit zu verhindern.

Deep Learning-Inferenz für Unternehmens-Workloads (1:59)
Bekämpfung von Geldwäsche (AML)

Trainieren Sie ML-Modelle mit Scikit-learn oder Snap ML, um durch die Analyse großer Datensätze von Finanztransaktionen Geldwäschemuster zu erkennen. Nutzen Sie die hohe Leistung, Datenkomprimierung und Verschlüsselungsfunktionen von IBM Z und LinuxONE, die für AML-Anwendungen unerlässlich sind.

Ressourcen Lösung von Betrugsszenarien in Echtzeit

Erfahren Sie, wie Sie eine skalierbare und konsistente KI-Lösung nutzen können, um Betrug zu erkennen, zu verhindern und zu bekämpfen.

Anti-Geldwäsche-Maßnahmen

Erfahren Sie, wie Sie KI-Anwendungen einsetzen können, um nicht nur verschiedene Geldwäschemuster zu erkennen, sondern auch um sie in Echtzeit zu verhindern.

Verarbeitung von Bildern und natürlicher Sprache

Entdecken Sie, wie Sie kompromisslose Modellgenauigkeit und sehr niedrige Latenzzeiten für die Integration von Inferencing in Transaktionsverarbeitungs- und Data-Serving-Anwendungen erhalten, bei denen schnelle Antwortzeiten wichtig sind.

Weiterführende Produkte IBM Machine Learning for z/OS

Erfahren Sie, wie AI Toolkit Ihnen dabei helfen kann, Ihre KI-Modelle auf z/OS einzusetzen, um Geschäftseinblicke in Echtzeit und in großem Umfang zu erhalten.

IBM Cloud Pak® for Data auf IBM Z

Erfahren Sie, wie AI Toolkit einen DIY-basierten Ansatz für die Modellerstellung und -bereitstellung auf Linux® auf Z und LinuxONE bietet.

KI auf IBM Z durchsuchen
Machen Sie den nächsten Schritt

Beginnen Sie Ihren Weg zu KI mit dem AI Toolkit für IBM Z und LinuxONE. Vereinbaren Sie einen Termin für ein persönliches Gespräch, um die Antworten zu erhalten, die Sie für den Start benötigen.

Der Weg zu KI auf IBM Z und LinuxONE
Weitere Informationsmöglichkeiten Dokumentation Support Partner Ressourcen Community Entwicklungscommunity Flexible Preisstruktur Global Financing Redbooks
Fußnoten

HAFTUNGSAUSSCHLUSS: Die Leistungsergebnisse basieren auf IBM-internen Tests, bei denen ein Scikit-learn Random Forest Modell mit Snap ML v1.9.0 (Tech Preview) Backend auf IBM LinuxONE Emperor 4 und mit Scikit-learn v1.0.2 Backend auf einem vergleichbaren x86-Server inferiert wurde. Das Modell wurde mit dem folgenden öffentlichen Datensatz https://www.kaggle.com/datasets/ellipticco/elliptic-data-set trainiert. BentoML v0.13.1 (https://github.com/bentoml/BentoML) wurde auf beiden Plattformen als Model Serving Framework verwendet. IBM LinuxONE Emperor 4 Konfiguration: Ubuntu 20.04 in einer LPAR mit 2 dedizierten Kernen, 256 GB Speicher. x86-Konfiguration: Ubuntu 20.04 auf 9 IceLake Intel® Xeon® Gold 6342 CPU @ 2.80GHz mit eingeschaltetem Hyperthreading, 1 TB Speicher.

HAFTUNGSAUSSCHLUSS: Die Leistungsergebnisse basieren auf IBM-internen Tests, bei denen TensorFlow 2.9.1 mit dem IBM-zdnn-Plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) für Inferencing mit semantischer Segmentierung für medizinische Bilder (https://github.com/karolzak/keras-unet#usage-examples) eingesetzt wurde. Die Tests wurden lokal durchgeführt, indem jeweils 30 Bilder gesendet wurden. Dabei wurde TensorFlow 2.9.1 auf 5 Kernen auf einem einzelnen Chip im Vergleich zu TensorFlow auf 5 Kernen auf einem einzelnen Chip und dem Integrated Accelerator for AI über das IBM-zdnn-plugin ausgeführt. IBM Machine Typ 3932 Konfiguration: 1 LPAR konfiguriert mit 10 dedizierten IFLs, 128 GB Speicher, Ubuntu 22.04. Ergebnisse können variieren.

HAFTUNGSAUSSCHLUSS: Die Leistungsergebnisse basieren auf IBM-internen Tests, bei denen TensorFlow 2.12.0 mit dem IBM-zdnn-Plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) für Inferencing mit semantischer Segmentierung für medizinische Bilder (https://github.com/karolzak/keras-unet#usage-examples) eingesetzt wurde. Die Tests wurden aus der Ferne mit dem wrk-Workload-Treiber (https://github.com/wg/wrk) durchgeführt, der einzelne Bilder gegen TensorFlow 2.12.0 Serving sendet. IBM Machine Typ 3931 Konfiguration: 1 LPAR konfiguriert mit 12 dedizierten IFLs, 128 GB Speicher, Ubuntu 22.04. x86-Konfiguration: Ubuntu 22.04 auf 12 Ice Lake Intel® Xeon® Gold CPU @ 2.80GHz mit eingeschaltetem Hyper-Threading, 1 TB Speicher. Ergebnisse können variieren.

HAFTUNGSAUSSCHLUSS: Leistungsergebnisse basierend auf IBM-internen Tests zur Inferenzierung mit Nvidia Triton und dem ONNX-MLIR-Backend (https://github.com/IBM/onnxmlir-triton-backend) auf IBM Machine Type 3931 im Vergleich zur Verwendung des ONNX Runtime-Backends für Nvidia Triton auf einem vergleichbaren x86-Server durchgeführt wurde. Das CCFD-Modell wurde mit einem synthetischen Datensatz trainiert. Als Model-Serving-Framework wurde NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) auf beiden Plattformen verwendet und über das gRPC-Benchmarking-Tool ghz (https://github.com/bojand/ghz) gesteuert. IBM Machine Typ 3931 Konfiguration: Ubuntu 22.04 in einer LPAR mit 6 dedizierten IFLs, 128 GB Speicher. x86-Konfiguration: Ubuntu 22.04 auf 2 x 24 Ice Lake Intel® Xeon® Gold CPU @ 2.80GHz mit eingeschaltetem Hyper-Threading, 1 TB Speicher.

HAFTUNGSAUSSCHLUSS: Die Leistungsergebnisse basieren auf IBM-internen Tests, bei denen die Inferenz mit einem Random Forest-Modell mit Snap ML v1.12.0 Backend durchgeführt wurde, das den Integrated Accelerator for AI auf IBM Machine Type 3931 im Vergleich zur NVIDIA Forest Inference Library (https://github.com/triton-inference-server/fil_backend) Backend auf einem vergleichbaren x86-Server verwendet. Das Modell wurde anhand des folgenden öffentlichen Datensatzes https://www.kaggle.com/c/santander-customer-transaction-prediction trainiert und NVIDIA Triton™ (https://github.com/triton-inference-server/server) wurde auf beiden Plattformen als Model Serving Framework verwendet. Das Workload wurde über das http-Benchmarking-Tool Hey (https://github.com/rakyll/hey) gesteuert. IBM Machine Typ 3931 Konfiguration: Ubuntu 22.04 in einer LPAR mit 6 dedizierten IFLs, 256 GB Speicher. x86-Konfiguration: Ubuntu 22.04 auf 6 Ice Lake Intel® Xeon® Gold CPU @ 2.80GHz mit eingeschaltetem Hyper-Threading, 1 TB Speicher.