Série d’outils d’IA pour IBM Z et LinuxONE
Profitez de tous les avantages des principaux programmes d’IA open source sur vos plateformes IBM Z et LinuxONE grâce à cette série d’outils dédiée
Illustration à plat représentant le workflow de la série d’outils d’IA pour IBM Z and IBM LinuxONE

Cette série d’outils d’IA pour IBM Z et LinuxONE réunit les principaux frameworks d’IA open source ainsi qu’une assistance IBM Elite, le tout adapté à votre matériel IBM Z et LinuxONE.

Les logiciels open source ont démocratisé l’accès à l’IA et l’ont rendue à la fois plus abordable et plus innovante. Toutefois, la mise en œuvre de tels frameworks nécessite toujours une assistance adaptée. Grâce aux nouveaux outils d’IA pour IBM Z et LinuxONE, profitez de notre assistance éprouvée pour déployer et accélérer l’adoption des principaux frameworks d’IA open source sur vos plateformes z/OS et LinuxONE.

Cette série d’outils d’IA réunit une assistance IBM Elite et l’infrastructure d’ingénierie sécurisée d’IBM qui analyse et approuve les frameworks d’IA open source, ainsi que des conteneurs certifiés IBM pour les vulnérabilités de sécurité et la validation de la conformité réglementaire.

Cette série d’outils d’IA pour IBM Z et LinuxONE devrait être disponible au quatrième trimestre 2023.

Avantages Déployez en toute confiance

Grâce à l’assistance premium IBM Elite, bénéficiez de conseils opportuns pour réussir le déploiement de logiciels d’IA open source et non garantis par IBM.

Améliorez les performances

Tirez parti de l’accélérateur intégré pour l’IA IBM Z pour améliorer considérablement la performance des programmes d’IA open source et non garantis par IBM.

Exploitez les frameworks d’IA

Associez l’apprentissage en profondeur aux approches traditionnelles de ML pour créer et fournir des frameworks d’IA.

Gagnez en simplicité et limitez les coûts

Réduisez les coûts et gagnez en simplicité tout en accélérant la mise sur le marché grâce à des outils et des packages d’exécution légers et téléchargeables gratuitement.

Avantages en termes de performances

Innovez grâce à l’open source avec les outils d’IA pour IBM Z et LinuxONE.

Accélérez la détection des fraudes

Accélérez de 85 % la détection des fraudes lors de transactions en monnaie numérique en colocalisant votre application avec Snap ML sur IBM LinuxONE Emperor 4.1

Améliorez le débit des images biomédicales

Associé à un serveur mono-châssis IBM z16, l’accélérateur intégré pour l’IA multiplie par 6,8 le débit d’inférence sur des images biomédicales avec TensorFlow 2.9.1 (comparé à l’utilisation d’un serveur mono-châssis IBM z16 seul).2

Accélérez l’inférence d’images biomédicales

Associé à un serveur multi-châssis IBM z16 et à LinuxONE Emperor 4, l’accélérateur intégré pour l’IA multiplie par 2,5 le rendement d’inférence sur des images biomédicales avec TensorFlow (comparé à l’utilisation d’un système x86 seul).3

Réduisez le temps de réponse en cas de fraude

Divisez par 7 le délai de réponse en cas de fraude à la carte de crédit en utilisant le back-end ONNX-MLIR pour Nvidia Triton sur IBM z16 multi-châssis et LinuxONE Emperor 4 (comparé à l’utilisation du back-end ONNX Runtime pour Nvidia Triton sur un serveur x86).4

Prévision plus rapide des transactions client

Multipliez par 3,5 la vitesse de prévision des transactions client en colocalisant votre application avec la bibliothèque Snap ML sur IBM z16 multi-châssis et LinuxONE Emperor 4 (comparé à une exécution à distance avec la bibliothèque d’inférence Forest NVIDIA sur un serveur x86).5

Fonctionnalités Compatible avec TensorFlow

Accélérez l’intégration de TensorFlow avec IBM Z Accelerated for TensorFlow pour développer et déployer des modèles de machine learning (ML) sur des réseaux neuronaux.

Accélérez l’inférence TensorFlow
Intégration de frameworks d’IA

Grâce à IBM Z Accelerated for NVIDIA Triton Inference Server, rationalisez et uniformisez les inférences d’IA en déployant des modèles de ML ou DL à partir de n’importe quel framework sur une infrastructure GPU ou CPU.

Serveur d’inférence Triton
Modèles de ML avec TensorFlow Serving

Exploitez les avantages de TensorFlow Serving, un système de service flexible et performant, grâce à IBM Z Accelerated for TensorFlow Serving et déployez des modèles de ML en production.

TensorFlow Serving
Compilez des modèles avec IBM zDLC

Transformez des modèles de ML en un code qui peut être exécuté sur z/OS ou LinuxONE grâce au compilateur de deep learning IBM Z (IBM zDLC).

En savoir plus sur IBM zDLC
Exécutez Snap ML

Grâce à IBM Z Accelerated for Snap ML, développez et déployez des modèles de ML avec Snap ML, une bibliothèque open source qui optimise l’entraînement et le scoring des principaux modèles de ML.

IBM Snap Machine Learning
Cas d’utilisation Traitement du langage naturel

Combinez la puissance de l’IA et l’évolutivité et la sécurité d’IBM Z et LinuxONE pour traiter et analyser de grands volumes de données, et fournir ainsi des classifications et des prévisions plus précises. L’association de l’inférence d’IA et d’accélérateurs sur puce permet d’obtenir des résultats NLP en temps réel.

Détection et prévention des fraudes

Utilisez l’IA avec un processeur IBM Telum et un accélérateur intégré pour suivre d’importants volumes de transactions avec une faible latence, vous adapter plus rapidement à tous les types de fraude, comme la fraude à la carte de crédit, et prévenir les cas de fraude en temps réel.

Introduire l’inférence d’apprentissage en profondeur dans les workloads de l’entreprise (1:59)
Lutte contre le blanchiment d’argent

Entraînez des modèles de ML avec Scikit-learn ou Snap ML afin d’identifier les tendances associées au blanchiment d’argent en analysant de vastes ensembles de données de transactions financières. Tirez parti des performances élevées et des fonctions avancées de compression et de chiffrement des données d’IBM Z et de LinuxONE, essentielles aux applications de lutte contre le blanchiment d’argent.

Ressources Résolution des cas de fraude en temps réel

Découvrez comment favoriser la détection, la prévention et la résolution des cas de fraude grâce à une solution d’IA évolutive et cohérente.

Résolution des cas de blanchiment d’argent

Découvrez comment les applications d’IA peuvent vous aider à identifier les différents schémas de blanchiment d’argent, mais aussi à y remédier en temps réel.

Traitement automatique des images et du langage naturel

Découvrez comment améliorer la précision de vos modèles et réduire leur latence pour intégrer l’inférence à vos applications de traitement des transactions et de service de données, même lorsqu’aucun retard n’est permis.

Produits associés IBM Machine Learning for z/OS

Découvrez comment nos outils d’IA peuvent vous aider à déployer vos modèles d’IA sur z/OS pour des informations métier en temps réel et à l’échelle.

IBM Cloud Pak for Data sur IBM Z

Découvrez comment cette série d’outils d’IA facilite la création et le service de modèles personnalisés sur Linux avec Z et LinuxONE.

Explorer l’IA sur IBM Z
Passez à l’étape suivante

Adoptez l’IA grâce aux outils dédiés pour IBM Z et LinuxONE. Planifiez un appel individuel pour obtenir les réponses à vos questions.

À la découverte de l’IA sur IBM Z et LinuxONE
Autres moyens d’information Documentation Support Partenaires Ressources Communauté Communauté de développeurs Tarification flexible Financement global Redbooks
Notes de bas de page

AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM à partir d’un modèle Scikit-learn Random Forest avec un back-end Snap ML v1.9.0 (aperçu technique) exécuté sur IBM LinuxONE Emperor 4, ainsi qu’avec un back-end Scikit-learn v1.0.2 exécuté sur un serveur x86. Ce modèle a été entraîné avec l’ensemble de données publiques suivant : https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. BentoML v0.13.1 (https://github.com/bentoml/BentoML) a été utilisé comme framework de service de modèle pour les deux plateformes. Configuration IBM LinuxONE Emperor 4 : Ubuntu 20.04 dans une LPAR avec 2 cœurs dédiés, 256 Go de mémoire. Configuration x86 : Ubuntu 20.04 sur 9 processeurs IceLake Intel Xeon Gold 6342 à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire.

AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant TensorFlow 2.9.1 avec IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) pour la segmentation sémantique d’images médicales (https://github.com/karolzak/keras-unet#usage-examples). Les tests ont été effectués localement en envoyant 30 images à la fois et en exécutant TensorFlow 2.9.1 sur 5 cœurs et sur une puce unique, comparé à une exécution sur 5 cœurs et sur une puce unique avec l’accélérateur intégré pour l’IA via IBM-zdnn-plugin. Configuration IBM Machine Type 3932 : 1 LPAR configurée avec 10 IFL dédiées, 128 Go de mémoire, Ubuntu 22.04. Les résultats peuvent varier.

AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant TensorFlow 2.12.0 avec IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) pour la segmentation sémantique d’images médicales (https://github.com/karolzak/keras-unet#usage-examples). Les tests ont été effectués à distance à l’aide du pilote de workload wrk (https://github.com/wg/wrk) en envoyant des imagines uniques avec TensorFlow 2.12.0. Configuration IBM Machine Type 3931 : 1 LPAR configurée avec 12 IFL dédiées, 128 Go de mémoire, Ubuntu 22.04. Configuration x86 : Ubuntu 22.04 sur 12 processeurs IceLake Intel Xeon Gold à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire. Les résultats peuvent varier.

AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant Nvidia Triton avec le back-end ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) sur IBM Machine Type 3931, en comparaison à l’utilisation du back-end ONNX Runtime pour Nvidia Triton sur un serveur x86. Le modèle CCFD a été entraîné sur un ensemble de données synthétiques. Le framework de service NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) a été utilisé pour les deux plateformes et piloté par l’outil d’analyse comparative gRPC ghz (https://github.com/bojand/ghz). Configuration IBM Machine Type 3931 : Ubuntu 22.04 dans une LPAR avec 6 IFL dédiées, 128 Go de mémoire. Configuration x86 : Ubuntu 22.04 sur 2 fois 24 processeurs IceLake Intel Xeon Gold à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire.

AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant un modèle Random Forest avec un back-end Snap ML v1.12.0 qui utilise l’accélérateur intégré pour l’IA sur IBM Machine Type 3931, comparé à un back-end de bibliothèque d’inférence Forest NVIDIA (https://github.com/triton-inference-server/fil_backend) sur un serveur x86. Ce modèle a été entraîné avec l’ensemble de données publiques suivant https://www.kaggle.com/c/santander-customer-transaction-prediction et NVIDIA Triton (https://github.com/triton-inference-server/server) a été utilisé comme framework de service de modèle pour les deux plateformes. Le workload a été piloté avec l’outil d’analyse comparative http Hey (https://github.com/rakyll/hey). Configuration IBM Machine Type 3931 : Ubuntu 22.04 dans une LPAR avec 6 IFL dédiées, 256 Go de mémoire. Configuration x86 : Ubuntu 22.04 sur 6 processeurs IceLake Intel Xeon Gold à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire.