Cette série d’outils d’IA pour IBM Z et LinuxONE réunit les principaux frameworks d’IA open source ainsi qu’une assistance IBM Elite, le tout adapté à votre matériel IBM Z et LinuxONE.
Les logiciels open source ont démocratisé l’accès à l’IA et l’ont rendue à la fois plus abordable et plus innovante. Toutefois, la mise en œuvre de tels frameworks nécessite toujours une assistance adaptée. Grâce aux nouveaux outils d’IA pour IBM Z et LinuxONE, profitez de notre assistance éprouvée pour déployer et accélérer l’adoption des principaux frameworks d’IA open source sur vos plateformes z/OS et LinuxONE.
Cette série d’outils d’IA réunit une assistance IBM Elite et l’infrastructure d’ingénierie sécurisée d’IBM qui analyse et approuve les frameworks d’IA open source, ainsi que des conteneurs certifiés IBM pour les vulnérabilités de sécurité et la validation de la conformité réglementaire.
Cette série d’outils d’IA pour IBM Z et LinuxONE devrait être disponible au quatrième trimestre 2023.
Grâce à l’assistance premium IBM Elite, bénéficiez de conseils opportuns pour réussir le déploiement de logiciels d’IA open source et non garantis par IBM.
Tirez parti de l’accélérateur intégré pour l’IA IBM Z pour améliorer considérablement la performance des programmes d’IA open source et non garantis par IBM.
Associez l’apprentissage en profondeur aux approches traditionnelles de ML pour créer et fournir des frameworks d’IA.
Réduisez les coûts et gagnez en simplicité tout en accélérant la mise sur le marché grâce à des outils et des packages d’exécution légers et téléchargeables gratuitement.
Innovez grâce à l’open source avec les outils d’IA pour IBM Z et LinuxONE.
Accélérez de 85 % la détection des fraudes lors de transactions en monnaie numérique en colocalisant votre application avec Snap ML sur IBM LinuxONE Emperor 4.1
Associé à un serveur mono-châssis IBM z16, l’accélérateur intégré pour l’IA multiplie par 6,8 le débit d’inférence sur des images biomédicales avec TensorFlow 2.9.1 (comparé à l’utilisation d’un serveur mono-châssis IBM z16 seul).2
Associé à un serveur multi-châssis IBM z16 et à LinuxONE Emperor 4, l’accélérateur intégré pour l’IA multiplie par 2,5 le rendement d’inférence sur des images biomédicales avec TensorFlow (comparé à l’utilisation d’un système x86 seul).3
Divisez par 7 le délai de réponse en cas de fraude à la carte de crédit en utilisant le back-end ONNX-MLIR pour Nvidia Triton sur IBM z16 multi-châssis et LinuxONE Emperor 4 (comparé à l’utilisation du back-end ONNX Runtime pour Nvidia Triton sur un serveur x86).4
Multipliez par 3,5 la vitesse de prévision des transactions client en colocalisant votre application avec la bibliothèque Snap ML sur IBM z16 multi-châssis et LinuxONE Emperor 4 (comparé à une exécution à distance avec la bibliothèque d’inférence Forest NVIDIA sur un serveur x86).5
Accélérez l’intégration de TensorFlow avec IBM Z Accelerated for TensorFlow pour développer et déployer des modèles de machine learning (ML) sur des réseaux neuronaux.
Grâce à IBM Z Accelerated for NVIDIA Triton Inference Server, rationalisez et uniformisez les inférences d’IA en déployant des modèles de ML ou DL à partir de n’importe quel framework sur une infrastructure GPU ou CPU.
Exploitez les avantages de TensorFlow Serving, un système de service flexible et performant, grâce à IBM Z Accelerated for TensorFlow Serving et déployez des modèles de ML en production.
Transformez des modèles de ML en un code qui peut être exécuté sur z/OS ou LinuxONE grâce au compilateur de deep learning IBM Z (IBM zDLC).
Grâce à IBM Z Accelerated for Snap ML, développez et déployez des modèles de ML avec Snap ML, une bibliothèque open source qui optimise l’entraînement et le scoring des principaux modèles de ML.
Découvrez comment favoriser la détection, la prévention et la résolution des cas de fraude grâce à une solution d’IA évolutive et cohérente.
Découvrez comment les applications d’IA peuvent vous aider à identifier les différents schémas de blanchiment d’argent, mais aussi à y remédier en temps réel.
Découvrez comment améliorer la précision de vos modèles et réduire leur latence pour intégrer l’inférence à vos applications de traitement des transactions et de service de données, même lorsqu’aucun retard n’est permis.
Découvrez comment nos outils d’IA peuvent vous aider à déployer vos modèles d’IA sur z/OS pour des informations métier en temps réel et à l’échelle.
Découvrez comment cette série d’outils d’IA facilite la création et le service de modèles personnalisés sur Linux avec Z et LinuxONE.
1 AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM à partir d’un modèle Scikit-learn Random Forest avec un back-end Snap ML v1.9.0 (aperçu technique) exécuté sur IBM LinuxONE Emperor 4, ainsi qu’avec un back-end Scikit-learn v1.0.2 exécuté sur un serveur x86. Ce modèle a été entraîné avec l’ensemble de données publiques suivant : https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. BentoML v0.13.1 (https://github.com/bentoml/BentoML) a été utilisé comme framework de service de modèle pour les deux plateformes. Configuration IBM LinuxONE Emperor 4 : Ubuntu 20.04 dans une LPAR avec 2 cœurs dédiés, 256 Go de mémoire. Configuration x86 : Ubuntu 20.04 sur 9 processeurs IceLake Intel Xeon Gold 6342 à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire.
2 AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant TensorFlow 2.9.1 avec IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) pour la segmentation sémantique d’images médicales (https://github.com/karolzak/keras-unet#usage-examples). Les tests ont été effectués localement en envoyant 30 images à la fois et en exécutant TensorFlow 2.9.1 sur 5 cœurs et sur une puce unique, comparé à une exécution sur 5 cœurs et sur une puce unique avec l’accélérateur intégré pour l’IA via IBM-zdnn-plugin. Configuration IBM Machine Type 3932 : 1 LPAR configurée avec 10 IFL dédiées, 128 Go de mémoire, Ubuntu 22.04. Les résultats peuvent varier.
3 AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant TensorFlow 2.12.0 avec IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) pour la segmentation sémantique d’images médicales (https://github.com/karolzak/keras-unet#usage-examples). Les tests ont été effectués à distance à l’aide du pilote de workload wrk (https://github.com/wg/wrk) en envoyant des imagines uniques avec TensorFlow 2.12.0. Configuration IBM Machine Type 3931 : 1 LPAR configurée avec 12 IFL dédiées, 128 Go de mémoire, Ubuntu 22.04. Configuration x86 : Ubuntu 22.04 sur 12 processeurs IceLake Intel Xeon Gold à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire. Les résultats peuvent varier.
4 AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant Nvidia Triton avec le back-end ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) sur IBM Machine Type 3931, en comparaison à l’utilisation du back-end ONNX Runtime pour Nvidia Triton sur un serveur x86. Le modèle CCFD a été entraîné sur un ensemble de données synthétiques. Le framework de service NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) a été utilisé pour les deux plateformes et piloté par l’outil d’analyse comparative gRPC ghz (https://github.com/bojand/ghz). Configuration IBM Machine Type 3931 : Ubuntu 22.04 dans une LPAR avec 6 IFL dédiées, 128 Go de mémoire. Configuration x86 : Ubuntu 22.04 sur 2 fois 24 processeurs IceLake Intel Xeon Gold à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire.
5 AVERTISSEMENT : Les résultats de performances sont basés sur des tests d’inférence internes réalisés par IBM en utilisant un modèle Random Forest avec un back-end Snap ML v1.12.0 qui utilise l’accélérateur intégré pour l’IA sur IBM Machine Type 3931, comparé à un back-end de bibliothèque d’inférence Forest NVIDIA (https://github.com/triton-inference-server/fil_backend) sur un serveur x86. Ce modèle a été entraîné avec l’ensemble de données publiques suivant https://www.kaggle.com/c/santander-customer-transaction-prediction et NVIDIA Triton (https://github.com/triton-inference-server/server) a été utilisé comme framework de service de modèle pour les deux plateformes. Le workload a été piloté avec l’outil d’analyse comparative http Hey (https://github.com/rakyll/hey). Configuration IBM Machine Type 3931 : Ubuntu 22.04 dans une LPAR avec 6 IFL dédiées, 256 Go de mémoire. Configuration x86 : Ubuntu 22.04 sur 6 processeurs IceLake Intel Xeon Gold à 2,80 GHz avec l’hyperthreading activé, 1 To de mémoire.