Il toolkit AI per IBM® Z e LinuxONE è una famiglia di popolari framework di intelligenza artificiale open source con IBM Elite Support, adattati all'hardware IBM Z e LinuxONE.
Sebbene i software open source abbiano reso l'intelligenza artificiale più accessibile, economica e innovativa, per implementarla correttamente è necessario il giusto livello di assistenza. Con l'introduzione del toolkit AI per IBM Z e LinuxONE, puoi sfruttare la nostra assistenza comprovata per implementare e accelerare l'adozione dei framework AI open source più popolari sulle tue piattaforme z/OS e LinuxONE.
Il toolkit AI è composto da IBM Elite Support e IBM Secure Engineering, che analizzano e scansionano i framework di server AI open source e i container certificati IBM per individuare le vulnerabilità della sicurezza e verificare la conformità alle normative di settore.
Il toolkit AI per IBM Z e LinuxONE dovrebbe essere disponibile al pubblico a partire dal quarto trimestre 2023.
Sfrutta l'assistenza premium offerta da IBM Elite Support per ricevere una guida esperta ogni volta che ne hai bisogno, in modo da implementare correttamente software AI open source non garantiti da IBM.
Usa IBM Z Integrated Accelerator for AI per migliorare notevolmente l'efficacia dei programmi di intelligenza artificiale open source non garantiti da IBM.
Sfrutta gli approcci di deep learning e di apprendimento automatico tradizionale per creare e servire framework di AI.
Riduci i costi e le complessità e accelera i tempi di immissione sul mercato, con strumenti e pacchetti runtime leggeri e gratuiti da scaricare.
Favorisci l'innovazione attraverso l'open source, con il toolkit AI per IBM Z e LinuxONE.
Le transazioni in valuta digitale eseguono l'inferenza per frode a una velocità superiore dell'85% se co-localizzi l'applicazione con Snap ML su IBM LinuxONE Emperor 4.1
Con IBM z16 Single Frame, Integrated Accelerator for AI consente una velocità di trasmissione 6,8 volte superiore per l'inferenza su dati di imaging biomedico con TensorFlow 2.9.1 rispetto al solo IBM z16 single frame.2
Con IBM z16 Multi Frame e LinuxONE Emperor 4, Integrated Accelerator for AI consente una velocità di trasmissione 2,5 volte superiore per l'inferenza su dati di imaging biomedico con server TensorFlow rispetto a un sistema x86.3
Rileva le frodi con carta di credito e reagisci 7 volte più velocemente, utilizzando il backend ONNX-MLIR per Nvidia Triton su IBM z16 multi frame e LinuxONE Emperor 4, anziché il backend ONNX Runtime per Nvidia Triton su x86 Server.4.
Prevedi le transazioni dei clienti 3,5 volte più velocemente, co-localizzando l'applicazione con libreria Snap ML su IBM z16 multi frame e LinuxONE Emperor 4, anziché eseguire la predizione in remoto utilizzando la libreria NVIDIA Forest Inference su un computer x86 Server.5
Consenti una perfetta integrazione di TensorFlow con IBM Z Accelerated for TensorFlow, per sviluppare e implementare modelli di apprendimento automatico (ML) su reti neurali.
Usa il server di inferenza Triton IBM Z Accelerated for NVIDIA per semplificare e standardizzare le inferenze di AI, implementando modelli di apprendimento automatico (ML) o di deep learning (DL) da qualsiasi framework su qualsiasi infrastruttura basata su GPU o CPU.
Sfrutta i vantaggi di TensorFlow Serving, un sistema di server flessibile e ad alte prestazioni, con IBM Z Accelerated for TensorFlow Serving e implementa modelli di apprendimento automatico nella produzione.
Converti i modelli di apprendimento automatico in un codice eseguibile su z/OS o LinuxONE con l'aiuto di IBM Z Deep Learning Compiler (IBM zDLC).
Usa IBM Z Accelerated for Snap ML per costruire e implementare modelli di apprendimento automatico con Snap ML, una libreria open source che ottimizza l'addestramento e la valutazione dei più diffusi modelli di apprendimento automatico.
Scopri come utilizzare una soluzione di intelligenza artificiale scalabile e coerente per rilevare, prevenire e reagire alle frodi.
Scopri come utilizzare le applicazioni di AI non solo per identificare vari schemi per il riciclaggio di denaro, ma anche per prevenirli in tempo reale.
Scopri come ottenere modelli sempre accurati e a bassissima latenza per integrare l'inferenza nelle applicazioni di elaborazione delle transazioni e data serving in cui i tempi di risposta sono importanti.
Scopri come il toolkit AI può aiutarti a implementare i tuoi modelli di intelligenza artificiale su z/OS per ottenere insight aziendali su larga scala in tempo reale.
Scopri come il toolkit AI offre un approccio fai-da-te alla creazione di modelli e al loro utilizzo su Linux su Z e LinuxONE.
1 DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni di IBM che effettuano inferenze utilizzando un modello Scikit-learn Random Forest con backend Snap ML v1.9.0 (anteprima per tecnici) su IBM LinuxONE Emperor 4 e con backend Scikit-learn v1.0.2 su x86 Server. Il modello è stato addestrato sul seguente dataset pubblico: https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. Su entrambe le piattaforme, come framework per la gestione dei modelli è stato utilizzato BentoML v0.13.1 (https://github.com/bentoml/BentoML). Configurazione IBM LinuxONE Emperor 4: Ubuntu 20.04 in un LPAR con 2 core dedicati, 256 GB di memoria. Configurazione x86: Ubuntu 20.04 su 9 CPU IceLake Intel® Xeon® Gold 6342 a 2,80 GHz con Hyper- Threading attivato, 1 TB di memoria.
2 DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni IBM eseguiti su TensorFlow 2.9.1 con IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) per l'inferenza che effettua la segmentazione semantica delle immagini mediche (https://github.com/karolzak/keras-unet#usage-examples). I test sono stati eseguiti localmente, inviando 30 immagini alla volta ed eseguendo TensorFlow 2.9.1 su 5 core su un singolo chip, anziché eseguendo 5 core su un singolo chip, e utilizzando Integrated Accelerator for AI tramite IBM-zdnn-plugin. Configurazione IBM Machine Type 3932: 1 LPAR configurato con 10 IFL dedicati, 128 GB di memoria, Ubuntu 22.04. I risultati sono soggetti a variazioni.
3 DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni IBM eseguiti su TensorFlow 2.12.0 con IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) per l'inferenza che effettua la segmentazione semantica delle immagini mediche (https://github.com/karolzak/keras-unet#usage-examples). I test sono stati eseguiti in remoto utilizzando il driver wrk workload (https://github.com/wg/wrk) per l'invio di singole immagini contro il servizio TensorFlow 2.12.0. Configurazione IBM Machine Type 3931: 1 LPAR configurato con 12 IFL dedicati, 128 GB di memoria, Ubuntu 22.04. Configurazione x86: Ubuntu 22.04 su 12 CPU IceLake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading attivato, 1 TB di memoria. I risultati sono soggetti a variazioni.
4 DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni di IBM che utilizzano Nvidia Triton con il backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) su IBM Machine Type 3931 rispetto all'utilizzo del backend ONNX Runtime per Nvidia Triton su un computer comparato x86 Server. Il modello CCFD è stato addestrato su un set di dati sintetici. Come framework per la gestione dei modelli, su entrambe le piattaforme è stato utilizzato NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server), gestito tramite lo strumento di benchmarking gRPC ghz (https://github.com/bojand/ghz). Configurazione IBM Machine Type 3931: Ubuntu 22.04 in un LPAR con 6 IFL dedicati, 128 GB di memoria. Configurazione x86: Ubuntu 22.04 su 2x 24 CPU Ice Lake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading attivato, 1 TB di memoria.
5 DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni di IBM che utilizzano un modello Random Forest con backend Snap ML v1.12.0 che utilizza Integrated Accelerator for AI su IBM Machine Type 3931 rispetto a un backend NVIDIA Forest Inference Library (https://github.com/triton-inference-server/fil_backend) su un computer comparato x86 Server. Il modello è stato addestrato sul seguente set di dati pubblici: https://www.kaggle.com/c/santander-customer-transaction-prediction. NVIDIA Triton™ (https://github.com/triton-inference-server/server) è stato utilizzato su entrambe le piattaforme come framework per la gestione dei modelli. Il workload è stato gestito tramite lo strumento di benchmarking http Hey (https://github.com/rakyll/hey). Configurazione IBM Machine Type 3931: Ubuntu 22.04 in un LPAR con 6 IFL dedicati, 256 GB di memoria. Configurazione x86: Ubuntu 22.04 su 6 CPU Ice Lake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading attivato, 1 TB di memoria.