Toolkit AI per IBM Z e LinuxONE
Usa il toolkit AI per sbloccare tutto il potenziale dei programmi di intelligenza artificiale open source più diffusi per le tue piattaforme IBM Z e LinuxONE
Illustrazione bidimensionale che mostra il toolkit AI per IBM Z e il flusso di lavoro di IBM LinuxONE

Il toolkit AI per IBM® Z e LinuxONE è una famiglia di popolari framework di intelligenza artificiale open source con IBM Elite Support, adattati all'hardware IBM Z e LinuxONE.

Sebbene i software open source abbiano reso l'intelligenza artificiale più accessibile, economica e innovativa, per implementarla correttamente è necessario il giusto livello di assistenza. Con l'introduzione del toolkit AI per IBM Z e LinuxONE, puoi sfruttare la nostra assistenza comprovata per implementare e accelerare l'adozione dei framework AI open source più popolari sulle tue piattaforme z/OS e LinuxONE.

Il toolkit AI è composto da IBM Elite Support e IBM Secure Engineering, che analizzano e scansionano i framework di server AI open source e i container certificati IBM per individuare le vulnerabilità della sicurezza e verificare la conformità alle normative di settore.

Il toolkit AI per IBM Z e LinuxONE dovrebbe essere disponibile al pubblico a partire dal quarto trimestre 2023.

Benefici
Implementa con la massima tranquillità

Sfrutta l'assistenza premium offerta da IBM Elite Support per ricevere una guida esperta ogni volta che ne hai bisogno, in modo da implementare correttamente software AI open source non garantiti da IBM.

Migliori performance

Usa IBM Z Integrated Accelerator for AI per migliorare notevolmente l'efficacia dei programmi di intelligenza artificiale open source non garantiti da IBM.

Usa framework di AI

Sfrutta gli approcci di deep learning e di apprendimento automatico tradizionale per creare e servire framework di AI.

Riduci costi e complessità

Riduci i costi e le complessità e accelera i tempi di immissione sul mercato, con strumenti e pacchetti runtime leggeri e gratuiti da scaricare.

Vantaggi nelle prestazioni

Favorisci l'innovazione attraverso l'open source, con il toolkit AI per IBM Z e LinuxONE.

Rileva le frodi più velocemente

Le transazioni in valuta digitale eseguono l'inferenza per frode a una velocità superiore dell'85% se co-localizzi l'applicazione con Snap ML su IBM LinuxONE Emperor 4.1

Migliora la velocità di trasmissione delle immagini biomediche

Con IBM z16 Single Frame, Integrated Accelerator for AI consente una velocità di trasmissione 6,8 volte superiore per l'inferenza su dati di imaging biomedico con TensorFlow 2.9.1 rispetto al solo IBM z16 single frame.2

Potenzia l'inferenza delle immagini biomediche

Con IBM z16 Multi Frame e LinuxONE Emperor 4, Integrated Accelerator for AI consente una velocità di trasmissione 2,5 volte superiore per l'inferenza su dati di imaging biomedico con server TensorFlow rispetto a un sistema x86.3

Riduci i tempi di reazione alle frodi

Rileva le frodi con carta di credito e reagisci 7 volte più velocemente, utilizzando il backend ONNX-MLIR per Nvidia Triton su IBM z16 multi frame e LinuxONE Emperor 4, anziché il backend ONNX Runtime per Nvidia Triton su x86 Server.4.

Prevedi più velocemente le transazioni dei clienti

Prevedi le transazioni dei clienti 3,5 volte più velocemente, co-localizzando l'applicazione con libreria Snap ML su IBM z16 multi frame e LinuxONE Emperor 4, anziché eseguire la predizione in remoto utilizzando la libreria NVIDIA Forest Inference su un computer x86 Server.5

Funzioni Compatibilità con TensorFlow

Consenti una perfetta integrazione di TensorFlow con IBM Z Accelerated for TensorFlow, per sviluppare e implementare modelli di apprendimento automatico (ML) su reti neurali.

Accelera l'inferenza di TensorFlow
Integrazione dei framework AI

Usa il server di inferenza Triton IBM Z Accelerated for NVIDIA per semplificare e standardizzare le inferenze di AI, implementando modelli di apprendimento automatico (ML) o di deep learning (DL) da qualsiasi framework su qualsiasi infrastruttura basata su GPU o CPU.

Server di inferenza Triton
Modelli di apprendimento automatico con TensorFlow Serving

Sfrutta i vantaggi di TensorFlow Serving, un sistema di server flessibile e ad alte prestazioni, con IBM Z Accelerated for TensorFlow Serving e implementa modelli di apprendimento automatico nella produzione.

TensorFlow Serving
Compila modelli con IBM zDLC

Converti i modelli di apprendimento automatico in un codice eseguibile su z/OS o LinuxONE con l'aiuto di IBM Z Deep Learning Compiler (IBM zDLC).

Scopri di più su IBM zDLC
Esegui Snap ML

Usa IBM Z Accelerated for Snap ML per costruire e implementare modelli di apprendimento automatico con Snap ML, una libreria open source che ottimizza l'addestramento e la valutazione dei più diffusi modelli di apprendimento automatico.

Apprendimento automatico IBM Snap
Casi d’uso Elaborazione del linguaggio naturale

Combina la potenza dell'AI con la scalabilità e la sicurezza di IBM Z e LinuxONE, per elaborare e analizzare grandi quantità di dati, oltre a fornire classificazioni e previsioni accurate. L'inferenza AI con acceleratori su chip aiuta a fornire risultati NLP in tempo reale.

Rilevamento e prevenzione delle frodi

Usa l'intelligenza artificiale con il processore IBM Telum e l'acceleratore integrato per monitorare grandi volumi di transazioni a bassa latenza, reagire in modo più dinamico a tutti i tipi di frode (incluse le frodi con carta di credito) e scoraggiare i truffatori in tempo reale.

Introduci l'inferenza del deep learning nei carichi di lavoro aziendali (1:59)
Antiriciclaggio (AML)

Addestra i modelli di apprendimento automatico Scikit-learn o Snap ML a identificare schemi per il riciclaggio di denaro, analizzando vasti set di dati di transazioni finanziarie. Sfrutta le prestazioni, la compressione dei dati e la crittografia di alto livello di IBM Z e LinuxONE, essenziali per le applicazioni antiriciclaggio.

Risorse Prevenire e reagire alle frodi in tempo reale

Scopri come utilizzare una soluzione di intelligenza artificiale scalabile e coerente per rilevare, prevenire e reagire alle frodi.

Evitare il riciclaggio di denaro

Scopri come utilizzare le applicazioni di AI non solo per identificare vari schemi per il riciclaggio di denaro, ma anche per prevenirli in tempo reale.

Elaborazione di immagini e del linguaggio naturale

Scopri come ottenere modelli sempre accurati e a bassissima latenza per integrare l'inferenza nelle applicazioni di elaborazione delle transazioni e data serving in cui i tempi di risposta sono importanti.

Prodotti correlati IBM Machine Learning for z/OS

Scopri come il toolkit AI può aiutarti a implementare i tuoi modelli di intelligenza artificiale su z/OS per ottenere insight aziendali su larga scala in tempo reale.

IBM® Cloud Pak for Data su IBM Z

Scopri come il toolkit AI offre un approccio fai-da-te alla creazione di modelli e al loro utilizzo su Linux su Z e LinuxONE.

Esplora l'AI su IBM Z
Fai il passo successivo

Inizia il tuo viaggio verso l'intelligenza artificiale con il toolkit AI per IBM Z e LinuxONE. Prenota una consulenza individuale e ottieni tutte le risposte che ti servono per iniziare.

Il tuo viaggio verso l'AI su IBM Z e LinuxONE
Continua a esplorare Documentazione Supporto Partner Risorse Comunità Comunità di sviluppatori Prezzo flessibile Global Financing Redbook
Note a piè di pagina

DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni di IBM che effettuano inferenze utilizzando un modello Scikit-learn Random Forest con backend Snap ML v1.9.0 (anteprima per tecnici) su IBM LinuxONE Emperor 4 e con backend Scikit-learn v1.0.2 su x86 Server. Il modello è stato addestrato sul seguente dataset pubblico: https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. Su entrambe le piattaforme, come framework per la gestione dei modelli è stato utilizzato BentoML v0.13.1 (https://github.com/bentoml/BentoML). Configurazione IBM LinuxONE Emperor 4: Ubuntu 20.04 in un LPAR con 2 core dedicati, 256 GB di memoria. Configurazione x86: Ubuntu 20.04 su 9 CPU IceLake Intel® Xeon® Gold 6342 a 2,80 GHz con Hyper- Threading attivato, 1 TB di memoria.

DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni IBM eseguiti su TensorFlow 2.9.1 con IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) per l'inferenza che effettua la segmentazione semantica delle immagini mediche (https://github.com/karolzak/keras-unet#usage-examples). I test sono stati eseguiti localmente, inviando 30 immagini alla volta ed eseguendo TensorFlow 2.9.1 su 5 core su un singolo chip, anziché eseguendo 5 core su un singolo chip, e utilizzando Integrated Accelerator for AI tramite IBM-zdnn-plugin. Configurazione IBM Machine Type 3932: 1 LPAR configurato con 10 IFL dedicati, 128 GB di memoria, Ubuntu 22.04. I risultati sono soggetti a variazioni.

DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni IBM eseguiti su TensorFlow 2.12.0 con IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) per l'inferenza che effettua la segmentazione semantica delle immagini mediche (https://github.com/karolzak/keras-unet#usage-examples). I test sono stati eseguiti in remoto utilizzando il driver wrk workload (https://github.com/wg/wrk) per l'invio di singole immagini contro il servizio TensorFlow 2.12.0. Configurazione IBM Machine Type 3931: 1 LPAR configurato con 12 IFL dedicati, 128 GB di memoria, Ubuntu 22.04. Configurazione x86: Ubuntu 22.04 su 12 CPU IceLake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading attivato, 1 TB di memoria. I risultati sono soggetti a variazioni.

DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni di IBM che utilizzano Nvidia Triton con il backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) su IBM Machine Type 3931 rispetto all'utilizzo del backend ONNX Runtime per Nvidia Triton su un computer comparato x86 Server. Il modello CCFD è stato addestrato su un set di dati sintetici. Come framework per la gestione dei modelli, su entrambe le piattaforme è stato utilizzato NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server), gestito tramite lo strumento di benchmarking gRPC ghz (https://github.com/bojand/ghz). Configurazione IBM Machine Type 3931: Ubuntu 22.04 in un LPAR con 6 IFL dedicati, 128 GB di memoria. Configurazione x86: Ubuntu 22.04 su 2x 24 CPU Ice Lake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading attivato, 1 TB di memoria.

DICHIARAZIONE DI NON RESPONSABILITÀ: Prestazioni basate su test interni di IBM che utilizzano un modello Random Forest con backend Snap ML v1.12.0 che utilizza Integrated Accelerator for AI su IBM Machine Type 3931 rispetto a un backend NVIDIA Forest Inference Library (https://github.com/triton-inference-server/fil_backend) su un computer comparato x86 Server. Il modello è stato addestrato sul seguente set di dati pubblici: https://www.kaggle.com/c/santander-customer-transaction-prediction. NVIDIA Triton™ (https://github.com/triton-inference-server/server) è stato utilizzato su entrambe le piattaforme come framework per la gestione dei modelli. Il workload è stato gestito tramite lo strumento di benchmarking http Hey (https://github.com/rakyll/hey). Configurazione IBM Machine Type 3931: Ubuntu 22.04 in un LPAR con 6 IFL dedicati, 256 GB di memoria. Configurazione x86: Ubuntu 22.04 su 6 CPU Ice Lake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading attivato, 1 TB di memoria.