IBM Machine Learning for z/OS (MLz) è una soluzione di machine learning aziendale eseguita su IBM Z. Fornisce un'interfaccia utente web (UI), varie API e una dashboard di amministrazione web con una potente suite di strumenti facili da usare per lo sviluppo e l'implementazione di modelli, la gestione degli utenti e l'amministrazione del sistema.
Integra modelli di machine learning e deep learning nelle tue applicazioni z/OS per produrre insight aziendali in tempo reale su larga scala. Importa, implementa e monitora con facilità i modelli per ottenere valore da ogni transazione e promuovere nuovi obiettivi per la tua azienda mantenendo al contempo operativi gli SLA.
Per una maggiore flessibilità, Machine Learning for z/OS comprende due edizioni:
Tutte le edizioni IBM MLz possono essere eseguite come soluzione autonoma o essere integrate nella funzionalità AI aziendale come piattaforma scalabile.
Le spiegazioni visualizzate delle inferenze dell'AI sono accessibili in modo nativo in MLz
MLz Core
MLz Enterprise
Massimizza la potenza di IBM z16 e di Telum AIU. Elabora fino a 228.000 transazioni al secondo con carta di credito su CICS z/OS con un tempo di risposta di 6 ms1, ciascuna con un'operazione di inferenza di rilevamento delle frodi all'interno delle transazioni con utilizzo di un modello di deep learning.
Co-localizza le applicazioni con richieste di inferenza per ridurre al minimo i ritardi causati da latenza di rete. Questo offre un tempo di risposta fino a 20 volte inferiore e una velocità di trasmissione fino a 19 volte superiore rispetto all'invio delle stesse richieste di inferenza a un server cloud x86 con latenza media di rete di 60 ms.2
Sfrutta le funzionalità dell'AI affidabile come la spiegabilità e monitora i modelli in tempo reale per il rilevamento della deviazione, della correttezza o dei pregiudizi e la solidità nello sviluppo e nell'implementazione in sicurezza dei modelli di AI su z/OS per workload mission-critical.
Con l'aggiornamento alla versione 3.1, MLz offre maggiore flessibilità ai clienti e ai provider di soluzioni con l'introduzione di due nuove offerte: Enterprise Edition e Core Edition.
Edizione migliorata che offre prestazioni di punteggio migliorate, una nuova versione dei tempo di esecuzione di machine learning Spark e Python e include inoltre uno strumento di configurazione guidato dalla GUI e altro ancora.
Una versione light di WMLz che fornisce i servizi essenziali basati sulle API REST per le operazioni di machine learning, comprese le funzionalità di punteggio online su IBM Z.
Configurazione GUI
Interfaccia utente (per la gestione e l'implementazione di modelli e dashboard di amministrazione)
Database del repository (integrato e Db2 for z/OS)
Modelli AI per la formazione (Jupyter Notebook integrato)
Spark ML runtime
Python ML runtime
Runtime del punteggio di SparkML e PMML
Runtime del punteggio di Python e ONNX
Servizi di inferenza – Interfaccia RESTful
Servizi di inferenza–interfaccia nativa
Assegnazione del punteggio integrata all'interno della transazione (app CICS e IMS)
*I prezzi riportati sono indicativi, possono variare a seconda del paese, non includono eventuali tasse applicabili e sono soggetti alla disponibilità dell'offerta del prodotto in un determinato paese.
Machine Learning for z/OS utilizza tecnologie proprietarie e open source IBM e richiede hardware e software prerequisiti.
Sfrutta il meglio del mainframe e l'innovazione del cloud.
Individua i problemi operativi ed evita incidenti costosi rilevando anomalie sia nei dati di log, sia metrici.
Accedi a una libreria di software open source pertinenti per supportare i workload di AI e apprendimento automatico (ML) di oggi.
Sfrutta un sistema operativo scalabile e ricco di sicurezza per l'esecuzione di applicazioni mission-critical.
Potenzia disponibilità, sicurezza e resilienza, migliorando al contempo prestazioni e risultati aziendali.
Ottieni l'analisi dei dati ad alta velocità per insight in tempo reale sotto il controllo e la sicurezza di IBM Z.
Scopri come l'AI aumenta l'usabilità, migliora le prestazioni operative e mantiene la salute dei sistemi IBM® Db2.
1 DICHIARAZIONE DI NON RESPONSABILITÀ: il risultato delle prestazioni è estrapolato da test interni IBM eseguiti su Workload di transazioni di carte di credito su CICS con operazioni di inferenza su un IBM z16. È stato utilizzato un LPAR z/OS V2R4 configurato con 6 CP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21.0.0.12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection) e l'Integrated Accelerator for AI. La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. Il benchmark è stato eseguito con 48 thread che eseguivano operazioni di inferenza. I risultati rappresentano un IBM z16 completamente configurato con 200 CP e 40 TB di storage. I risultati potrebbero variare.
2 DICHIARAZIONE DI NON RESPONSABILITÀ: I risultati sulle prestazioni sono basati su un workload interno IBM di carte di credito su CICS OLTP con rilevamento delle frodi all'interno delle transazioni in esecuzione su IBM z16. Le misurazioni sono state effettuate con e senza Integrated Accelerator for AI. È stato utilizzato un LPAR z/OS V2R4 configurato con 12 CP, 24 zIIP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21,0,0,12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection). La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. I risultati potrebbero variare.