Machine Learning for IBM z/OS
Implementa i tuoi modelli AI su z/OS per insight aziendali in tempo reale su larga scala
Provalo gratis
Rappresentazione astratta delle forme angolari geometriche

IBM Machine Learning for z/OS (MLz) è una soluzione di machine learning aziendale eseguita su IBM Z. Fornisce un'interfaccia utente web (UI), varie API e una dashboard di amministrazione web con una potente suite di strumenti facili da usare per lo sviluppo e l'implementazione di modelli, la gestione degli utenti e l'amministrazione del sistema.

Integra modelli di machine learning e deep learning nelle tue applicazioni z/OS per produrre insight aziendali in tempo reale su larga scala. Importa, implementa e monitora con facilità i modelli per ottenere valore da ogni transazione e promuovere nuovi obiettivi per la tua azienda mantenendo al contempo operativi gli SLA.

Per una maggiore flessibilità, Machine Learning for z/OS comprende due edizioni: 

  • IBM Machine Learning for IBM z/OS Enterprise Edition: offre numerosi miglioramenti in termini di usabilità come prestazioni di punteggio migliorate, nuove versioni dei runtime di machine learning Spark e Python e include inoltre uno strumento di configurazione guidato dalla GUI e altro ancora.
  • IBM Machine Learning for IBM z/OS Core Edition: una versione light di WMLz che fornisce i servizi essenziali basati sulle API REST per le operazioni di machine learning, incluse le funzionalità di punteggio online su  IBM Z.

Tutte le edizioni IBM MLz possono essere eseguite come soluzione autonoma o essere integrate nella funzionalità AI aziendale come piattaforma scalabile.

Novità

Le spiegazioni visualizzate delle inferenze dell'AI sono accessibili in modo nativo in MLz

MLz Core

MLz Enterprise

Benefici AI ad alta velocità

Massimizza la potenza di IBM z16 e di  Telum AIU. Elabora fino a 228.000 transazioni al secondo con carta di credito su CICS z/OS con un tempo di risposta di 6 ms1, ciascuna con un'operazione di inferenza di rilevamento delle frodi all'interno delle transazioni con utilizzo di un modello di deep learning.

AI su larga scala

Co-localizza le applicazioni con richieste di inferenza per ridurre al minimo i ritardi causati da latenza di rete. Questo offre un tempo di risposta fino a 20 volte inferiore e una velocità di trasmissione fino a 19 volte superiore rispetto all'invio delle stesse richieste di inferenza a un server cloud x86 con latenza media di rete di 60 ms.2

AI affidabile

Sfrutta le funzionalità dell'AI affidabile come la spiegabilità e monitora i modelli in tempo reale per il rilevamento della deviazione, della correttezza o dei pregiudizi e la solidità nello sviluppo e nell'implementazione in sicurezza dei modelli di AI su z/OS per workload mission-critical.

Confronta le edizioni

Con l'aggiornamento alla versione 3.1, MLz offre maggiore flessibilità ai clienti e ai provider di soluzioni con l'introduzione di due nuove offerte:  Enterprise Edition e Core Edition.

 

Edizioni Enterprise Edition

Edizione migliorata che offre prestazioni di punteggio migliorate, una nuova versione dei tempo di esecuzione di machine learning Spark e Python e include inoltre uno strumento di configurazione guidato dalla GUI e altro ancora.

Core Edition

Una versione light di WMLz che fornisce i servizi essenziali basati sulle API REST per le operazioni di machine learning, comprese le funzionalità di punteggio online su IBM Z.

Configurazione GUI

Interfaccia utente (per la gestione e l'implementazione di modelli e dashboard di amministrazione)

Database del repository (integrato e Db2 for z/OS)

Modelli AI per la formazione (Jupyter Notebook integrato)

Spark ML runtime

Python ML runtime

Runtime del punteggio di SparkML e PMML

Runtime del punteggio di Python e ONNX

Servizi di inferenza – Interfaccia RESTful

Servizi di inferenza–interfaccia nativa

Assegnazione del punteggio integrata all'interno della transazione (app CICS e IMS)

Dettagli tecnici

Machine Learning for z/OS utilizza tecnologie proprietarie e open source IBM e richiede hardware e software prerequisiti. 

  • Sistema z16, z15, z14, z13 o zEnterprise EC12 
  • z/OS 3.1, 2.5 o 2.4
  • IBM 64-bit SDK for z/OS Java™ Technology Edition versione 8 SR7, 11.0.17 o successiva
  • IBM WebSphere Application Server for z/OS Liberty versione 22.0.0.9 o successiva
  • Db2 12 per z/OS o versione successiva solo se si sceglie Db2 for z/OS come database dei metadati del repository
Prerequisiti Enterprise Edition Prerequisiti Core Edition
Prodotti correlati IBM Z and Cloud Modernization Stack

Sfrutta il meglio del mainframe e l'innovazione del cloud.

IBM Z Anomaly Analytics

Individua i problemi operativi ed evita incidenti costosi rilevando anomalie sia nei dati di log, sia metrici.

Python AI Toolkit per IBM z/OS

Accedi a una libreria di software open source pertinenti per supportare i workload di AI e apprendimento automatico (ML) di oggi.

IBM Z/OS

Sfrutta un sistema operativo scalabile e ricco di sicurezza per l'esecuzione di applicazioni mission-critical.

IBM Db2® 13 for z/OS

Potenzia disponibilità, sicurezza e resilienza, migliorando al contempo prestazioni e risultati aziendali.

IBM Db2 Analytics Accelerator for z/OS

Ottieni l'analisi dei dati ad alta velocità per insight in tempo reale sotto il controllo e la sicurezza di IBM Z.

IBM Db2 AI for z/OS

Scopri come l'AI aumenta l'usabilità, migliora le prestazioni operative e mantiene la salute dei sistemi IBM® Db2.

Fasi successive

Esplora Machine Learning for IBM z/OS. Fissa un appuntamento gratuito di 30 minuti con un rappresentante IBM Z.

Inizia ora
Continua a esplorare Documentazione Supporto IBM Redbooks Supporto e servizi Global Financing Prezzo flessibile Istruzione e formazione Community Community di sviluppatori Partner Risorse
Note a piè di pagina

DICHIARAZIONE DI NON RESPONSABILITÀ: il risultato delle prestazioni è estrapolato da test interni IBM eseguiti su Workload di transazioni di carte di credito su CICS con operazioni di inferenza su un IBM z16. È stato utilizzato un LPAR z/OS V2R4 configurato con 6 CP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21.0.0.12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection) e l'Integrated Accelerator for AI. La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. Il benchmark è stato eseguito con 48 thread che eseguivano operazioni di inferenza. I risultati rappresentano un IBM z16 completamente configurato con 200 CP e 40 TB di storage. I risultati potrebbero variare.

DICHIARAZIONE DI NON RESPONSABILITÀ: I risultati sulle prestazioni sono basati su un workload interno IBM di carte di credito su CICS OLTP con rilevamento delle frodi all'interno delle transazioni in esecuzione su IBM z16. Le misurazioni sono state effettuate con e senza Integrated Accelerator for AI. È stato utilizzato un LPAR z/OS V2R4 configurato con 12 CP, 24 zIIP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21,0,0,12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection). La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. I risultati potrebbero variare.