Machine Learning for IBM z/OS

Accelera gli insight di business su larga scala con l'AI transazionale su IBM z/OS

Illustrazione di una donna che lavora su un laptop

Piattaforma di AI transazionale

Machine learning for IBM z/OS (MLz)è una piattaforma di AI transazionale che funziona in modo nativo su IBM® z/OS. Fornisce un'interfaccia utente web (UI), varie API e un dashboard di amministrazione web dotato di una potente suite di strumenti facili da usare per lo sviluppo e la distribuzione di modelli, la gestione degli utenti e l'amministrazione del sistema.

Ottieni il massimo da Machine Learning for IB® z/OS for Enterprise AI
AI ad alta velocità

Utilizzalo con IBM® z17 e IBM® Telum II per fornire funzionalità di AI transazionale. Elabora fino a 282.000 transazioni con carta di credito CICS z/OS al secondo con un tempo di risposta di 6 ms, ciascuna con un'operazione di inferenza di rilevamento delle frodi all'interno delle transazioni che utilizza un modello di deep learning.1

AI su larga scala

Co-localizza le applicazioni con richieste di inferenza per ridurre al minimo i ritardi causati da latenza di rete. Questa opzione riduce i tempi di risposta fino a 20 volte e aumenta la produttività fino a 19 volte rispetto a un server cloud x86 con una latenza di rete media di 60 ms .

AI affidabile

Sfrutta le funzionalità dell'AI affidabile come la spiegabilità e monitora i modelli in tempo reale per rilevare eventuali deviazioni. Sviluppa e implementa con sicurezza i modelli di AI transazionali su z/OS per le transazioni e i workload mission-critical.

AI transazionale

Importa, implementa e monitora con facilità i modelli per ottenere valore da ogni transazione e promuovere nuovi obiettivi per la tua azienda mantenendo al contempo operativi gli accordi sul livello di servizio (SLA).

Funzioni

La nuova edizione migliorata di ML for IBM z/OS offre prestazioni di scoring ottimizzate, una nuova versione dei tempi di esecuzione di machine learning Spark e Python e include anche uno strumento di configurazione guidato dalla GUI e altro ancora.

 

  • Inferenza in tempo reale: punteggio nelle transazioni tramite interfaccia nativa CICS e WOLA per applicazioni CICS, IMS e BATCH COBOL e interfaccia RESTful
  • Supporto di vari motori: SparkML, Python, PMML, IBM SnapML, Watson Core Time Series
  • Gestione del ciclo di vita dei modelli: interfaccia utente guidata, servizi RESTful
  • Telum II: modelli ONNX e IBM® SnapML
  • AI affidabile: spiegabilità e monitoraggio della deriva
Esplora l'edizione Enterprise
Costruzione collaborativa di modelli in JupyterHub
Un ambiente JupyterHub condiviso permette a più data scientist di costruire e addestrare modelli contemporaneamente sulla piattaforma z/OS, migliorando la collaborazione e la produttività.
Strumenti migliorati per il monitoraggio e la spiegabilità dell'AI
Un monitoraggio migliorato e visualizzazioni più chiare per i risultati di spiegabilità aiutano a garantire che i modelli rimangano aperti, affidabili e facili da interpretare durante l'uso in produzione.
Punteggio multiclasse più veloce con acceleratore AI
MLz supporta la classificazione multiclasse ad alte prestazioni utilizzando l'acceleratore AI on-chip nei sistemi IBM® z Systems tramite Snap ML, migliorando la velocità e l'efficienza dell'inferenza dei modelli.
Ciclo di vita completo del machine learning su IBM z/OS
MLz offre una piattaforma sicura e di livello aziendale per lo sviluppo, la distribuzione e la gestione dei modelli con interfaccia utente, API e Integrazione con i toolkit Spark e Python.

Dettagli tecnici

Machine Learning for IBM z/OS utilizza tecnologie proprietarie IBM e open source e richiede prerequisiti hardware e software.

  • .
  • z17, z16 o z15
  • z/OS 3.2, 3.1 o 2.5
  • IBM 64-Bit SDK for z/OS Java Technology Edition versione 8, 11 o 17
  • IBM WebSphere Application Server for z/OS Liberty versione 22.0.0.9 o successiva
  • Db2 13 per z/OS o versione successiva solo se si sceglie Db2 for z/OS come database dei metadati del repository
 

Prodotti correlati

IBM Z Anomaly Analytics

Individua i problemi operativi ed evita incidenti costosi rilevando anomalie sia nei dati di log, sia metrici.

Python AI Toolkit per IBM z/OS

Accedi a una libreria di software open source pertinenti per supportare i workload di AI e apprendimento automatico (ML) di oggi.

IBM Db2 Analytics Accelerator for z/OS

Ottieni l'analisi dei dati ad alta velocità per insight in tempo reale sotto il controllo e la sicurezza di IBM Z.

IBM Db2 AI for z/OS

Scopri come l'AI aumenta l'usabilità, migliora le prestazioni operative e mantiene lo stato di salute dei sistemi IBM Db2.

Fasi successive

Scopri come il machine learning per IBM z/OS accelera i tuoi insight aziendali su larga scala con l'AI transazionale su IBM z/OS.

Provalo gratuitamente
Continua a esplorare Documentazione Supporto Supporto e servizi per il ciclo di vita Community
Note a piè di pagina

DICHIARAZIONE DI NON RESPONSABILITÀ: i risultati delle prestazioni sono estrapolati da test interni di IBM condotti su una LPAR IBM z17 configurata con 6 CP e 256 GB di memoria, con sistema operativo z/OS 3.1. I test hanno utilizzato un workload CICS OLTP con transazioni di carta di credito con una bassa intensità relativa di nesting, combinata con operazioni di inferenza basate su un modello sintetico di rilevamento delle frodi (disponibile all'indirizzo https://github.com/IBM/ai-on-z-fraud-detection) che utilizza l'acceleratore integrato per AI. Il benchmark è stato creato utilizzando 32 thread che eseguono operazioni di inferenza contemporanee. L'inferenza è stata eseguita utilizzando Machine Learning for IBM® z/OS (v3.2.0) ospitato su un server Liberty (v22.0.0.3). Inoltre, la funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione del batch pari a 8 operazioni di inferenza. I risultati sono soggetti a variazioni.

DICHIARAZIONE DI NON RESPONSABILITÀ: I risultati sulle prestazioni sono basati su un workload interno IBM di carte di credito su CICS OLTP con rilevamento delle frodi all'interno delle transazioni in esecuzione su IBM z16. Le misurazioni sono state effettuate con e senza l'acceleratore integrato per AI. È stato utilizzato un LPAR z/OS V2R4 configurato con 12 CP, 24 zIIP e 256 GB di memoria. L'inferenza è stata eseguita con Machine Learning for z/OS 2,4 in esecuzione su WebSphere Application Server Liberty 21,0,0,12, utilizzando un modello sintetico di rilevamento delle frodi con carta di credito (https://github.com/IBM/ai-on-z-fraud-detection). La funzione di batch del server è stata abilitata su Machine Learning for z/OS con una dimensione di 8 operazioni di inferenza. I risultati potrebbero variare.