AI su IBM LinuxONE

AI integrata, scalabile, con efficienza energetica e sicura
Chip processore Telum II

Prestazioni e innovazione basate sull'AI

L'intelligenza artificiale (AI) sta trasformando qualsiasi settore e le aziende necessitano di un'infrastruttura in grado di gestire i workload dell'AI in modo efficiente e sicuro.

IBM LinuxONE, alimentato dal processore IBM® Telum, integra l'accelerazione AI direttamente nel chip, consentendo l'inferenza in tempo reale di più modelli AI con una latenza minima. Questa funzionalità avanzata, in combinazione con l'AI predittiva e i modelli linguistici di grandi dimensioni, consente alle aziende di analizzare i dati dove si trovano, fornendo insight più rapidi e approfonditi per applicazioni mission-critical come il rilevamento delle frodi, l'analisi del rischio e l'imaging medico.

Insight AI in tempo reale

L'acceleratore AI on-chip consente un'inferenza a bassa latenza, analizzando i dati nel momento in cui si verificano le transazioni. La coerenza della memoria e l'accesso diretto al fabric eliminano i colli di bottiglia per un'esecuzione AI senza interruzioni.

Maggiore produttività dell'AI

L'utilizzo di un singolo acceleratore integrato per l'AI su un workload OLTP su IBM LinuxONE Emperor 5 corrisponde al throughput dell'esecuzione dell'inferenza su un server x86 remoto comparato con 13 core.1

Prestazioni AI accelerate

Con IBM LinuxONE Emperor 5 puoi elaborare fino a 450 miliardi di operazioni di inferenza al giorno, con tempi di risposta di 1 ms, utilizzando un modello di deep learning per il rilevamento delle frodi con carta di credito.2

Scalabilità senza compromessi

Con IBM LinuxONE Emperor 5 puoi elaborare fino a 5 milioni di operazioni di inferenza al secondo con meno di 1 ms di tempo di risposta utilizzando un modello di deep learning per il rilevamento delle frodi con carta di credito.3

AI scalabile per workload complessi

Scheda PCIe Scheda IBM Spyre Accelerator

La scheda IBM Spyre™ Accelerator è un acceleratore AI PCIe Gen 5x da 75 W con 128 GB di memoria LPDDR5, ottimizzato per l'AI generativa e LLM multimodali.8 Dotato di 32 (+2) core con uno scratchpad da 2 MB per core e un utilizzo dei core superiore al 55%, Spyre può essere scalato per scheda e cassetto, consentendo alle aziende di gestire in modo efficiente il processo di inferenza AI in applicazioni aziendali complesse.

Aggiungendo le schede IBM Spyre Accelerator a IBM LinuxONE 5, vengono abilitati ulteriori casi d'uso, inclusa l'AI generativa.

Leggi il blog sull'acceleratore Spyre
Demo: rilevamento delle frodi assicurative in tempo reale con prestazioni elevate su IBM LinuxONE.

Software e soluzioni AI per IBM LinuxONE

Toolkit AI per IBM LinuxONE
Un insieme di framework AI ottimizzati per IBM LinuxONE Integrated Accelerator for AI, con prestazioni migliorate grazie all'IBM Elite Support.
Set di dati sintetici IBM
Una famiglia di set di dati generati artificialmente che migliorano la formazione dei modelli AI e gli LLM, aiutando IBM LinuxONE ad accedere rapidamente a dati ricchi e pertinenti per le iniziative AI nel settore finanziario.
Red Hat OpenShift AI
Una piattaforma aperta per la gestione del ciclo di vita dei modelli di AI predittiva e AI generativa, su larga scala, in ambienti hybrid cloud.
ONNX
Un formato di modello portatile che aumenta la compatibilità tra framework, consentendo agli sviluppatori AI di creare modelli una sola volta e di distribuirli su vari runtime, strumenti e compilatori.
TensorFlow
Un potente framework open source per lo sviluppo, l'addestramento e l'inferenza di modelli, che fornisce un ricco ecosistema ottimizzato per LinuxONE.
IBM SnapML
Progettato per l'addestramento con machine learning ad alta velocità e per l'inferenza, utilizza l'IBM Integrated Accelerator for AI per potenziare le prestazioni dei modelli Random Forest, Extra Trees e Gradient Boosting.
Server di inferenza Triton
Un modello di server open source ottimizzato per Linux on Z che supporta l'inferenza di CPU e GPU utilizzando SIMD e IBM Integrated Accelerator for AI.
IBM Z Deep Learning Compiler
Uno strumento che semplifica l'implementazione del modello di deep learning su IBM Z, consentendo ai data scientist di ottimizzare i modelli AI per gli ambienti mission-critical.

Applicazioni ISV

IBM sta lavorando con IBM LinuxONE Ecosystem per aiutare gli ISV a fornire soluzioni alle moderne sfide in materia di AI, sostenibilità e cybersecurity.

Esplora due soluzioni innovative appositamente progettate per gli istituti finanziari e sanitari: Clari5 Enterprise Fraud Management su IBM LinuxONE 4 Express per la prevenzione delle frodi in tempo reale ed Enso Decision Intelligence Platform di Exponential AI su LinuxONE per soluzioni AI avanzate su larga scala.

Esplora Clari5 Esplora l'AI esponenziale
Prossimi passi

Scopri di più sull'AI con IBM LinuxONE programmando un incontro gratuito di 30 minuti con un rappresentante IBM.

Esplora IBM LinuxONE 5
Blog sull'AI su IBM LinuxONE

Leggi una panoramica su come l'AI su IBM LinuxONE incrementa la crescita aziendale e l'efficienza attraverso insight in tempo reale e prestazioni di livello aziendale. 

Leggi il blog
IBM LinuxONE 5 riceve un enorme impulso all'AI

Leggi il documento di ricerca Cambrian-AI per esplorare la tecnologia in LinuxONE 5 e i casi d'uso dell'AI che dovrebbero essere un buon adattamento per questo server di classe enterprise.

Leggi la ricerca Cambrian-AI
Inizia il tuo viaggio verso l'AI su LinuxONE

Esplora le principali considerazioni per la pianificazione di un caso d'uso dell'AI, scopri cosa è possibile fare con i chip Telum e comprendi i prossimi passi per iniziare.

Inizia con l'AI
Note a piè di pagina

1 DICHIARAZIONE DI NON RESPONSABILITÀ: la prestazione è basata su test interni IBM eseguiti su una macchina hardware IBM Systems tipo 9175. L'applicazione OLTP e PostgreSQL erano implementati sull'hardware IBM Systems. La configurazione AI di Credit Card Fraud Detection (CCFD) è costituita da due modelli (LSTM, TabFormer). Sull'hardware IBM Systems, esecuzione dell'applicazione OLTP con il compiled jar IBM Z Deep Learning Compiler (zDLC) e con IBM Z Accelerated for NVIDIA Triton Inference Server locale ed elaborazione delle operazioni di inferenza AI sui core e sull'Integrated Accelerator for AI rispetto all'esecuzione locale dell'applicazione OLTP e all'elaborazione delle operazioni di inferenza AI remote su un x86 server che esegue NVIDIA Triton Inference Server con runtime OpenVINO backend su CPU (con AMX). Ogni scenario è stato progettato da Apache JMeter 5.6.3 con 64 utenti paralleli. Configurazione hardware di IBM Systems: 1 LPAR che eseguiva Ubuntu 24.04 con 7 core dedicati (SMT), 256 GB di memoria e storage IBM FlashSystem 9500. Gli adattatori di rete erano dedicati per NETH su Linux. Configurazione x86 server: 1 x86 server che eseguiva Ubuntu 24.04 con 28 CPU Emerald Rapid Intel Xeon Gold a 2,20 GHz con Hyper-Threading attivato, 1 TB di memoria, SSD locali, UEFI con profilo di prestazioni massimo abilitato, controllo CPU P-State e C-State disattivati. I risultati sono soggetti a variazioni.

2, 3 DICHIARAZIONE DI NON RESPONSABILITÀ: Il risultato delle prestazioni è estrapolato dai test interni IBM eseguiti su macchina hardware IBM Systems tipo 9175. Il benchmark è stato eseguito con un thread che esegue operazioni di inferenza locale utilizzando un modello sintetico basato su LSTM (modello di rilevamento delle frodi con carta di credito)) per utilizzare l'Integrated Accelerator for AI. La dimensione del batch utilizzato era 160. Configurazione hardware di IBM Systems: 1 LPAR con Red Hat Enterprise Linux 9.4 con 6 core (SMT), 128 GB di memoria. I risultati sono soggetti a variazioni.