AI su IBM LinuxONE

AI integrata, scalabile, con efficienza energetica e sicura
Chip processore Telum II

Prestazioni e innovazione basate sull'AI

L'intelligenza artificiale (AI) sta trasformando qualsiasi settore e le aziende necessitano di un'infrastruttura in grado di gestire i workload dell'AI in modo efficiente e sicuro. IBM LinuxONE, alimentato dal processore IBM Telum, integra l'accelerazione dell'AI direttamente nel chip, supportando l'inferenza in tempo reale di più modelli AI con una latenza minima. Questa funzionalità avanzata, in combinazione con l'AI predittiva e i modelli linguistici di grandi dimensioni, consente alle aziende di analizzare i dati dove si trovano, fornendo insight più rapidi e approfonditi per applicazioni mission-critical come il rilevamento delle frodi, l'analisi del rischio e l'imaging medico.

Leggi il blog di IBM LinuxONE sull'AI
Insight AI in tempo reale

L'acceleratore AI on-chip consente un'inferenza a bassa latenza, analizzando i dati nel momento in cui si verificano le transazioni. La coerenza della memoria e l'accesso diretto al fabric eliminano i colli di bottiglia per un'esecuzione AI senza interruzioni.

Maggiore produttività dell'AI

L'utilizzo di un singolo Integrated Accelerator for AI su un workload OLTP su IBM LinuxONE Emperor 5 corrisponde al throughput dell'esecuzione dell'inferenza su un x86 server remoto comparato con 13 core.1

Prestazioni AI accelerate

Con IBM LinuxONE Emperor 5 puoi elaborare fino a 450 miliardi di operazioni di inferenza al giorno, con tempi di risposta di 1 ms, utilizzando un modello di deep learning per il rilevamento delle frodi con carta di credito.2

Scalabilità senza compromessi

Con IBM LinuxONE Emperor 5 puoi elaborare fino a 5 milioni di operazioni di inferenza al secondo con meno di 1 ms di tempo di risposta utilizzando un modello di deep learning per il rilevamento delle frodi con carta di credito.3

Sblocca il potenziale di una sicurezza e di un'AI leader di settore con IBM LinuxONE: unisciti a noi il 13 maggio alle 10:00 per scoprire le storie di successo del mondo reale e gli insight degli esperti! 

Registrati al webcast

Software e soluzioni AI per IBM LinuxONE

Toolkit AI per IBM LinuxONE
Un insieme di framework AI ottimizzati per IBM LinuxONE Integrated Accelerator for AI, con prestazioni migliorate grazie all'IBM Elite Support.
Set di dati sintetici IBM
Una famiglia di set di dati generati artificialmente che migliorano la formazione dei modelli AI e gli LLM, aiutando IBM LinuxONE ad accedere rapidamente a dati ricchi e pertinenti per le iniziative AI nel settore finanziario.
IBM Cloud Pak for Data
Una piattaforma modulare che semplifica l'organizzazione dei dati e l'implementazione dell'AI, aiutando le aziende a connettere dati in silos in ambienti hybrid cloud.
ONNX
Un formato di modello portatile che aumenta la compatibilità tra framework, consentendo agli sviluppatori AI di creare modelli una sola volta e di distribuirli su vari runtime, strumenti e compilatori.
TensorFlow
Un potente framework open source per lo sviluppo, l'addestramento e l'inferenza di modelli, che fornisce un ricco ecosistema ottimizzato per LinuxONE.
IBM SnapML
Progettato per l'addestramento con machine learning ad alta velocità e per l'inferenza, utilizza l'IBM Integrated Accelerator for AI per potenziare le prestazioni dei modelli Random Forest, Extra Trees e Gradient Boosting.
Server di inferenza Triton
Un modello di server open source ottimizzato per Linux on Z che supporta l'inferenza di CPU e GPU utilizzando SIMD e IBM Integrated Accelerator for AI.
IBM Z Deep Learning Compiler
Uno strumento che semplifica l'implementazione del modello di deep learning su IBM Z, consentendo ai data scientist di ottimizzare i modelli AI per gli ambienti mission-critical.

Applicazioni ISV

IBM sta lavorando con l'IBM LinuxONE Ecosystem per aiutare gli ISV a fornire soluzioni alle moderne sfide in materia di AI, sostenibilità e cybersecurity.

Esplora due soluzioni innovative appositamente progettate per gli istituti finanziari e sanitari: Clari5 Enterprise Fraud Management su IBM LinuxONE 4 Express per la prevenzione delle frodi in tempo reale ed Enso Decision Intelligence Platform di Exponential AI su LinuxONE per soluzioni AI avanzate su larga scala.

Esplora Clari5 Esplora l'AI esponenziale
Prossimi passi

Scopri di più sull'AI con IBM LinuxONE programmando un incontro gratuito di 30 minuti con un rappresentante IBM.

Esplora IBM LinuxONE 5
Note a piè di pagina

1 DICHIARAZIONE DI NON RESPONSABILITÀ: la prestazione è basata su test interni IBM eseguiti su una macchina hardware IBM Systems tipo 9175. L'applicazione OLTP e PostgreSQL erano implementati sull'hardware IBM Systems. La configurazione AI di Credit Card Fraud Detection (CCFD) è costituita da due modelli (LSTM, TabFormer). Sull'hardware IBM Systems, esecuzione dell'applicazione OLTP con il compiled jar IBM Z Deep Learning Compiler (zDLC) e con IBM Z Accelerated for NVIDIA Triton Inference Server locale ed elaborazione delle operazioni di inferenza AI sui core e sull'Integrated Accelerator for AI rispetto all'esecuzione locale dell'applicazione OLTP e all'elaborazione delle operazioni di inferenza AI remote su un x86 server che esegue NVIDIA Triton Inference Server con runtime OpenVINO backend su CPU (con AMX). Ogni scenario è stato progettato da Apache JMeter 5.6.3 con 64 utenti paralleli. Configurazione hardware di IBM Systems: 1 LPAR che eseguiva Ubuntu 24.04 con 7 core dedicati (SMT), 256 GB di memoria e storage IBM FlashSystem 9500. Gli adattatori di rete erano dedicati per NETH su Linux. Configurazione x86 server: 1 x86 server che eseguiva Ubuntu 24.04 con 28 CPU Emerald Rapid Intel Xeon Gold a 2,20 GHz con Hyper-Threading attivato, 1 TB di memoria, SSD locali, UEFI con profilo di prestazioni massimo abilitato, controllo CPU P-State e C-State disattivati. I risultati sono soggetti a variazioni.

2, 3 DICHIARAZIONE DI NON RESPONSABILITÀ: Il risultato delle prestazioni è estrapolato dai test interni IBM eseguiti su macchina hardware IBM Systems tipo 9175. Il benchmark è stato eseguito con un thread che esegue operazioni di inferenza locale utilizzando un modello sintetico basato su LSTM (modello di rilevamento delle frodi con carta di credito)) per utilizzare l'Integrated Accelerator for AI. La dimensione del batch utilizzato era 160. Configurazione hardware di IBM Systems: 1 LPAR con Red Hat Enterprise Linux 9.4 con 6 core (SMT), 128 GB di memoria. I risultati sono soggetti a variazioni.