L'intelligenza artificiale (AI) sta trasformando qualsiasi settore e le aziende necessitano di un'infrastruttura in grado di gestire i workload dell'AI in modo efficiente e sicuro. IBM LinuxONE, alimentato dal processore IBM Telum, integra l'accelerazione dell'AI direttamente nel chip, supportando l'inferenza in tempo reale di più modelli AI con una latenza minima. Questa funzionalità avanzata, in combinazione con l'AI predittiva e i modelli linguistici di grandi dimensioni, consente alle aziende di analizzare i dati dove si trovano, fornendo insight più rapidi e approfonditi per applicazioni mission-critical come il rilevamento delle frodi, l'analisi del rischio e l'imaging medico.
IBM sta lavorando con l'IBM LinuxONE Ecosystem per aiutare gli ISV a fornire soluzioni alle moderne sfide in materia di AI, sostenibilità e cybersecurity.
Esplora due soluzioni innovative appositamente progettate per gli istituti finanziari e sanitari: Clari5 Enterprise Fraud Management su IBM LinuxONE 4 Express per la prevenzione delle frodi in tempo reale ed Enso Decision Intelligence Platform di Exponential AI su LinuxONE per soluzioni AI avanzate su larga scala.
1 DICHIARAZIONE DI NON RESPONSABILITÀ: la prestazione è basata su test interni IBM eseguiti su una macchina hardware IBM Systems tipo 9175. L'applicazione OLTP e PostgreSQL erano implementati sull'hardware IBM Systems. La configurazione AI di Credit Card Fraud Detection (CCFD) è costituita da due modelli (LSTM, TabFormer). Sull'hardware IBM Systems, esecuzione dell'applicazione OLTP con il compiled jar IBM Z Deep Learning Compiler (zDLC) e con IBM Z Accelerated for NVIDIA Triton Inference Server locale ed elaborazione delle operazioni di inferenza AI sui core e sull'Integrated Accelerator for AI rispetto all'esecuzione locale dell'applicazione OLTP e all'elaborazione delle operazioni di inferenza AI remote su un x86 server che esegue NVIDIA Triton Inference Server con runtime OpenVINO backend su CPU (con AMX). Ogni scenario è stato progettato da Apache JMeter 5.6.3 con 64 utenti paralleli. Configurazione hardware di IBM Systems: 1 LPAR che eseguiva Ubuntu 24.04 con 7 core dedicati (SMT), 256 GB di memoria e storage IBM FlashSystem 9500. Gli adattatori di rete erano dedicati per NETH su Linux. Configurazione x86 server: 1 x86 server che eseguiva Ubuntu 24.04 con 28 CPU Emerald Rapid Intel Xeon Gold a 2,20 GHz con Hyper-Threading attivato, 1 TB di memoria, SSD locali, UEFI con profilo di prestazioni massimo abilitato, controllo CPU P-State e C-State disattivati. I risultati sono soggetti a variazioni.
2, 3 DICHIARAZIONE DI NON RESPONSABILITÀ: Il risultato delle prestazioni è estrapolato dai test interni IBM eseguiti su macchina hardware IBM Systems tipo 9175. Il benchmark è stato eseguito con un thread che esegue operazioni di inferenza locale utilizzando un modello sintetico basato su LSTM (modello di rilevamento delle frodi con carta di credito)) per utilizzare l'Integrated Accelerator for AI. La dimensione del batch utilizzato era 160. Configurazione hardware di IBM Systems: 1 LPAR con Red Hat Enterprise Linux 9.4 con 6 core (SMT), 128 GB di memoria. I risultati sono soggetti a variazioni.