La inteligencia artificial (IA) está transformando los sectores, y las empresas necesitan una infraestructura capaz de gestionar las cargas de trabajo de IA de manera eficiente y segura. IBM LinuxONE, con tecnología del procesador IBM Telum, integra la aceleración de IA directamente en el chip, lo que permite la inferencia en tiempo real de múltiples modelos de IA con una latencia mínima. Esta capacidad avanzada, combinada con IA predictiva y modelos de lenguaje de gran tamaño, permite a las empresas analizar los datos allí donde se encuentran, lo que proporciona conocimientos más rápidos y profundos para aplicaciones de misión crítica, como la detección avanzada del fraude, el análisis de riesgos y el diagnóstico por imagen.
IBM está trabajando con el ecosistema IBM LinuxONE para ayudar a los ISV a proporcionar soluciones para los retos actuales en materia de IA, sostenibilidad y ciberseguridad.
Explore dos soluciones innovadoras diseñadas para instituciones financieras y sanitarias: Clari5 Enterprise Fraud Management en IBM LinuxONE 4 Express para la prevención del fraude en tiempo real y la plataforma Enso Decision Intelligence de Exponential AI en LinuxONE para soluciones avanzadas de IA a escala.
1 DESCARGO DE RESPONSABILIDAD: Descargo de responsabilidad: Los resultados de rendimiento se basan en pruebas internas de IBM ejecutadas en hardware de IBM Systems del tipo de máquina 9175. La aplicación OLTP y PostgreSQL se implementaron en hardware de IBM Systems. La configuración de IA del conjunto de detección del fraude con tarjetas de crédito (CCFD) consta de dos modelos (LSTM, TabFormer). En hardware IBM Systems, ejecutando la aplicación OLTP con IBM Z Deep Learning Compiler (zDLC) compilado en jar e IBM Z Accelerated for NVIDIA Triton Inference Server localmente, procesando las operaciones de inferencia de IA en núcleos y el Integrated Accelerator for AI, en comparación con ejecutar la aplicación OLTP localmente y procesar las operaciones de inferencia de IA remotas en un servidor x86 que ejecuta NVIDIA Triton Inference Server con el backend de tiempo de ejecución OpenVINO en la CPU (con AMX). Cada escenario se ejecutó desde Apache JMeter 5.6.3 con 64 usuarios paralelos. Configuración del hardware de IBM Systems: 1 LPAR con Ubuntu 24.04 con 7 núcleos dedicados (SMT), 256 GB de memoria y almacenamiento IBM FlashSystem 9500. Los adaptadores de red estaban dedicados a NETH en Linux. Configuración del servidor x86: 1 servidor x86 con Ubuntu 24.04 con 28 CPU Emerald Rapids Intel Xeon Gold a 2,20 GHz con Hyper-Threading activado, 1 TB de memoria, SSD locales, UEFI con perfil de rendimiento máximo habilitado, control de estado P de la CPU y estados C deshabilitados. Los resultados pueden variar.
2, 3 DESCARGO DE RESPONSABILIDAD: El resultado del rendimiento se extrapola a partir de pruebas internas de IBM ejecutadas en hardware de sistemas de IBM del tipo de máquina 9175. La referencia se ejecutó con 1 subproceso que realizaba operaciones de inferencia local utilizando un modelo sintético de detección del fraude con tarjetas de crédito basado en LSTM para explotar el acelerador integrado para IA. Se utilizó un tamaño de lote de 160. Configuración del hardware de IBM Systems: 1 LPAR con Red Hat Enterprise Linux 9.4 con 6 núcleos (SMT) y 128 GB de memoria. Los resultados pueden variar.