Inicio
Computación y servidores
LinuxONE
El acelerador de IA integrado es una característica del procesador IBM® Telum. Es una unidad de procesamiento en chip que es coherente con la memoria y está directamente conectada a la estructura como cualquier otro núcleo de uso general. Aumenta el rendimiento de la inferencia de IA al minimizar la latencia entre la IA y los datos a través de la colocación.
El chip IBM Telum, diseñado para sistemas IBM® Z y LinuxONE, cuenta con más del 40 %1 de crecimiento de rendimiento por socket en comparación con IBM® z15. Presenta un acelerador de IA en chip dedicado, lo que garantiza una capacidad de inferencia constante de baja latencia y alto rendimiento. Este acelerador simplifica la orquestación de software y la complejidad de las bibliotecas, mientras que el procesador de IA acelerado transforma la integración de la IA en las empresas, ofreciendo insights en tiempo real con un rendimiento inigualable en entornos de nube híbrida.
En este seminario web se analizará cómo IBM LinuxONE puede ayudarle a desbloquear nuevos casos de uso para la IA en todas las industrias.
IBM está trabajando con el ecosistema IBM LinuxONE para ayudar a los ISV a proporcionar soluciones para los desafíos actuales de IA, sustentabilidad y ciberseguridad.
Explore dos soluciones innovadoras diseñadas para instituciones financieras y de atención médica: Clari5 Enterprise Fraud Management on IBM LinuxONE 4 Express para la prevención de fraudes en tiempo real, y Enso Decision Intelligence Platform de Exponential AI on LinuxONE para soluciones avanzadas de IA a escala.
La solución Clari5 Enterprise Fraud Management on IBM LinuxONE 4 Express dota a las instituciones financieras de un sólido motor de toma de decisiones para la prevención del fraude en tiempo real. Está diseñado para monitorear, detectar e influir en las transacciones, garantizando el cumplimiento y mejorando la productividad, todo mientras ofrece una velocidad y escalabilidad sin precedentes.
Enso Decision Intelligence Platform on LinuxONE de Exponential AI proporciona capacidades de vanguardia para crear, entrenar, orquestar y gestionar soluciones de IA casi en tiempo real a escala. Esta plataforma aborda los desafíos que enfrentan los principales pagadores de seguros de salud nacionales en transacciones complejas, ofreciendo soluciones de automatización inteligente desarrolladas por Exponential AI.
TensorFlow es un marco de aprendizaje automático de código abierto que ofrece un conjunto completo de herramientas para el desarrollo, entrenamiento e inferencia de modelos. Cuenta con un ecosistema rico y robusto, y es compatible con entornos LinuxONE que se ejecutan en Linux.
IBM® SnapML es una biblioteca diseñada para el entrenamiento de alta velocidad y la inferencia de modelos populares de aprendizaje automático. Aprovecha IBM Integrated Accelerator for AI para mejorar el rendimiento de los modelos Random Forest, Extra Trees y Gradient Boosting Machines. Disponible como parte del kit de herramientas de IA para IBM Z and LinuxONE e IBM CloudPak for Data.
Triton Inference Server es un servidor modelo de código abierto desarrollado por Nvidia que admite la inferencia de modelos en dispositivos CPU y GPU. Es ampliamente utilizado en diversas plataformas y arquitecturas, incluyendo s390x (Linux on Z). Específicamente en Linux on Z, Triton puede aprovechar los entornos de IA para usar tanto la arquitectura SIMD como el IBM Integrated Accelerator for AI, optimizando el rendimiento.
IBM® Z Deep Learning Compiler es una potente herramienta que permite a los científicos de datos desarrollar modelos de aprendizaje profundo mediante herramientas y marcos familiares. Luego, estos modelos se pueden desplegar en Linux on IBM Z, donde residen los datos de misión crítica. Este compilador facilita la utilización rápida y fácil del Integrated Accelerator for AI del nuevo procesador Telum por parte de los modelos existentes.
Open Neural Network Exchange (ONNX) es un formato abierto creado para representar modelos de aprendizaje automático. ONNX define un conjunto común de operadores—los componentes básicos de los modelos de aprendizaje automático y aprendizaje profundo— y un formato de archivo común para permitir que los desarrolladores de IA utilicen modelos con una variedad de marcos, herramientas, tiempos de ejecución y compiladores.
1 El procesador IBM Telum en IBM®
z16 ofrece un crecimiento del rendimiento por socket de más del 40 % en comparación con el procesador IBM z15.
EXENCIÓN DE RESPONSABILIDAD: Los resultados se basan en análisis de ingeniería de la capacidad de procesamiento total ofrecida por el procesador IBM Telum y el procesador IBM z15, así como en las relaciones de referencia de rendimiento de grandes sistemas (LSPR) de IBM publicadas en https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. El número de núcleos por socket de procesador accesible para uso general varía según la configuración del sistema. La capacidad total de procesamiento varía según la carga de trabajo, la configuración y los niveles de software.
2 La aceleración de IA en chip está diseñada para sumar hasta 5.8 TFLOPS de potencia de procesamiento compartida por todos los núcleos del chip.
EXENCIÓN DE RESPONSABILIDAD: El resultado es el número teórico máximo de operaciones de punto flotante por segundo (FLOPS) con una precisión de 16 bits que puede ejecutar un único motor de IA en chip. Hay un motor de IA en chip por chip.
3 EXENCIÓN DE RESPONSABILIDAD: Los resultados de rendimiento se extrapolan a partir de pruebas internas de IBM ejecutando operaciones de inferencia local en un LinuxONE Emperor 4 LPAR de IBM con 48 núcleos y 128 GB de memoria en Ubuntu 20.04 (modo SMT) por medio de un modelo de detección de fraudes de tarjetas de crédito sintético (https://github.com/IBM/ai-on-z-fraud-detection) aprovechando Acelerador integrado para IA. La prueba se ejecutó con 8 subprocesos paralelos, cada uno de ellos conectado al primer núcleo de un chip diferente. El comando lscpu se utilizó para identificar la topología core-chip. Se utilizó un tamaño de lote de 128 operaciones de inferencia. Los resultados varían.