Inicio
Computación y servidores
LinuxONE
El acelerador de IA integrado es una característica del procesador IBM Telum. Se trata de una unidad de procesamiento integrada en el chip, coherente con la memoria y conectada directamente a la estructura como cualquier otro núcleo de propósito general. Aumenta el rendimiento de la inferencia de IA minimizando la latencia entre la IA y los datos mediante la colocación.
El chip IBM Telum, diseñado para sistemas IBM Z y LinuxONE, presenta un aumento del rendimiento por socket superior al 40 %1 en comparación con IBM z15. Introduce un acelerador de IA dedicado en el chip, que garantiza una capacidad de inferencia constante de baja latencia y alto rendimiento. Este acelerador simplifica la orquestación del software y la complejidad de las bibliotecas, mientras que el procesador de IA acelerado transforma la integración de la IA en las empresas, ofreciendo información en tiempo real con un rendimiento inigualable en entornos de nube híbrida.
Este webinar analiza cómo IBM LinuxONE puede ayudarle a desbloquear nuevos casos de uso de la IA en todos los sectores.
IBM está trabajando con el ecosistema IBM LinuxONE para ayudar a los ISV a proporcionar soluciones para los desafíos actuales de la IA, la sostenibilidad y la ciberseguridad.
Explore dos soluciones innovadoras adaptadas a instituciones financieras y sanitarias: Clari5 Enterprise Fraud Management en IBM LinuxONE 4 Express para la prevención del fraude en tiempo real y Exponential AI's Enso Decision Intelligence Platform en LinuxONE para soluciones avanzadas de IA a escala.
La solución Clari5 Enterprise Fraud Management en IBM LinuxONE 4 Express dota a las instituciones financieras de un sólido motor de toma de decisiones para la prevención del fraude en tiempo real. Está diseñada para monitorizar, detectar e influir en las transacciones, lo que garantiza el cumplimiento y mejora la productividad, al tiempo que ofrece una velocidad y escalabilidad sin precedentes.
La plataforma Enso Decision Intelligence de Exponential AI en LinuxONE proporciona capacidades de vanguardia para construir, entrenar, orquestar y gestionar soluciones de IA casi en tiempo real a escala. Esta plataforma aborda los retos a los que se enfrentan los principales pagadores de seguros sanitarios nacionales en transacciones complejas, ofreciendo soluciones de Automatización Inteligente desarrolladas por Exponential AI.
TensorFlow es un marco de machine learning de código abierto que ofrece un completo conjunto de herramientas para el desarrollo, el entrenamiento y la inferencia de modelos. Cuenta con un ecosistema rico y sólido y es compatible con entornos LinuxONE que se ejecutan en Linux.
IBM SnapML es una biblioteca diseñada para el entrenamiento y la inferencia de alta velocidad de modelos de machine learning populares. Aprovecha IBM Integrated Accelerator for AI para mejorar el rendimiento de los modelos Random Forest, Extra Trees y Gradient Boosting Machines. Disponible como parte del kit de herramientas de IA para IBM Z y LinuxONE e IBM CloudPak for Data.
El servidor de inferencia Triton es un servidor de modelos de código abierto desarrollado por Nvidia que admite la inferencia de modelos en dispositivos de CPU y GPU. Se utiliza ampliamente en varias plataformas y arquitecturas, incluyendo s390x (Linux en Z). Específicamente en Linux en Z, Triton puede aprovechar los marcos de IA para utilizar tanto la arquitectura SIMD como el Acelerador Integrado de IBM para IA, optimizando el rendimiento.
IBM Z Deep Learning Compiler es una herramienta potente que permite a los científicos de datos desarrollar modelos de aprendizaje profundo utilizando herramientas y marcos de trabajo conocidos. Estos modelos pueden implementarse en Linux en IBM Z, donde residen los datos de misión crítica. Este compilador facilita la utilización rápida y sencilla del nuevo acelerador integrado para IA del procesador Telum por parte de los modelos existentes.
Open Neural Network Exchange (ONNX) es un formato abierto creado para representar modelos de machine learning. ONNX define un conjunto común de operadores, los componentes básicos de los modelos de machine learning y deep learning, y un formato de archivo común para que los desarrolladores de IA puedan utilizar modelos con diversos marcos, herramientas, tiempos de ejecución y compiladores.
1 El procesador IBM Telum en IBM z16 ofrece más de un 40 % de aumento del rendimiento por socket en comparación con el procesador IBM z15.
DESCARGO DE RESPONSABILIDAD: los resultados se basan en el análisis de ingeniería de la capacidad de procesamiento total ofrecida por el procesador IBM Telum y el procesador IBM z15, así como las relaciones IBM Large System Performance Reference (LSPR) publicadas en: https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. El número de núcleos por socket de procesador accesible para uso general varia según la configuración del sistema. La capacidad total de procesamiento varia en función de la carga de trabajo, la configuración y los niveles de software.
2 La aceleración de IA en chip está diseñada para añadir hasta 5,8 TFLOPS de potencia de procesamiento compartida por todos los núcleos del chip.
DESCARGO DE RESPONSABILIDAD: El resultado es el número teórico máximo de operaciones en coma flotante por segundo (FLOPS) con una precisión de 16 bits que puede ejecutar un único motor de IA en chip. Hay un motor de IA en cada chip.
3 DESCARGO DE RESPONSABILIDAD: El resultado del rendimiento se extrapola a partir de pruebas internas de IBM que ejecutan operaciones de inferencia local en una LPAR IBM LinuxONE Emperor 4 con 48 núcleos y 128 GB de memoria en Ubuntu 20.04 (modo SMT) utilizando un modelo sintético de detección del fraude con tarjetas de crédito (https://github.com/IBM/ai-on-z-fraud-detection) explotando el Acelerador Integrado para IA. La prueba se ejecutó con 8 subprocesos paralelos, cada uno de ellos fijado al primer núcleo de un chip diferente. El comando lscpu se utilizó para identificar la topología núcleo-chip. Se utilizó un tamaño de lote de 128 operaciones de inferencia. Los resultados varían.