Inicio

Computación y servidores

LinuxONE

Acelerador integrado para IA en IBM LinuxONE
Inferencia de IA de alto rendimiento colocada junto a sus datos
Lea el blog
Ilustración con plantas que crecen, IA que hace análisis y escudo para la seguridad

El acelerador de IA integrado es una característica del procesador IBM Telum. Se trata de una unidad de procesamiento integrada en el chip, coherente con la memoria y conectada directamente a la estructura como cualquier otro núcleo de propósito general. Aumenta el rendimiento de la inferencia de IA minimizando la latencia entre la IA y los datos mediante la colocación.

El chip IBM Telum, diseñado para sistemas IBM Z y LinuxONE, presenta un aumento del rendimiento por socket superior al 40 %1 en comparación con IBM z15. Introduce un acelerador de IA dedicado en el chip, que garantiza una capacidad de inferencia constante de baja latencia y alto rendimiento. Este acelerador simplifica la orquestación del software y la complejidad de las bibliotecas, mientras que el procesador de IA acelerado transforma la integración de la IA en las empresas, ofreciendo información en tiempo real con un rendimiento inigualable en entornos de nube híbrida.

Libere el crecimiento empresarial con la IA en IBM LinuxONE

Este webinar analiza cómo IBM LinuxONE puede ayudarle a desbloquear nuevos casos de uso de la IA en todos los sectores.

Características Telum es el chip procesador central de la próxima generación de sistemas LinuxONE. Obtenga más información sobre la arquitectura del acelerador de IA de IBM Telum, la microarquitectura, la integración en la pila del sistema, el rendimiento y la potencia. Más información sobre el microprocesador de nueva generación para LinuxONE
Mejorar la información en tiempo real

El acelerador mantiene la coherencia de la memoria y se conecta directamente a la estructura, de forma similar a otros núcleos de propósito general, lo que le permite soportar la inferencia de baja latencia al tiempo que satisface la tasa de transacciones del sistema. Esta capacidad permite a las empresas incorporar información en tiempo real con un rendimiento superior.

Superar los retos de la carga de trabajo de la IA

La integración de la IA en las cargas de trabajo empresariales a menudo encuentra obstáculos debido al bajo rendimiento cuando se ejecuta en plataforma. Sin embargo, el acelerador de IA en chip puede ofrecer un alto rendimiento, con una capacidad de inferencia superior a 200 TFLOPS en un sistema de 32 chips.2

Mejorar el rendimiento de la IA

El chip Telum incluye aceleración de IA en el chip, lo que aumenta la velocidad y la escala de inferencia. En el modelo de detección del fraude de un banco mundial, el acelerador de IA consigue multiplicar por 22 la velocidad de los núcleos de propósito general, con 116 000 inferencias por segundo y una latencia de solo 1,1 ms. El escalado a 32 chips mantiene la baja latencia en 1,2 mseg mientras realiza más de 3,5 millones de inferencias por segundo.3.

Casos de uso Detección del fraude

Afronte el reto de la calificación de transacciones en tiempo real superando la latencia de la red y las limitaciones de escalabilidad asociadas a los motores de calificación fuera de plataforma. Esto puede traducirse en un aumento significativo de la seguridad de las transacciones, con un mayor porcentaje de transacciones protegidas contra el fraude. 

Imágenes médicas

Utilice modelos de visión artificial y deep learning para procesar y validar rápidamente historiales médicos, lo que permite la verificación casi en tiempo real de las reclamaciones de seguros. Este enfoque optimiza la consolidación del núcleo, mejorando la velocidad de procesamiento y la eficiencia.

Aplicaciones ISV

IBM está trabajando con el ecosistema IBM LinuxONE para ayudar a los ISV a proporcionar soluciones para los desafíos actuales de la IA, la sostenibilidad y la ciberseguridad.

Explore dos soluciones innovadoras adaptadas a instituciones financieras y sanitarias: Clari5 Enterprise Fraud Management en IBM LinuxONE 4 Express para la prevención del fraude en tiempo real y Exponential AI's Enso Decision Intelligence Platform en LinuxONE para soluciones avanzadas de IA a escala.

Clari5

La solución Clari5 Enterprise Fraud Management en IBM LinuxONE 4 Express dota a las instituciones financieras de un sólido motor de toma de decisiones para la prevención del fraude en tiempo real. Está diseñada para monitorizar, detectar e influir en las transacciones, lo que garantiza el cumplimiento y mejora la productividad, al tiempo que ofrece una velocidad y escalabilidad sin precedentes.

IA exponencial

La plataforma Enso Decision Intelligence de Exponential AI en LinuxONE proporciona capacidades de vanguardia para construir, entrenar, orquestar y gestionar soluciones de IA casi en tiempo real a escala. Esta plataforma aborda los retos a los que se enfrentan los principales pagadores de seguros sanitarios nacionales en transacciones complejas, ofreciendo soluciones de Automatización Inteligente desarrolladas por Exponential AI.

Software que explota Telum
Potenciar el desarrollo de modelos TensorFlow

TensorFlow es un marco de machine learning de código abierto que ofrece un completo conjunto de herramientas para el desarrollo, el entrenamiento y la inferencia de modelos. Cuenta con un ecosistema rico y sólido y es compatible con entornos LinuxONE que se ejecutan en Linux.

Explore TensorFlow y TensorFlow Serving

Machine learning eficiente IBM SnapML

IBM SnapML es una biblioteca diseñada para el entrenamiento y la inferencia de alta velocidad de modelos de machine learning populares. Aprovecha IBM Integrated Accelerator for AI para mejorar el rendimiento de los modelos Random Forest, Extra Trees y Gradient Boosting Machines. Disponible como parte del kit de herramientas de IA para IBM Z y LinuxONE e IBM CloudPak for Data.

Explore IBM Snap Machine Learning

Optimizar la inferencia Triton Inference Server

El servidor de inferencia Triton es un servidor de modelos de código abierto desarrollado por Nvidia que admite la inferencia de modelos en dispositivos de CPU y GPU. Se utiliza ampliamente en varias plataformas y arquitecturas, incluyendo s390x (Linux en Z). Específicamente en Linux en Z, Triton puede aprovechar los marcos de IA para utilizar tanto la arquitectura SIMD como el Acelerador Integrado de IBM para IA, optimizando el rendimiento.

Explore el servidor de inferencia Triton
Capacitar a la ciencia de datos Compilador de IBM Z Deep Learning

IBM Z Deep Learning Compiler es una herramienta potente que permite a los científicos de datos desarrollar modelos de aprendizaje profundo utilizando herramientas y marcos de trabajo conocidos. Estos modelos pueden implementarse en Linux en IBM Z, donde residen los datos de misión crítica. Este compilador facilita la utilización rápida y sencilla del nuevo acelerador integrado para IA del procesador Telum por parte de los modelos existentes.

Explore IBM Z Deep Learning Compiler
Formato de modelo portátil
Intercambio de redes neuronales abiertas

Open Neural Network Exchange (ONNX) es un formato abierto creado para representar modelos de machine learning. ONNX define un conjunto común de operadores, los componentes básicos de los modelos de machine learning y deep learning, y un formato de archivo común para que los desarrolladores de IA puedan utilizar modelos con diversos marcos, herramientas, tiempos de ejecución y compiladores.

Explore ONNX
Soluciones integradas

Descubra soluciones de integración de IA sin interrupciones adaptadas a los sistemas IBM Z y LinuxONE. 

Rendimiento elevado de IA

El AI Toolkit para IBM Z y LinuxONE incluye una serie de marcos de trabajo de IA de código abierto muy conocidos, respaldados por IBM Elite Support. Está optimizado para utilizar el acelerador integrado IBM Z para IA, lo que mejora significativamente el rendimiento de los programas de IA tanto de código abierto como no garantizados por IBM.

Explore el kit de herramientas de IA para IBM Z y LinuxONE
Optimice las cargas de trabajo de la IA

El paquete de IA para IBM LinuxONE ofrece una infraestructura de hardware de IA dedicada con una pila de software central optimizada. Al aprovechar la potencia del procesador IBM Telum con Integrated Accelerator for AI, las empresas pueden realizar inferencias para cargas de trabajo de gran volumen a escala.

Explore AI Bundle para IBM LinuxONE
Optimizar la gestión de datos:

IBM Cloud Pak for Data es un conjunto modular de componentes de software integrados diseñados para el análisis, la organización y la gestión de datos. Mejora la productividad y reduce la complejidad al ayudar a crear un data fabric que conecta datos aislados distribuidos en un panorama de nube híbrido.

Descubra IBM Cloud Pak for Data Lea el Redbook
Dé el siguiente paso

Obtenga más información sobre la IA en IBM LinuxONE concertando una reunión gratuita de 30 minutos con un representante de IBM LinuxONE.

Comience su viaje hacia la IA en LinuxONE
Más formas de explorar Documentación Soporte IBM Redbooks Soporte y servicios Financiación global Comunidad Comunidad de desarrolladores Partners Recursos
Notas a pie de página

1 El procesador IBM Telum en IBM z16 ofrece más de un 40 % de aumento del rendimiento por socket en comparación con el procesador IBM z15.

DESCARGO DE RESPONSABILIDAD: los resultados se basan en el análisis de ingeniería de la capacidad de procesamiento total ofrecida por el procesador IBM Telum y el procesador IBM z15, así como las relaciones IBM Large System Performance Reference (LSPR) publicadas en:  https://www.ibm.com/support/pages/ibm-z-large-systems-performance-reference. El número de núcleos por socket de procesador accesible para uso general varia según la configuración del sistema. La capacidad total de procesamiento varia en función de la carga de trabajo, la configuración y los niveles de software.

2  La aceleración de IA en chip está diseñada para añadir hasta 5,8 TFLOPS de potencia de procesamiento compartida por todos los núcleos del chip.

DESCARGO DE RESPONSABILIDAD: El resultado es el número teórico máximo de operaciones en coma flotante por segundo (FLOPS) con una precisión de 16 bits que puede ejecutar un único motor de IA en chip. Hay un motor de IA en cada chip.

3 DESCARGO DE RESPONSABILIDAD: El resultado del rendimiento se extrapola a partir de pruebas internas de IBM que ejecutan operaciones de inferencia local en una LPAR IBM LinuxONE Emperor 4 con 48 núcleos y 128 GB de memoria en Ubuntu 20.04 (modo SMT) utilizando un modelo sintético de detección del fraude con tarjetas de crédito (https://github.com/IBM/ai-on-z-fraud-detection) explotando el Acelerador Integrado para IA. La prueba se ejecutó con 8 subprocesos paralelos, cada uno de ellos fijado al primer núcleo de un chip diferente. El comando lscpu se utilizó para identificar la topología núcleo-chip. Se utilizó un tamaño de lote de 128 operaciones de inferencia. Los resultados varían.