AI Toolkit para IBM Z y LinuxONE
Utilice el AI Toolkit para liberar todo el potencial de los populares programas de IA de código abierto en sus plataformas IBM Z y LinuxONE
Ilustración de estilo plano que muestra el flujo de trabajo de AI toolkit para IBM Z y IBM LinuxONE

AI Toolkit para IBM Z® y LinuxONE es una familia popular de infraestructura de IA de código abierto con IBM Elite Support y adaptada para hardware IBM Z y LinuxONE .

Si bien el software de código abierto ha hecho que la IA sea más accesible, asequible e innovadora, necesita el nivel adecuado de soporte para implementar con éxito estas infraestructuras. Con la introducción de un AI Toolkit para IBM Z y LinuxONE, puede aprovechar nuestra oferta de soporte comprobado para desplegar y acelerar la adopción de infraestructuras populares de IA de código abierto en sus plataformas z/OS® y LinuxONE.

El AI Toolkit está compuesto por IBM Elite Support e IBM Secure Engineering que examinan y escanean las infraestructuras para servicio de IA de código abierto y los contenedores certificados por IBM para detectar vulnerabilidades de seguridad y validar el cumplimiento con las normativas del sector.

Se espera que AI Toolkit para IBM Z y LinuxONE esté disponible de forma general en el cuarto trimestre de 2023.

Beneficios Despliegue con confianza

Aproveche el soporte premium que ofrece IBM Elite Support para obtener orientación experta cuando la necesite a fin de desplegar con éxito la IA de código abierto y el software no garantizado de IBM.

Mejore el rendimiento

Aproveche IBM Z Integrated Accelerator para IA para mejorar significativamente el rendimiento de los programas de IA de código abierto y no garantizados de IBM.

Utilice infraestructuras de IA

Aproveche los enfoques de aprendizaje profundo y aprendizaje automático (ML) tradicional para crear y atender infraestructuras de IA.

Reduzca los costos y la complejidad

Reduzca los costos y la complejidad mientras acelera el tiempo de comercialización con herramientas y paquetes de tiempo de ejecución ligeros y de descarga gratuita.

Beneficios de rendimiento

Ofrezca innovación a través del código abierto con el AI Toolkit para IBM Z y LinuxONE.

Detección de fraude más rápida

Las transacciones de moneda digital ejecutan inferencias de fraude un 85% más rápido al ubicar su aplicación con Snap ML en IBM LinuxONE Emperor 4.1

Mejorar el rendimiento de imágenes biomédicas

Con IBM z16 de bastidor único, el uso del acelerador integrado para IA proporciona 6.8 veces más rendimiento para inferir datos de imágenes biomédicas con TensorFlow 2.9.1 en comparación con el uso de IBM z16 de bastidor único solo.2

Impulse la inferencia de imágenes biomédicas

Con IBM z16 de bastidores múltiples y LinuxONE Emperor 4, el uso del acelerador integrado para IA proporciona 2.5 veces más rendimiento para inferir datos de imágenes biomédicas con TensorFlow 2.9.1 en comparación con el sistema x86.3

Menores tiempos de respuesta a los fraudes

Ejecute la detección de fraude con tarjetas de crédito con tiempos de respuesta 7 veces menores utilizando el backend ONNX-MLIR para Nvidia Triton en IBM z16 de bastidores múltiples y LinuxONE Emperor 4 en comparación con el uso del backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado.4

Predicción de transacciones de clientes más rápida

Ejecute la predicción de las transacciones de los clientes 3.5 veces más rápido al ubicar su aplicación con la biblioteca Snap ML en IBM z16 de bastidores múltiples y LinuxONE Emperor 4 en lugar de ejecutar la predicción de forma remota utilizando NVIDIA Forest Inference Library en un servidor x86 comparado.5

Características Compatible con Tensorflow

Acelere la perfecta integración de Tensorflow con IBM Z Accelerated para TensorFlow para desarrollar y desplegar modelos de aprendizaje automático (ML) en redes neuronales.

Accelerate TensorFlow Inference
Integración de infraestructuras de IA

Utilice IBM Z Accelerated para NVIDIA Triton Inference Server para optimizar y estandarizar las inferencias de IA mediante el despliegue de modelos de ML o DL desde cualquier infraestructura en cualquier infraestructura basada en GPU o CPU.

Triton Inference Server
Modelos de ML con TensorFlow Serving

Aproveche los beneficios de TensorFlow Serving, un sistema de entrega flexible y de alto rendimiento, con IBM Z Accelerated para TensorFlow Serving para ayudar a desplegar modelos de ML en producción.

TensorFlow Serving
Compile modelos con IBM zDLC

Convierta los modelos de ML en un código que se pueda ejecutar en z/OS o LinuxONE con la ayuda de IBM Z Deep Learning Compiler (IBM zDLC).

Más información sobre IBM zDLC
Ejecute Snap ML

Utilice IBM Z Accelerated para Snap ML para construir y desplegar modelos de ML con Snap ML, una biblioteca de código abierto que optimiza el entrenamiento y la puntuación de modelos populares de ML.

IBM Snap Machine Learning
Casos de uso Procesamiento del lenguaje natural

Combine el poder de la IA con la escalabilidad y seguridad de IBM Z y LinuxONE para procesar y analizar grandes cantidades de datos a fin de proporcionar clasificaciones y predicciones precisas. La inferencia de IA con aceleradores en chip ayuda a ofrecer resultados de PNL en tiempo real.

Detección y prevención de fraudes

Utilice IA con el procesador IBM Telum y el acelerador integrado para monitorear grandes volúmenes de transacciones con baja latencia, adaptarse más dinámicamente a todo tipo de fraude, como el fraude con tarjetas de crédito, y disuadir el fraude en tiempo real.

Lleve la inferencia de aprendizaje profundo a las cargas de trabajo empresariales (1:59)
Luche contra el lavado de dinero (AML)

Entrene los modelos de ML utilizando Scikit-learn o Snap ML para identificar patrones de lavado de dinero mediante el análisis de grandes conjuntos de datos de transacciones financieras. Aproveche el alto rendimiento, la compresión de datos y las capacidades de cifrado de IBM Z y LinuxONE, que son fundamentales para las aplicaciones AML.

Recursos Solución de escenarios de fraude en tiempo real

Descubra cómo puede utilizar una solución de IA escalable y consistente para detectar, prevenir y abordar el fraude.

Solución contra el lavado de dinero

Conozca cómo utilizar aplicaciones de IA no solo para identificar varios patrones de lavado de dinero sino también para evitar que ocurran en tiempo real.

Procesamiento de lenguaje natural e imágenes

Descubra cómo obtener una precisión del modelo sin concesiones y una latencia muy baja para integrar la inferencia en el procesamiento de transacciones y aplicaciones de servicio de datos donde los tiempos de respuesta rápidos son importantes.

Productos relacionados IBM Machine Learning for z/OS

Descubra cómo AI Toolkit puede ayudarle a desplegar sus modelos de IA en z/OS para obtener insights empresariales a escala en tiempo real.

IBM Cloud Pak® para datos en IBM Z

Descubra cómo AI Toolkit proporciona un enfoque “hágalo usted mismo” (DIY) para la creación y el servicio de modelos en Linux® on Z y LinuxONE.

Explore la IA en IBM Z
Dé el siguiente paso

Comience su camino hacia la IA con AI Toolkit para IBM Z y LinuxONE. Programe una llamada individual para obtener las respuestas que necesita para comenzar.

Camino hacia la IA en IBM Z y LinuxONE
Más formas de explorar Documentación Soporte Colaboradores Recursos Comunidad Comunidad de desarrolladores Precios flexibles Financiamiento global Redbooks
Notas de pie de página

EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que realizan inferencias utilizando un modelo Scikit-learn Random Forest con backend Snap ML v1.9.0 (vista previa técnica) en IBM LinuxONE Emperor 4 y con backend Scikit-learn v1.0.2 en un servidor x86 comparado. El modelo se entrenó con el siguiente conjunto de datos públicos https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. BentoML v0.13.1 (https://github.com/bentoml/BentoML) se utilizó en ambas plataformas como infraestructura de servicio de modelos. Configuración de IBM LinuxONE Emperor 4: Ubuntu 20.04 en un LPAR con 2 núcleos dedicados, 256 GB de memoria. Configuración de servidor x86: Ubuntu 20.04 en 9 CPU IceLake Intel® Xeon® Gold 6342 a 2.80 GHz con Hyperthreading activado, 1 TB de memoria.

EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que ejecutan TensorFlow 2.9.1 con el complemento IBM-zdnn (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para realizar inferencias de segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se ejecutaron localmente al enviar 30 imágenes a la vez ejecutando TensorFlow 2.9.1 en 5 núcleos en un solo chip en lugar de ejecutarlo en 5 núcleos en un solo chip y usando Integrated Accelerator for AI a través del complemento IBM-zdnn. Configuración de IBM Machine Type 3932: 1 LPAR configurado con 10 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Los resultados pueden variar.

EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que ejecutan TensorFlow 2.12.0 con el complemento IBM-zdnn (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para realizar inferencias de segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se ejecutaron de forma remota utilizando el controlador de carga de trabajo wrk (https://github.com/wg/wrk). enviando imágenes individuales contra el servicio de TensorFlow 2.12.0. Configuración de IBM Machine Type 3931: 1 LPAR configurado con 12 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Configuración de servidor x86: Ubuntu 22.04 en 12 CPU Ice Lake Intel® Xeon® Gold a 2.80 GHz con Hyperthreading activado, 1 TB de memoria. Los resultados pueden variar.

EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que realizan inferencias utilizando Nvidia Triton con el backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) en IBM Machine Type 3931 en comparación con el backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado. El modelo CCFD se entrenó en un conjunto de datos sintético. Como infraestructura de servicio de modelos se usó NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) en ambas plataformas y se impulsó a través de la herramienta de evaluación comparativa gRPC ghz (https://github.com/bojand/ghz). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en un LPAR con 6 IFL dedicados, 128 GB de memoria. Configuración de servidor x86: Ubuntu 22.04 en 2 x 24 CPU Ice Lake Intel® Xeon® Gold a 2.80 GHz con Hyperthreading activado, 1 TB de memoria.

EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que realizan inferencias utilizando un modelo Random Forest con backend Snap ML v1.12.0 que utiliza el Integrated Accelerator for AI en IBM Machine Type 3931 en comparación con el backend NVIDIA Forest Inference Library (https:/ /github.com/triton-inference-server/fil_backend) en un servidor x86 comparado. El modelo se entrenó con el siguiente conjunto de datos públicos https://www.kaggle.com/c/santander-customer-transaction-prediction y NVIDIA Triton™ (https://github.com/triton-inference-server/server) se utilizó en ambas plataformas como infraestructura de servicio de modelos. La carga de trabajo se impulsó a través de la herramienta de evaluación comparativa http Hey (https://github.com/rakyll/hey). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en un LPAR con 6 IFL dedicados, 256 GB de memoria. Configuración de servidor x86: Ubuntu 22.04 en 6 CPU Ice Lake Intel® Xeon® Gold a 2.80 GHz con Hyperthreading activado, 1 TB de memoria.