Kit de herramientas de IA para IBM® Z y LinuxONE
Utilice el kit de herramientas de IA para aprovechar todo el potencial de los programas de IA de código abierto más populares en sus plataformas IBM® Z y LinuxONE.
Ilustración de estilo plano que muestra el flujo de trabajo del conjunto de herramientas de AI toolkit for IBM Z and IBM LinuxONE

Este kit de herramientas de IA para IBM® Z y LinuxONE reúne los principales marcos de IA de código abierto e IBM® Elite Support, todo ello adaptado a su hardware IBM® Z y LinuxONE.

El software de código abierto ha democratizado el acceso a la IA, haciéndola más asequible e innovadora. Sin embargo, la implantación de estos marcos sigue requiriendo un apoyo adecuado.Con las nuevas herramientas de IA para IBM® Z y LinuxONE, aproveche nuestro soporte probado para implementar y acelerar la adopción de los principales marcos de IA de código abierto en sus plataformas z/OS® y LinuxONE.

El kit de herramientas de IA combina IBM® Elite Support con IBM® Secure Engineering que analizan y aprueban marcos de IA de código abierto, así como contenedores certificados por IBM para vulnerabilidades de seguridad y validación de cumplimiento normativo.

Este kit de herramientas de IA para IBM® Z y LinuxONE debería estar disponible en el cuarto trimestre de 2023.

Beneficios Implemente con confianza

Aproveche el soporte prémium ofrecido por IBM® Elite Support para obtener orientación experta cuando la necesite para implementar con éxito IA de código abierto y software no garantizado de IBM.

Mejore el rendimiento

Aproveche IBM® Z Integrated Accelerator for AI para mejorar significativamente el rendimiento de los programas de IA de código abierto y no garantizados por IBM.

Utilice marcos de IA

Capitalice tanto el aprendizaje profundo como los enfoques tradicionales de machine learning para crear y ofrecer marcos de IA.

Reduzca los costes y la complejidad

Reduzca los costes y la complejidad a la vez que acelera la comercialización con herramientas y paquetes de ejecución ligeros y de descarga gratuita.

Ventajas de rendimiento

Innove a través del código abierto con herramientas de IA para IBM® Z y LinuxONE.

Detección más rápida del fraude

Acelere la detección de fraudes en transacciones de moneda digital en un 85% mediante la coubicación de su aplicación con Snap ML en IBM® LinuxONE Emperor4.1

Mejore el rendimiento de las imágenes biomédicas

Cuando se combina con un servidor IBM® z16 de bastidor único, el acelerador de IA integrado ofrece 6,8 veces más rendimiento para inferir datos de imágenes biomédicas con TensorFlow 2.9.1 (en comparación con el uso de un servidor IBM® z16 de bastidor único solo).2

Impulse la inferencia de imágenes biomédicas

Con IBM® z16 de bastidores múltiples y LinuxONE Emperor 4, el uso del acelerador de IA integrado proporciona 2,5 veces más rendimiento para inferir datos de imágenes biomédicas con el servicio TensorFlow en comparación con un sistema x86.3

Menor tiempo de respuesta al fraude

Ejecute la detección de fraudes con tarjetas de crédito con tiempos de respuesta 7 veces menores utilizando el backend ONNX-MLIR para Nvidia Triton en IBM® z16 de bastidores múltiples y LinuxONE Emperor 4 en comparación con el uso del backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado.4

Predicción más rápida de las transacciones de los clientes

Ejecute la predicción de transacciones de los clientes 3,5 veces más rápido ubicando su aplicación con la librería Snap ML en IBM® z16 de múltiples bastidores y LinuxONE Emperor 4 en lugar de ejecutar la predicción de forma remota utilizando la librería NVIDIA Forest Inference en un servidor x86 comparado.5

Características Compatible con TensorFlow

Acelere la integración perfecta de TensorFlow con IBM® Z Accelerated for TensorFlow para desarrollar e implementar modelos de machine learning (ML) en redes neuronales.

Accelerate TensorFlow Inference
Integración de marcos de IA

Utilice IBM® Z Accelerated for NVIDIA Triton Inference Server para optimizar y estandarizar las inferencias de IA mediante la implementación de modelos de machine learning o DL de cualquier marco en cualquier infraestructura basada en GPU o CPU.

Triton Inference Server
Modelos de machine learning con TensorFlow Serving

Aproveche las ventajas de TensorFlow Serving (un sistema de entrega flexible y de alto rendimiento) con IBM® Z Accelerated for TensorFlow Serving para ayudar a implementar modelos de machine learning en producción.

TensorFlow Serving
Compile modelos con IBM® zDLC

Convierta los modelos de machine learning en un código que pueda ejecutarse en z/OS o LinuxONE con la ayuda de IBM® Z Deep Learning Compiler (IBM zDLC).

Más información sobre IBM® zDLC
Ejecute Snap ML

Utilice IBM® Z Accelerated for Snap ML para crear e implementar modelos de machine learning con Snap ML, una biblioteca de código abierto que optimiza el entrenamiento y la puntuación de los modelos de machine learning más populares.

IBM® Snap Machine Learning
Casos prácticos Procesamiento del lenguaje natural

Combine la potencia de la IA con la escalabilidad y la seguridad de IBM® Z y LinuxONE para procesar y analizar grandes cantidades de datos y proporcionar clasificaciones y predicciones precisas. La inferencia de IA con aceleradores en chip ayuda a ofrecer resultados de procesamiento de lenguajes naturales en tiempo real.

Detección y prevención de fraudes

Utilice la IA con el procesador IBM Telum y el acelerador integrado para monitorizar grandes volúmenes de transacciones con baja latencia, adaptarse de forma más dinámica a todos los tipos de fraude, como el de tarjetas de crédito, y disuadir el fraude en tiempo real.

Lleve la inferencia del aprendizaje profundo a las cargas de trabajo empresariales (1:59)
Antiblanqueo de dinero (AML)

Entrene modelos de aprendizaje automático utilizando Scikit-learn o Snap ML para identificar patrones de blanqueo de dinero analizando grandes conjuntos de datos de transacciones financieras. Aproveche las capacidades de alto rendimiento, compresión de datos y cifrado de IBM Z y LinuxONE, esenciales para las aplicaciones AML.

Recursos Resolución de escenarios de fraude en tiempo real

Descubra cómo puede utilizar una solución de IA escalable y coherente para detectar, prevenir y abordar el fraude.

Resolución de la lucha contra el blanqueo de dinero

Explore cómo utilizar aplicaciones de IA no sólo para identificar diversos patrones de blanqueo de dinero, sino también para evitar que se produzcan en tiempo real.

Proceso de imágenes y lenguaje natural

Descubra cómo obtener una precisión de modelo sin concesiones y una latencia muy baja para integrar la inferencia en aplicaciones de proceso de transacciones y servicio de datos en las que importan los tiempos de respuesta rápidos.

Productos relacionados IBM® Machine Learning for z/OS

Descubra cómo AI Toolkit puede ayudarle a implementar sus modelos de IA en z/OS para obtener información empresarial en tiempo real a escala.

IBM Cloud Pak® for Data on IBM Z

Descubra cómo AI Toolkit proporciona un enfoque basado en el "hágalo usted mismo" para la creación y el servicio de modelos en Linux en Z y LinuxONE.

Explore la IA en IBM Z
De el siguiente paso

Comience su transición hacia la IA con AI Toolkit for IBM Z and LinuxONE. Programe una llamada personalizada para obtener las respuestas que necesita para empezar.

Viaje a la IA en IBM Z y LinuxONE
Más opciones para profundizar Documentación Soporte Socios Recursos Comunidad Comunidad de desarrolladores Precios flexibles Financiación global Redbooks
Notas a pie de página

DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM realizando inferencias utilizando un modelo Scikit-learn Random Forest con backend Snap ML v1.9.0 (avance técnico) en IBM LinuxONE Emperor 4 y con backend Scikit-learn v1.0.2 en servidor x86 comparado. El modelo se entrenó en el siguiente conjunto de datos público https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. Se utilizó BentoML v0.13.1 (https://github.com/bentoml/BentoML) en ambas plataformas como marco servidor del modelo. Configuración de IBM LinuxONE Emperor 4: Ubuntu 20.04 en una LPAR con 2 núcleos dedicados, 256 GB de memoria. Configuración x86: Ubuntu 20.04 en 9 CPU IceLake Intel® Xeon® Gold 6342 a 2,80 GHz con Hyperthreading activado, 1 TB de memoria.

DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM ejecutando TensorFlow 2.9.1 con el complemento IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para la inferencia que realiza la segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se realizaron localmente enviando 30 imágenes a la vez ejecutando TensorFlow 2.9.1 en 5 núcleos de un solo chip frente a ejecutarlo en 5 núcleos de un solo chip y utilizando el Integrated Accelerator for AI a través del IBM-zdnn-plugin. Configuración de IBM Machine Type 3932: 1 LPAR configurada con 10 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Los resultados pueden variar.

DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM ejecutando TensorFlow 2.12.0 en servicio con el complemento IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para la inferencia que realiza la segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se ejecutaron de forma remota utilizando el controlador de carga de trabajo wrk (https://github.com/wg/wrk) enviando imágenes individuales contra TensorFlow 2.12.0 serving. Configuración de IBM Machine Type 3931: 1 LPAR configurada con 12 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Configuración x86: Ubuntu 22.04 en 12 CPU Ice Lake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading activado, 1 TB de memoria. Los resultados pueden variar.

DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM realizando inferencias utilizando Nvidia Triton con el backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) en IBM Machine Type 3931 frente al uso del backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado. El modelo CCFD se entrenó en un conjunto de datos sintéticos. Como marco servidor del modelo se utilizó NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) en ambas plataformas y se controló mediante la herramienta de evaluación comparativa gRPC ghz (https://github.com/bojand/ghz). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en una LPAR con 6 IFL dedicados, 128 GB de memoria. Configuración x86: Ubuntu 22.04 en 2x 24 Ice Lake Intel® Xeon® Gold CPU @ 2.80GHz con Hyper-Threading activado, 1 TB de memoria.

DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM realizando inferencias utilizando un modelo Random Forest con el backend Snap ML v1.12.0 que utiliza el Integrated Accelerator for AI en IBM Machine Type 3931 frente al backend NVIDIA Forest Inference Library (https://github.com/triton-inference-server/fil_backend) en servidor x86 comparado. El modelo se entrenó en el siguiente conjunto de datos público https://www.kaggle.com/c/santander-customer-transaction-prediction y se utilizó NVIDIA Triton™ (https://github.com/triton-inference-server/server) en ambas plataformas como marco servidor del modelo. La carga de trabajo se dirigió a través de la herramienta de evaluación comparativa http Hey (https://github.com/rakyll/hey). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en una LPAR con 6 IFL dedicados, 256 GB de memoria. Configuración x86: Ubuntu 22.04 en 6 CPU Intel® Xeon® Gold Ice Lake a 2,80 GHz con Hyper-Threading activado, 1 TB de memoria.