AI Toolkit para IBM Z® y LinuxONE es una familia popular de infraestructura de IA de código abierto con IBM Elite Support y adaptada para hardware IBM Z y LinuxONE .
Si bien el software de código abierto ha hecho que la IA sea más accesible, asequible e innovadora, necesita el nivel adecuado de soporte para implementar con éxito estas infraestructuras. Con la introducción de un AI Toolkit para IBM Z y LinuxONE, puede aprovechar nuestra oferta de soporte comprobado para desplegar y acelerar la adopción de infraestructuras populares de IA de código abierto en sus plataformas z/OS® y LinuxONE.
El AI Toolkit está compuesto por IBM Elite Support e IBM Secure Engineering que examinan y escanean las infraestructuras para servicio de IA de código abierto y los contenedores certificados por IBM para detectar vulnerabilidades de seguridad y validar el cumplimiento con las normativas del sector.
Se espera que AI Toolkit para IBM Z y LinuxONE esté disponible de forma general en el cuarto trimestre de 2023.
Aproveche el soporte premium que ofrece IBM Elite Support para obtener orientación experta cuando la necesite a fin de desplegar con éxito la IA de código abierto y el software no garantizado de IBM.
Aproveche IBM Z Integrated Accelerator para IA para mejorar significativamente el rendimiento de los programas de IA de código abierto y no garantizados de IBM.
Aproveche los enfoques de aprendizaje profundo y aprendizaje automático (ML) tradicional para crear y atender infraestructuras de IA.
Reduzca los costos y la complejidad mientras acelera el tiempo de comercialización con herramientas y paquetes de tiempo de ejecución ligeros y de descarga gratuita.
Ofrezca innovación a través del código abierto con el AI Toolkit para IBM Z y LinuxONE.
Las transacciones de moneda digital ejecutan inferencias de fraude un 85% más rápido al ubicar su aplicación con Snap ML en IBM LinuxONE Emperor 4.1
Con IBM z16 de bastidor único, el uso del acelerador integrado para IA proporciona 6.8 veces más rendimiento para inferir datos de imágenes biomédicas con TensorFlow 2.9.1 en comparación con el uso de IBM z16 de bastidor único solo.2
Con IBM z16 de bastidores múltiples y LinuxONE Emperor 4, el uso del acelerador integrado para IA proporciona 2.5 veces más rendimiento para inferir datos de imágenes biomédicas con TensorFlow 2.9.1 en comparación con el sistema x86.3
Ejecute la detección de fraude con tarjetas de crédito con tiempos de respuesta 7 veces menores utilizando el backend ONNX-MLIR para Nvidia Triton en IBM z16 de bastidores múltiples y LinuxONE Emperor 4 en comparación con el uso del backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado.4
Ejecute la predicción de las transacciones de los clientes 3.5 veces más rápido al ubicar su aplicación con la biblioteca Snap ML en IBM z16 de bastidores múltiples y LinuxONE Emperor 4 en lugar de ejecutar la predicción de forma remota utilizando NVIDIA Forest Inference Library en un servidor x86 comparado.5
Acelere la perfecta integración de Tensorflow con IBM Z Accelerated para TensorFlow para desarrollar y desplegar modelos de aprendizaje automático (ML) en redes neuronales.
Utilice IBM Z Accelerated para NVIDIA Triton Inference Server para optimizar y estandarizar las inferencias de IA mediante el despliegue de modelos de ML o DL desde cualquier infraestructura en cualquier infraestructura basada en GPU o CPU.
Aproveche los beneficios de TensorFlow Serving, un sistema de entrega flexible y de alto rendimiento, con IBM Z Accelerated para TensorFlow Serving para ayudar a desplegar modelos de ML en producción.
Convierta los modelos de ML en un código que se pueda ejecutar en z/OS o LinuxONE con la ayuda de IBM Z Deep Learning Compiler (IBM zDLC).
Utilice IBM Z Accelerated para Snap ML para construir y desplegar modelos de ML con Snap ML, una biblioteca de código abierto que optimiza el entrenamiento y la puntuación de modelos populares de ML.
Descubra cómo puede utilizar una solución de IA escalable y consistente para detectar, prevenir y abordar el fraude.
Conozca cómo utilizar aplicaciones de IA no solo para identificar varios patrones de lavado de dinero sino también para evitar que ocurran en tiempo real.
Descubra cómo obtener una precisión del modelo sin concesiones y una latencia muy baja para integrar la inferencia en el procesamiento de transacciones y aplicaciones de servicio de datos donde los tiempos de respuesta rápidos son importantes.
Descubra cómo AI Toolkit puede ayudarle a desplegar sus modelos de IA en z/OS para obtener insights empresariales a escala en tiempo real.
Descubra cómo AI Toolkit proporciona un enfoque “hágalo usted mismo” (DIY) para la creación y el servicio de modelos en Linux® on Z y LinuxONE.
1 EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que realizan inferencias utilizando un modelo Scikit-learn Random Forest con backend Snap ML v1.9.0 (vista previa técnica) en IBM LinuxONE Emperor 4 y con backend Scikit-learn v1.0.2 en un servidor x86 comparado. El modelo se entrenó con el siguiente conjunto de datos públicos https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. BentoML v0.13.1 (https://github.com/bentoml/BentoML) se utilizó en ambas plataformas como infraestructura de servicio de modelos. Configuración de IBM LinuxONE Emperor 4: Ubuntu 20.04 en un LPAR con 2 núcleos dedicados, 256 GB de memoria. Configuración de servidor x86: Ubuntu 20.04 en 9 CPU IceLake Intel® Xeon® Gold 6342 a 2.80 GHz con Hyperthreading activado, 1 TB de memoria.
2 EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que ejecutan TensorFlow 2.9.1 con el complemento IBM-zdnn (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para realizar inferencias de segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se ejecutaron localmente al enviar 30 imágenes a la vez ejecutando TensorFlow 2.9.1 en 5 núcleos en un solo chip en lugar de ejecutarlo en 5 núcleos en un solo chip y usando Integrated Accelerator for AI a través del complemento IBM-zdnn. Configuración de IBM Machine Type 3932: 1 LPAR configurado con 10 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Los resultados pueden variar.
3 EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que ejecutan TensorFlow 2.12.0 con el complemento IBM-zdnn (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para realizar inferencias de segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se ejecutaron de forma remota utilizando el controlador de carga de trabajo wrk (https://github.com/wg/wrk). enviando imágenes individuales contra el servicio de TensorFlow 2.12.0. Configuración de IBM Machine Type 3931: 1 LPAR configurado con 12 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Configuración de servidor x86: Ubuntu 22.04 en 12 CPU Ice Lake Intel® Xeon® Gold a 2.80 GHz con Hyperthreading activado, 1 TB de memoria. Los resultados pueden variar.
4 EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que realizan inferencias utilizando Nvidia Triton con el backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) en IBM Machine Type 3931 en comparación con el backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado. El modelo CCFD se entrenó en un conjunto de datos sintético. Como infraestructura de servicio de modelos se usó NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) en ambas plataformas y se impulsó a través de la herramienta de evaluación comparativa gRPC ghz (https://github.com/bojand/ghz). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en un LPAR con 6 IFL dedicados, 128 GB de memoria. Configuración de servidor x86: Ubuntu 22.04 en 2 x 24 CPU Ice Lake Intel® Xeon® Gold a 2.80 GHz con Hyperthreading activado, 1 TB de memoria.
5 EXENCIÓN DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM que realizan inferencias utilizando un modelo Random Forest con backend Snap ML v1.12.0 que utiliza el Integrated Accelerator for AI en IBM Machine Type 3931 en comparación con el backend NVIDIA Forest Inference Library (https:/ /github.com/triton-inference-server/fil_backend) en un servidor x86 comparado. El modelo se entrenó con el siguiente conjunto de datos públicos https://www.kaggle.com/c/santander-customer-transaction-prediction y NVIDIA Triton™ (https://github.com/triton-inference-server/server) se utilizó en ambas plataformas como infraestructura de servicio de modelos. La carga de trabajo se impulsó a través de la herramienta de evaluación comparativa http Hey (https://github.com/rakyll/hey). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en un LPAR con 6 IFL dedicados, 256 GB de memoria. Configuración de servidor x86: Ubuntu 22.04 en 6 CPU Ice Lake Intel® Xeon® Gold a 2.80 GHz con Hyperthreading activado, 1 TB de memoria.