Este kit de herramientas de IA para IBM® Z y LinuxONE reúne los principales marcos de IA de código abierto e IBM® Elite Support, todo ello adaptado a su hardware IBM® Z y LinuxONE.
El software de código abierto ha democratizado el acceso a la IA, haciéndola más asequible e innovadora. Sin embargo, la implantación de estos marcos sigue requiriendo un apoyo adecuado.Con las nuevas herramientas de IA para IBM® Z y LinuxONE, aproveche nuestro soporte probado para implementar y acelerar la adopción de los principales marcos de IA de código abierto en sus plataformas z/OS® y LinuxONE.
El kit de herramientas de IA combina IBM® Elite Support con IBM® Secure Engineering que analizan y aprueban marcos de IA de código abierto, así como contenedores certificados por IBM para vulnerabilidades de seguridad y validación de cumplimiento normativo.
Este kit de herramientas de IA para IBM® Z y LinuxONE debería estar disponible en el cuarto trimestre de 2023.
Aproveche el soporte prémium ofrecido por IBM® Elite Support para obtener orientación experta cuando la necesite para implementar con éxito IA de código abierto y software no garantizado de IBM.
Aproveche IBM® Z Integrated Accelerator for AI para mejorar significativamente el rendimiento de los programas de IA de código abierto y no garantizados por IBM.
Capitalice tanto el aprendizaje profundo como los enfoques tradicionales de machine learning para crear y ofrecer marcos de IA.
Reduzca los costes y la complejidad a la vez que acelera la comercialización con herramientas y paquetes de ejecución ligeros y de descarga gratuita.
Innove a través del código abierto con herramientas de IA para IBM® Z y LinuxONE.
Acelere la detección de fraudes en transacciones de moneda digital en un 85% mediante la coubicación de su aplicación con Snap ML en IBM® LinuxONE Emperor4.1
Cuando se combina con un servidor IBM® z16 de bastidor único, el acelerador de IA integrado ofrece 6,8 veces más rendimiento para inferir datos de imágenes biomédicas con TensorFlow 2.9.1 (en comparación con el uso de un servidor IBM® z16 de bastidor único solo).2
Con IBM® z16 de bastidores múltiples y LinuxONE Emperor 4, el uso del acelerador de IA integrado proporciona 2,5 veces más rendimiento para inferir datos de imágenes biomédicas con el servicio TensorFlow en comparación con un sistema x86.3
Ejecute la detección de fraudes con tarjetas de crédito con tiempos de respuesta 7 veces menores utilizando el backend ONNX-MLIR para Nvidia Triton en IBM® z16 de bastidores múltiples y LinuxONE Emperor 4 en comparación con el uso del backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado.4
Ejecute la predicción de transacciones de los clientes 3,5 veces más rápido ubicando su aplicación con la librería Snap ML en IBM® z16 de múltiples bastidores y LinuxONE Emperor 4 en lugar de ejecutar la predicción de forma remota utilizando la librería NVIDIA Forest Inference en un servidor x86 comparado.5
Acelere la integración perfecta de TensorFlow con IBM® Z Accelerated for TensorFlow para desarrollar e implementar modelos de machine learning (ML) en redes neuronales.
Utilice IBM® Z Accelerated for NVIDIA Triton Inference Server para optimizar y estandarizar las inferencias de IA mediante la implementación de modelos de machine learning o DL de cualquier marco en cualquier infraestructura basada en GPU o CPU.
Aproveche las ventajas de TensorFlow Serving (un sistema de entrega flexible y de alto rendimiento) con IBM® Z Accelerated for TensorFlow Serving para ayudar a implementar modelos de machine learning en producción.
Convierta los modelos de machine learning en un código que pueda ejecutarse en z/OS o LinuxONE con la ayuda de IBM® Z Deep Learning Compiler (IBM zDLC).
Utilice IBM® Z Accelerated for Snap ML para crear e implementar modelos de machine learning con Snap ML, una biblioteca de código abierto que optimiza el entrenamiento y la puntuación de los modelos de machine learning más populares.
Descubra cómo puede utilizar una solución de IA escalable y coherente para detectar, prevenir y abordar el fraude.
Explore cómo utilizar aplicaciones de IA no sólo para identificar diversos patrones de blanqueo de dinero, sino también para evitar que se produzcan en tiempo real.
Descubra cómo obtener una precisión de modelo sin concesiones y una latencia muy baja para integrar la inferencia en aplicaciones de proceso de transacciones y servicio de datos en las que importan los tiempos de respuesta rápidos.
Descubra cómo AI Toolkit puede ayudarle a implementar sus modelos de IA en z/OS para obtener información empresarial en tiempo real a escala.
Descubra cómo AI Toolkit proporciona un enfoque basado en el "hágalo usted mismo" para la creación y el servicio de modelos en Linux en Z y LinuxONE.
1 DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM realizando inferencias utilizando un modelo Scikit-learn Random Forest con backend Snap ML v1.9.0 (avance técnico) en IBM LinuxONE Emperor 4 y con backend Scikit-learn v1.0.2 en servidor x86 comparado. El modelo se entrenó en el siguiente conjunto de datos público https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. Se utilizó BentoML v0.13.1 (https://github.com/bentoml/BentoML) en ambas plataformas como marco servidor del modelo. Configuración de IBM LinuxONE Emperor 4: Ubuntu 20.04 en una LPAR con 2 núcleos dedicados, 256 GB de memoria. Configuración x86: Ubuntu 20.04 en 9 CPU IceLake Intel® Xeon® Gold 6342 a 2,80 GHz con Hyperthreading activado, 1 TB de memoria.
2 DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM ejecutando TensorFlow 2.9.1 con el complemento IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para la inferencia que realiza la segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se realizaron localmente enviando 30 imágenes a la vez ejecutando TensorFlow 2.9.1 en 5 núcleos de un solo chip frente a ejecutarlo en 5 núcleos de un solo chip y utilizando el Integrated Accelerator for AI a través del IBM-zdnn-plugin. Configuración de IBM Machine Type 3932: 1 LPAR configurada con 10 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Los resultados pueden variar.
3 DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM ejecutando TensorFlow 2.12.0 en servicio con el complemento IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para la inferencia que realiza la segmentación semántica para imágenes médicas (https://github.com/karolzak/keras-unet#usage-examples). Las pruebas se ejecutaron de forma remota utilizando el controlador de carga de trabajo wrk (https://github.com/wg/wrk) enviando imágenes individuales contra TensorFlow 2.12.0 serving. Configuración de IBM Machine Type 3931: 1 LPAR configurada con 12 IFL dedicados, 128 GB de memoria, Ubuntu 22.04. Configuración x86: Ubuntu 22.04 en 12 CPU Ice Lake Intel® Xeon® Gold a 2,80 GHz con Hyper-Threading activado, 1 TB de memoria. Los resultados pueden variar.
4 DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM realizando inferencias utilizando Nvidia Triton con el backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) en IBM Machine Type 3931 frente al uso del backend ONNX Runtime para Nvidia Triton en un servidor x86 comparado. El modelo CCFD se entrenó en un conjunto de datos sintéticos. Como marco servidor del modelo se utilizó NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) en ambas plataformas y se controló mediante la herramienta de evaluación comparativa gRPC ghz (https://github.com/bojand/ghz). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en una LPAR con 6 IFL dedicados, 128 GB de memoria. Configuración x86: Ubuntu 22.04 en 2x 24 Ice Lake Intel® Xeon® Gold CPU @ 2.80GHz con Hyper-Threading activado, 1 TB de memoria.
5 DESCARGO DE RESPONSABILIDAD: Resultados de rendimiento basados en pruebas internas de IBM realizando inferencias utilizando un modelo Random Forest con el backend Snap ML v1.12.0 que utiliza el Integrated Accelerator for AI en IBM Machine Type 3931 frente al backend NVIDIA Forest Inference Library (https://github.com/triton-inference-server/fil_backend) en servidor x86 comparado. El modelo se entrenó en el siguiente conjunto de datos público https://www.kaggle.com/c/santander-customer-transaction-prediction y se utilizó NVIDIA Triton™ (https://github.com/triton-inference-server/server) en ambas plataformas como marco servidor del modelo. La carga de trabajo se dirigió a través de la herramienta de evaluación comparativa http Hey (https://github.com/rakyll/hey). Configuración de IBM Machine Type 3931: Ubuntu 22.04 en una LPAR con 6 IFL dedicados, 256 GB de memoria. Configuración x86: Ubuntu 22.04 en 6 CPU Intel® Xeon® Gold Ice Lake a 2,80 GHz con Hyper-Threading activado, 1 TB de memoria.