IA Toolkit para IBM Z® e LinuxONE é uma família de estruturas populares de IA de código aberto com IBM Elite Support e adaptada para hardware IBM Z e LinuxONE.
Embora o software de código aberto tenha tornado a IA mais acessível, barata e inovadora, o nível certo de suporte é necessário para implementar esse estrutura com sucesso. Com a inclusão do IA Toolkit para IBM Z e LinuxONE, você pode aproveitar nossa oferta de suporte comprovada para implementar e acelerar a adoção de estruturas populares de IA de código aberto em suas plataformas z/OS® e LinuxONE.
O IA Toolkit consiste no IBM Elite Support e no IBM Secure Engineering que examina e escaneia estruturas de serviço de IA de código aberto e os contêineres certificados pela IBM em busca de vulnerabilidades de segurança validando a conformidade com os regulamentos do setor.
O IA Toolkit para IBM Z e LinuxONE deve estar disponível no quarto trimestre de 2023.
Aproveite o suporte premium oferecido pelo IBM Elite Support para receber orientação especializada quando precisar, para implementar com êxito IA de código aberto e software sem garantia da IBM.
Aproveite o IBM Z Integrated Accelerator para IA para melhorar significativamente o desempenho de programas de código aberto e de IA sem garantia da IBM.
Aproveite o deep learning e a abordagem tradicional de ML para criar e servir estruturas de IA.
Reduza custos e complexidade enquanto acelera o tempo de lançamento no mercado com ferramentas e pacotes de tempo de execução leves e gratuitos para download.
Ofereça inovação por meio de código aberto com o IA Toolkit para IBM Z e LinuxONE.
As transações em moeda digital executam inferências de fraude 85% mais rápidas ao localizar seu aplicativo com o Snap ML no IBM LinuxONE Emperor 4.1
O uso do Integrated Accelerator para IA com o IBM z16 single frame, fornece 6,8 vezes mais rendimento para inferência em dados de imagens biomédicas com TensorFlow 2.9.1 em comparação com a utilização do IBM z16 single frame sozinho.2
Com o IBM z16 multi frame e o LinuxONE Emperor 4, o uso do Integrated Accelerator para IA fornece 2,5 vezes mais rendimento para inferência em dados de imagens biomédicas com TensorFlow Serving em comparação com o sistema x86.3
Execute a detecção de fraude de cartão de crédito com tempos de resposta 7 vezes menores usando o back-end ONNX-MLIR para Nvidia Triton no IBM z16 multi frame e LinuxONE Emperor 4 em vez de usar o back-end ONNX Runtime para Nvidia Triton em um x86 server comparado.4
Execute a previsão de transações do cliente 3,5 vezes mais rápido ao localizar seu aplicativo com a biblioteca Snap ML no IBM z16 multi frame e no LinuxONE Emperor 4 em vez de executar a previsão remotamente usando a NVIDIA Forest Inference Library em um x86 server comparado.5
Acelere a integração perfeita do TensorFlow com o IBM Z Accelerated para TensorFlow para desenvolver e implementar modelos de aprendizado de máquina (ML) na rede neural.
Use o IBM Z Accelerated para NVIDIA Triton Inference Server para simplificar e padronizar inferências de IA implementando modelos ML ou DL de qualquer estrutura em qualquer infraestrutura baseada em GPU ou CPU.
Aproveite os benefícios do TensorFlow Serving, um sistema flexível e de alto desempenho, com o IBM Z Accelerated para TensorFlow Serving para ajudar a implementar modelos de ML em produção.
Converta modelos de ML em um código que pode ser executado em z/OS ou LinuxONE com a ajuda do IBM Z Deep Learning Compiler (IBM zDLC).
Use o IBM Z Accelerated para Snap ML para construir e implementar modelos com Snap ML, uma biblioteca de código aberto que otimiza o treinamento e a pontuação de modelos de ML populares.
Descubra como você pode usar uma solução de IA escalável e consistente para detectar, prevenir e lidar com fraudes.
Veja como usar aplicativos de IA não apenas para identificar vários padrões de lavagem de dinheiro, mas também para evitar que aconteçam em tempo real.
Descubra como obter precisão de modelo sem comprometimentos e latência muito baixa para integrar inferência em processamento de transações e aplicações de serviço de dados onde tempos de resposta rápidos são importantes.
Saiba como o IA Toolkit pode ajudá-lo a implementar seus modelos de IA no z/OS para obter insights de negócios em tempo real e em escala.
Descubra como o IA Toolkit fornece uma abordagem DIY para criação e veiculação de modelos em Linux® on Z e LinuxONE.
1 AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM fazendo inferência usando um modelo Scikit-learn Random Forest com backend Snap ML v1.9.0 (visualização técnica) no IBM LinuxONE Emperor 4 e com backend Scikit-learn v1.0.2 no x86 server comparado. O modelo foi preparado no seguinte conjunto de dados público https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. BentoML v0.13.1 (https://github.com/bentoml/BentoML) foi utilizado em ambas as plataformas como estrutura de serviço de modelo. Configuração IBM LinuxONE Emperor 4: Ubuntu 20.04 em LPAR com 2 núcleos dedicados, 256 GB de memória. Configuração x86: Ubuntu 20.04 em 9 IceLake Intel® Xeon® Gold 6342 CPU @ 2,80 GHz com Hyperthreading ativado, 1 TB de memória.
2 AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM executando TensorFlow 2.9.1 com o IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para fazer inferências e segmentação semântica para imagens médicas (https://github.com/karolzak/keras-unet#usage-examples). Os testes foram executados localmente, enviando 30 imagens por vez, executando TensorFlow 2.9.1 em 5 núcleos em um único chip, em vez de executá-lo em 5 núcleos em um único chip e usando o Integrated Accelerator para IA através do plug-in IBM-zdnn. Configuração IBM Machine Type 3932: 1 LPAR configurada com 10 IFLs dedicados, 128 GB de memória, Ubuntu 22.04. Os resultados podem variar.
3 AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM executando TensorFlow 2.12.0 servindo com o IBM-zdnn-plug-in (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para fazer inferências e segmentação semântica para imagens médicas (https://github.com/karolzak/keras-unet#usage-examples). Os testes foram executados remotamente usando o driver de carga de trabalho wrk (https://github.com/wg/wrk) enviando imagens únicas para veiculação TensorFlow 2.12.0. Configuração IBM Machine Type 3931: 1 LPAR configurada com 12 IFLs dedicados, 128 GB de memória, Ubuntu 22.04. Configuração x86: Ubuntu 22.04 em 12 Ice Lake Intel® Xeon® Gold CPU @ 2,80 GHz com Hyper-Threading ativado, 1 TB de memória. Os resultados podem variar.
4 AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM fazendo inferência usando Nvidia Triton com backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) em IBM Machine Type 3931 versus usar o backend ONNX Runtime para Nvidia Triton em um x86 server comparado. O modelo CCFD foi preparado em um conjunto de dados sintético. Como estrutura de serviço de modelo NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) foi usado em ambas as plataformas e conduzido por meio de ferramenta de benchmarking gRPC ghz (https://github.com/bojand/ghz). Configuração IBM Machine Type 3931: Ubuntu 22.04 em LPAR com 6 IFLs dedicados, 128 GB de memória. Configuração x86: Ubuntu 22.04 em 2x 24 Ice Lake Intel® Xeon® Gold CPU @ 2,80 GHz com Hyper-Threading ativado, 1 TB de memória.
5 AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM fazendo inferência usando um modelo Random Forest com backend Snap ML v1.12.0 que usa o Integrated Accelerator para IA no IBM Machine Type 3931 versus NVIDIA Forest Inference Library (https://github.com /triton-inference-server/fil_backend) backend no x86 server comparado. O modelo foi preparado no seguinte conjunto de dados público https://www.kaggle.com/c/santander-customer-transaction-prediction e NVIDIA Triton™ (https://github.com/triton-inference-server/server)foi utilizado em ambas as plataformas como estrutura de serviço de modelo. A carga de trabalho foi conduzida através da ferramenta de benchmarking Hey (https://github.com/rakyll/hey). Configuração IBM Machine Type 3931: Ubuntu 22.04 em LPAR com 6 IFLs dedicados, 256 GB de memória. Configuração x86: Ubuntu 22.04 em 6 Ice Lake Intel® Xeon® Gold CPU @ 2,80 GHz com Hyper-Threading ativado, 1 TB de memória.