Minha IBM Efetue login
IA Toolkit para IBM Z e LinuxONE

IA Toolkit para IBM Z e LinuxONE

Utilize IA Toolkit para liberar todo o potencial de programas populares de IA de código aberto em suas plataformas IBM Z e LinuxONE
Ilustração em estilo simples mostrando o IA Toolkit para fluxo de trabalho IBM Z e IBM LinuxONE

IA Toolkit para IBM Z® e LinuxONE é uma família de estruturas populares de IA de código aberto com IBM Elite Support  e adaptada para hardware IBM Z e LinuxONE.

Embora o software de código aberto tenha tornado a IA mais acessível, barata e inovadora, o nível certo de suporte é necessário para implementar esse estrutura com sucesso. Com a inclusão do IA Toolkit para IBM Z e LinuxONE, você pode aproveitar nossa oferta de suporte comprovada para implementar e acelerar a adoção de estruturas populares de IA de código aberto em suas plataformas z/OS® e LinuxONE.

O IA Toolkit consiste no IBM Elite Support e no IBM Secure Engineering que examina e escaneia estruturas de serviço de IA de código aberto e os contêineres certificados pela IBM em busca de vulnerabilidades de segurança validando a conformidade com os regulamentos do setor.

O IA Toolkit para IBM Z e LinuxONE deve estar disponível no quarto trimestre de 2023.

Benefícios

Benefícios

Implemente com confiança

Aproveite o suporte premium oferecido pelo IBM Elite Support para receber orientação especializada quando precisar, para implementar com êxito IA de código aberto e software sem garantia da IBM.

Melhore o desempenho

Aproveite o IBM Z Integrated Accelerator para IA para melhorar significativamente o desempenho de programas de código aberto e de IA sem garantia da IBM.

Utilize estruturas de IA

Aproveite o deep learning e a abordagem tradicional de ML para criar e servir estruturas de IA.

Reduza custos e complexidade

Reduza custos e complexidade enquanto acelera o tempo de lançamento no mercado com ferramentas e pacotes de tempo de execução leves e gratuitos para download.

Benefícios de desempenho

Ofereça inovação por meio de código aberto com o IA Toolkit para IBM Z e LinuxONE.

Detecção de fraudes mais rápida

As transações em moeda digital executam inferências de fraude 85% mais rápidas ao localizar seu aplicativo com o Snap ML no IBM LinuxONE Emperor 4.1

Melhore o rendimento de imagens biomédicas

O uso do Integrated Accelerator para IA com o IBM z16 single frame, fornece 6,8 vezes mais rendimento para inferência em dados de imagens biomédicas com TensorFlow 2.9.1 em comparação com a utilização do IBM z16 single frame sozinho.2

Aumente a inferência de imagens biomédicas

Com o IBM z16 multi frame e o LinuxONE Emperor 4, o uso do Integrated Accelerator para IA fornece 2,5 vezes mais rendimento para inferência em dados de imagens biomédicas com TensorFlow Serving em comparação com o sistema x86.3

Menores tempos de resposta a fraudes

Execute a detecção de fraude de cartão de crédito com tempos de resposta 7 vezes menores usando o back-end ONNX-MLIR para Nvidia Triton no IBM z16 multi frame e LinuxONE Emperor 4 em vez de usar o back-end ONNX Runtime para Nvidia Triton em um x86 server comparado.4

Previsão de transações do cliente mais rápida

Execute a previsão de transações do cliente 3,5 vezes mais rápido ao localizar seu aplicativo com a biblioteca Snap ML no IBM z16 multi frame e no LinuxONE Emperor 4 em vez de executar a previsão remotamente usando a NVIDIA Forest Inference Library em um x86 server comparado.5

Características

Características

Compatível com TensorFlow

Acelere a integração perfeita do TensorFlow com o IBM Z Accelerated para TensorFlow para desenvolver e implementar modelos de aprendizado de máquina (ML) na rede neural.

Acelere a inferência TensorFlow
Integração com frameworks de IA

Use o IBM Z Accelerated para NVIDIA Triton Inference Server para simplificar e padronizar inferências de IA implementando modelos ML ou DL de qualquer estrutura em qualquer infraestrutura baseada em GPU ou CPU.

Triton Inference Server
Modelos de ML com TensorFlow Serving

Aproveite os benefícios do TensorFlow Serving, um sistema flexível e de alto desempenho, com o IBM Z Accelerated para TensorFlow Serving para ajudar a implementar modelos de ML em produção.

TensorFlow Serving
Compile modelos com IBM zDLC

Converta modelos de ML em um código que pode ser executado em z/OS ou LinuxONE com a ajuda do IBM Z Deep Learning Compiler (IBM zDLC).

Saiba mais sobre o IBM zDLC
Execute o Snap ML

Use o IBM Z Accelerated para Snap ML para construir e implementar modelos com Snap ML, uma biblioteca de código aberto que otimiza o treinamento e a pontuação de modelos de ML populares.

Aprendizado de máquina IBM Snap
Casos de uso

Casos de uso

Processamento de Linguagem Natural

Combine o poder da IA com a escalabilidade e a segurança do IBM Z e do LinuxONE para processar e analisar grandes quantidades de dados e fornecer classificações e previsões precisas. A inferência de IA com aceleradores no chip ajuda a fornecer resultados de PNL em tempo real.

Detecção e prevenção de fraudes

Use IA com processador IBM Telum e acelerador integrado para monitorar grandes volumes de transações com baixa latência, adaptar-se de forma mais dinâmica a todos os tipos de fraude, como por exemplo fraude de cartão de crédito, e impedi-las em tempo real.

Traga inferência de deep learning para carga de trabalho empresarial (1:59)
Prevenção à lavagem de dinheiro (AML)

Treinar modelos de ML usando Scikit-learn ou Snap ML para identificar padrões de lavagem de dinheiro por meio da análise de grandes conjuntos de dados de transações financeiras. Aproveite os recursos de alto desempenho, compactação de dados e criptografia do IBM Z e LinuxONE, que são essenciais para aplicativos AML.

Recursos

Recursos

Solucionando cenários de fraude em tempo real

Descubra como você pode usar uma solução de IA escalável e consistente para detectar, prevenir e lidar com fraudes.

Solucionando a prevenção à lavagem de dinheiro

Veja como usar aplicativos de IA não apenas para identificar vários padrões de lavagem de dinheiro, mas também para evitar que aconteçam em tempo real.

Imagem e processamento de linguagem natural

Descubra como obter precisão de modelo sem comprometimentos e latência muito baixa para integrar inferência em processamento de transações e aplicações de serviço de dados onde tempos de resposta rápidos são importantes.

Produtos relacionados

Produtos relacionados

IBM Machine Learning for z/OS

Saiba como o IA Toolkit pode ajudá-lo a implementar seus modelos de IA no z/OS para obter insights de negócios em tempo real e em escala.

IBM Cloud Pak® for Data no IBM Z

Descubra como o IA Toolkit fornece uma abordagem DIY para criação e veiculação de modelos em Linux® on Z e LinuxONE.

Navegue pela IA no IBM Z
Dê o próximo passo

Comece já sua jornada rumo à IA com o IA Toolkit para IBM Z e LinuxONE. Agende uma chamada individual para tirar as dúvidas necessárias para começar.

Jornada para IA no IBM Z e LinuxONE
Outras maneiras de explorar Documentação Suporte Parceiros Recursos Comunidade Comunidade do desenvolvedor Preços flexíveis Financiamento global Redbooks
Notas de rodapé

AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM fazendo inferência usando um modelo Scikit-learn Random Forest com backend Snap ML v1.9.0 (visualização técnica) no IBM LinuxONE Emperor 4 e com backend Scikit-learn v1.0.2 no x86 server comparado. O modelo foi preparado no seguinte conjunto de dados público https://www.kaggle.com/datasets/ellipticco/elliptic-data-set. BentoML v0.13.1 (https://github.com/bentoml/BentoML) foi utilizado em ambas as plataformas como estrutura de serviço de modelo. Configuração IBM LinuxONE Emperor 4: Ubuntu 20.04 em LPAR com 2 núcleos dedicados, 256 GB de memória. Configuração x86: Ubuntu 20.04 em 9 IceLake Intel® Xeon® Gold 6342 CPU @ 2,80 GHz com Hyperthreading ativado, 1 TB de memória.

AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM executando TensorFlow 2.9.1 com o IBM-zdnn-plugin (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para fazer inferências e segmentação semântica para imagens médicas (https://github.com/karolzak/keras-unet#usage-examples). Os testes foram executados localmente, enviando 30 imagens por vez, executando TensorFlow 2.9.1 em 5 núcleos em um único chip, em vez de executá-lo em 5 núcleos em um único chip e usando o Integrated Accelerator para IA através do plug-in IBM-zdnn. Configuração IBM Machine Type 3932: 1 LPAR configurada com 10 IFLs dedicados, 128 GB de memória, Ubuntu 22.04. Os resultados podem variar.

AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM executando TensorFlow 2.12.0 servindo com o IBM-zdnn-plug-in (https://ibm.github.io/ibm-z-oss-hub/containers/index.html) para fazer inferências e segmentação semântica para imagens médicas (https://github.com/karolzak/keras-unet#usage-examples). Os testes foram executados remotamente usando o driver de carga de trabalho wrk (https://github.com/wg/wrk) enviando imagens únicas para veiculação TensorFlow 2.12.0. Configuração IBM Machine Type 3931: 1 LPAR configurada com 12 IFLs dedicados, 128 GB de memória, Ubuntu 22.04. Configuração x86: Ubuntu 22.04 em 12 Ice Lake Intel® Xeon® Gold CPU @ 2,80 GHz com Hyper-Threading ativado, 1 TB de memória. Os resultados podem variar.

AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM fazendo inferência usando Nvidia Triton com backend ONNX-MLIR (https://github.com/IBM/onnxmlir-triton-backend) em IBM Machine Type 3931 versus usar o backend ONNX Runtime para Nvidia Triton em um x86 server comparado. O modelo CCFD foi preparado em um conjunto de dados sintético. Como estrutura de serviço de modelo NVIDIA Triton 23.05 (https://github.com/triton-inference-server/server) foi usado em ambas as plataformas e conduzido por meio de ferramenta de benchmarking gRPC ghz (https://github.com/bojand/ghz). Configuração IBM Machine Type 3931: Ubuntu 22.04 em LPAR com 6 IFLs dedicados, 128 GB de memória. Configuração x86: Ubuntu 22.04 em 2x 24 Ice Lake Intel® Xeon® Gold CPU @ 2,80 GHz com Hyper-Threading ativado, 1 TB de memória.

AVISO LEGAL: Resultados de desempenho baseados em testes internos da IBM fazendo inferência usando um modelo Random Forest com backend Snap ML v1.12.0 que usa o Integrated Accelerator para IA no IBM Machine Type 3931 versus NVIDIA Forest Inference Library (https://github.com /triton-inference-server/fil_backend) backend no x86 server comparado. O modelo foi preparado no seguinte conjunto de dados público https://www.kaggle.com/c/santander-customer-transaction-prediction e NVIDIA Triton™ (https://github.com/triton-inference-server/server)foi utilizado em ambas as plataformas como estrutura de serviço de modelo. A carga de trabalho foi conduzida através da ferramenta de benchmarking Hey (https://github.com/rakyll/hey). Configuração IBM Machine Type 3931: Ubuntu 22.04 em LPAR com 6 IFLs dedicados, 256 GB de memória. Configuração x86: Ubuntu 22.04 em 6 Ice Lake Intel® Xeon® Gold CPU @ 2,80 GHz com Hyper-Threading ativado, 1 TB de memória.