IA no IBM LinuxONE

IA integrada que é escalável, eficiente em termos de energia e segura
Chip do processador Telum II

Desempenho e inovação impulsionados por IA

A inteligência artificial (IA) está transformando os setores, e as empresas precisam de uma infraestrutura que possa lidar com as cargas de trabalho de IA de forma eficiente e segura.

O IBM LinuxONE, com tecnologia do processador IBM® Telum, integra a aceleração de IA diretamente no chip, permitindo a inferência em tempo real de múltiplos modelos de IA com latência mínima. Esse recurso avançado — combinado com IA preditiva e modelos de linguagem de larga escala — permite que as empresas analisem dados onde eles estão, fornecendo insights mais rápidos e profundos para aplicações críticas, como detecção avançada de fraudes, análise de riscos e diagnóstico por imagem médica.

Insights de IA em tempo real

O acelerador de IA no chip permite inferência de baixa latência, analisando dados à medida que as transações ocorrem. A coerência da memória e o acesso direto à malha eliminam gargalos para uma execução perfeita da IA.

Maior rendimento da IA

Usar um único acelerador integrado para IA em uma carga de trabalho OLTP no IBM LinuxONE Emperor 5 iguala a taxa de transferência da execução de inferência em um servidor x86 remoto comparável com 13 núcleos.1

Desempenho acelerado de IA

Com o IBM LinuxONE Emperor 5, processe até 450 bilhões de operações de inferência por dia com tempo de resposta de 1 ms usando um modelo de deep learning de detecção de fraudes de cartão de crédito.2

Escalabilidade sem comprometimento

Com o IBM LinuxONE Emperor 5, processe até 5 milhões de operações de inferência por segundo com tempo de resposta inferior a 1 ms usando um modelo de deep learning de detecção de fraudes de cartão de crédito.3

IA escalável para cargas de trabalho complexas

Placa PCIe Placa IBM® Spyre Accelerator

A placa aceleradora IBM Spyre™ é uma unidade de aceleração de IA com consumo de 75 W, compatível com PCIe Gen 5x com 128 GB de memória LPDDR5, otimizada para IA generativa e LLMs multimodais.8 Com 32 (+2) núcleos com um scratchpad de 2 MB por núcleo e uso dos núcleos superior a 55%, o Spyre é escalável por placa e compartimento, para que as empresas lidem com eficiência com inferências complexas da IA em aplicações corporativas.

Adicionando-se as placas IBM Spyre Accelerator ao IBM LinuxONE 5, tornam-se possíveis outros casos de uso, incluindo a IA generativa. 

Leia o artigo sobre o Spyre Accelerator no blog

Softwares e soluções de IA para IBM LinuxONE

AI Toolkit for IBM LinuxONE
Um conjunto selecionado de frameworks de IA otimizados para o IBM LinuxONE Integrated Accelerator for AI, oferecendo desempenho aprimorado com o IBM Elite Support.
IBM Synthetic Data Sets
Uma linha de conjuntos de dados gerados artificialmente que aprimoram o treinamento de modelos de IA e LLMs, ajudando o IBM LinuxONE do setor financeiro a acessar com rapidez dados ricos e relevantes para iniciativas de IA.
IBM Cloud Pak for Data
Uma plataforma modular que otimiza a organização de dados e a implementação da IA, ajudando empresas a conectar dados isolados em ambientes de nuvem híbrida.
ONNX
Um formato de modelo portátil que possibilita a compatibilidade entre frameworks, permitindo que os desenvolvedores de IA criem modelos uma vez e os implementem em vários tempos de execução, ferramentas e compiladores.
TensorFlow
Um avançado framework de código aberto para desenvolvimento, treinamento e inferência de modelos, fornecendo um rico ecossistema otimizado para LinuxONE.
IBM SnapML
Projetado para treinamento e inferência de aprendizado de máquina em alta velocidade, ele aproveita o IBM Integrated Accelerator for IA para aumentar o desempenho dos modelos Random Forest, Extra Trees e Gradient Boosting.
Triton Inference Server
Um servidor de modelos de código aberto otimizado para Linux on Z, compatível com inferência de CPU e GPU e uso do SIMD e do IBM Integrated Accelerator for IA.
IBM Z Deep Learning Compiler
Uma ferramenta que simplifica a implementação de modelos de deep learning no IBM® Z, permitindo que cientistas de dados otimizem modelos de IA para ambientes de missão crítica.

Aplicações de ISVs

A IBM está trabalhando com o ecossistema IBM LinuxONE para ajudar os ISVs a oferecer soluções para os atuais desafios de IA, sustentabilidade e cibersegurança.

Explore duas soluções inovadoras personalizadas para instituições financeiras e de saúde: Clari5 Enterprise Fraud Management on IBM LinuxONE 4 Express para prevenção de fraudes em tempo real e Enso Decision Intelligence Platform on LinuxONE da Exponential AI para soluções avançadas de IA em escala.

Explore o Clari5 Explore a IA exponencial
Dê o próximo passo

Saiba mais sobre IA no IBM LinuxONE agendando uma reunião gratuita de 30 minutos com um representante da IBM.

Explore o IBM LinuxONE 5
Blog sobre IA no IBM LinuxONE

Leia uma visão geral sobre como a IA no IBM LinuxONE impulsiona o crescimento e a eficiência dos negócios por meio de insights em tempo real e desempenho de nível empresarial.

Leia o artigo no blog
O IBM LinuxONE 5 recebe um grande reforço de IA

Leia o estudo da Cambrian-AI para explorar a tecnologia no LinuxONE 5 e os casos de uso de IA que devem se adequar bem a esse servidor de categoria corporativa.

Leia o estudo da Cambrian-AI
Comece sua jornada para a IA no LinuxONE

Explore considerações importantes no planejamento de um caso de uso de IA, saiba o que é possível com os chips Telum e conheça os próximos passos para começar.

Comece a usar a IA
Notas de rodapé

1 Aviso legal: os resultados de desempenho são baseados em testes internos da IBM executados no IBM Systems Hardware do tipo de máquina 9175. A aplicação OLTP e o PostgreSQL foram implementados no IBM Systems Hardware. A configuração de IA em conjunto para detecção de fraudes de cartão de crédito (CCFD) consiste em dois modelos (LSTM e TabFormer). Em IBM Systems Hardware, execução da aplicação OLTP com o arquivo JAR compilado pelo IBM Z Deep Learning Compiler (zDLC) e o IBM Z Accelerated for NVIDIA Triton Inference Server localmente, processando as operações de inferência de IA em núcleos e no Integrated Accelerator for IA, em comparação com a execução da aplicação OLTP localmente e processamento de operações de inferência de IA remotas em um X86 Server executando o NVIDIA Triton Inference Server com backend de tempo de execução OpenVino™ em CPU (com AMX). Cada cenário foi conduzido pelo Apache JMeter™ 5.6.3 com 64 usuários paralelos. Configuração do IBM Systems Hardware: um LPAR executando Ubuntu 24.04 com sete núcleos dedicados (SMT), 256 GB de memória e armazenamento IBM® FlashSystem 9500. Os adaptadores de rede foram dedicados para NETH no Linux. Configuração do X86 Server: um X86 Server executando Ubuntu 24.04 com 28 CPUs Emerald Rapids Intel® Xeon® Gold a 2,20 GHz com Hyper-Threading ativado, 1 TB de memória, SSDs locais, UEFI com perfil de desempenho máximo ativado, CPU P-State Control e C-States desabilitados. Os resultados podem variar.

2, 3 AVISO LEGAL: o resultado de desempenho foi extrapolado a partir de testes internos da IBM, executados em IBM Systems Hardware do tipo de máquina 9175. O benchmark foi executado com um thread realizando operações de inferência local usando um modelo sintético de detecção de fraudes de cartão de crédito baseado em LSTM para explorar o Integrated Accelerator for AI. Foi utilizado um tamanho de lote de 160. Configuração do IBM Systems Hardware: um LPAR executando o Red Hat® Enterprise Linux® 9.4 com seis núcleos (SMT), 128 GB de memória. Os resultados podem variar.