O IBM Cloud® oferece uma ampla variedade de GPUs NVIDIA, como as H200 e L40S, para atender às suas necessidades específicas e cargas de trabalho de IA, como treinamento, inferência ou ajuste fino. As GPUs oferecem suporte a uma ampla gama de aplicações de inferência em IA generativa, recursos e frameworks, incluindo grandes modelos de linguagem (LLM) e modelos multimodais (MMM). Leve sua carga de trabalho de IA para produção com agilidade, conforme suas metas de alocação, com suporte multiplataforma que inclui IBM Cloud Virtual Servers para VPC, IBM watsonx®, Red Hat® RHEL AI, OpenShift® AI e arquiteturas implementáveis.
As GPUs NVIDIA são combinadas com os processadores Intel® Xeon® de 4ª geração nos IBM Cloud Virtual Servers for VPC. Há várias maneiras de adotar e implementar com base em seus requisitos de infraestrutura e software.
As GPUs NVIDIA podem ser implementadas através dos IBM Cloud Virtual Servers for VPC para instâncias de nuvem. A IBM Cloud VPC foi projetada para alta resiliência e segurança dentro de uma rede definida por software (SDN), onde os clientes podem criar nuvens privadas isoladas, mantendo os benefícios essenciais da nuvem pública. As instâncias de nuvem da GPU NVIDIA, que também oferece suporte a imagens de IA Red Hat Enterprise Linux (IA RHEL), são ideais para clientes com stacks de software altamente especializadas ou para aqueles que exigem controle total sobre seu servidor subjacente.
Clientes que precisam de controle total sobre toda a sua stack de IA, da infraestrutura à carga de trabalho, podem implementar o IBM watsonx.ai® em seu servidor virtual com GPU NVIDIA no IBM Cloud VPC. O IBM watsonx.ai é um estúdio de desenvolvimento de IA completo, integrado e de ponta a ponta, que oferece um kit de ferramentas para desenvolvedores de IA e gerenciamento completo do ciclo de vida da IA, permitindo criar serviços de IA e implementá-los nas aplicações que você escolher.
Clientes que desejam liberdade para escolher frameworks de IA e, ao mesmo tempo, garantir uma implementação rápida e segura de suas cargas de trabalho de IA, podem utilizar nossas arquiteturas implantáveis de GPUs NVIDIA no IBM Cloud.
O Red Hat OpenShift AI é uma plataforma de inteligência artificial (IA) e aprendizado de máquina (ML) flexível e escalável, que permite às empresas criar e entregar aplicações com IA em larga escala em ambientes de nuvem híbrida. Desenvolvido com tecnologias open source, o OpenShift AI oferece recursos confiáveis e consistentes para que as equipes possam experimentar, disponibilizar modelos e entregar aplicações inovadoras.
GPU | vCPU | RAM | Configurar | ||
---|---|---|---|---|---|
GPU NVIDIA H200 - Para grandes modelos de IA tradicional e IA generativa | 8 X NVIDIA H200 141 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA H100 - Para grandes modelos de IA tradicional e IA generativa | 8 x NVIDIA H100 80 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA A100-PCIe - para modelos de IA tradicional e IA generativa | 1 x NVIDIA A100 80 GB 2 x NVIDIA A100 80 GB | 24 48 | 120 GB 240 GB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA L40S - Para modelos de pequeno a médio porte | 1 x NVIDIA L40S 48 GB 2 X NVIDIA L40S 48 GB | 24 48 | 120 GB 240 GB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA L4 - Para modelos de IA pequenos que exigem menos memória | 1 x NVIDIA L4 24 GB 2 x NVIDIA L4 24 GB 4 x NVIDIA L4 24 GB | 16 32 64 | 80 GB 160 GB 320 GB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA V100 - Para começar com um pequeno passo na IA | 1 X NVIDIA V100 16 GB | 8 | 64 GiB | Virtual Server for VPC Red Hat OpenShift |