IBM Cloud® cuenta con una amplia gama de GPU NVIDIA, como H200 y L40S, que se adaptan mejor a sus necesidades específicas y a sus cargas de trabajo de IA, como el entrenamiento, la inferencia o la afinación. Las GPU son compatibles con una amplia gama de aplicaciones, capacidades y marcos de inferencia de IA generativa, incluidos los modelos de lenguaje de gran tamaño (LLM) y los modelos multimodales (MMM). Ponga en marcha rápidamente su carga de trabajo de IA en función de sus objetivos de ubicación de la carga de trabajo con la habilitación multiplataforma, que incluye IBM Cloud Virtual Servers for VPC, IBM watsonx®, Red Hat® RHEL AI u OpenShift® AI y arquitecturas desplegables.
Las GPU NVIDIA se combinan con procesadores Intel® Xeon® de 4.ª generación en IBM Cloud Virtual Servers for VPC. Existen varias formas de adoptarlas y desplegarlas en función de los requisitos de infraestructura y software.
Las GPU NVIDIA se pueden desplegar a través de instancias en la nube de IBM Cloud Virtual Servers for VPC. IBM Cloud VPC está diseñado para ofrecer una alta resiliencia y seguridad dentro de una red definida por software (SDN), donde los clientes pueden crear nubes privadas aisladas sin renunciar a los beneficios esenciales de la nube pública. Las instancias en la nube con GPU NVIDIA, que también es compatible con imágenes de Red Hat Enterprise Linux AI (RHEL AI), son ideales para clientes con pilas de software altamente especializadas o que requieren un control total sobre su servidor subyacente.
Los clientes que necesitan un control total sobre toda su pila de IA, desde la infraestructura hasta la carga de trabajo, pueden implementar IBM watsonx.ai® en su servidor virtual basado en GPU NVIDIA en IBM Cloud VPC. IBM watsonx.ai es un estudio de desarrollo de IA integral y completo que incluye un kit de herramientas para desarrolladores de IA y una gestión completa del ciclo de vida de la IA para desarrollar servicios de IA y desplegarlos en las aplicaciones que elijan.
Los clientes que desean la libertad de elegir infraestructuras/marcos de IA y, al mismo tiempo, ayudar a garantizar un despliegue rápido y seguro de sus cargas de trabajo de IA pueden utilizar nuestras arquitecturas desplegables de NVIDIA GPUs en IBM Cloud® .
Red Hat OpenShift AI es una plataforma flexible y escalable de inteligencia artificial (IA) y machine learning (ML) que permite a las empresas crear y ofrecer aplicaciones habilitadas para IA a escala en entornos de nube híbrida. Creada con tecnologías de código abierto, OpenShift AI proporciona capacidades fiables y operativamente coherentes para que los equipos experimenten, ofrezcan modelos y entreguen aplicaciones innovadoras.
GPU | vCPU | RAM | Configurar | ||
---|---|---|---|---|---|
GPU NVIDIA H200: para grandes modelos de IA tradicional e IA generativa | 8 X NVIDIA H200 141 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA H100:para grandes modelos de IA tradicional e IA generativa | 8 x NVIDIA H100 80 GB | 160 | 1792 GiB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA A100-PCIe: para modelos de IA tradicionales e IA generativa | 1 x NVIDIA A100 80 GB 2 x NVIDIA A100 80 GB | 24 48 | 120 GB 240 GB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA L40S: para modelos pequeños y medianos | 1 x NVIDIA L40S 48 GB 2 X NVIDIA L40S 48 GB | 24 48 | 120 GB 240 GB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA L4:para modelos de IA pequeños que requieren menos memoria | 1 x NVIDIA L4 24 GB 2 x NVIDIA L4 24 GB 4 x NVIDIA L4 24 GB | 16 32 64 | 80 GB 160 GB 320 GB | Virtual Server for VPC Red Hat OpenShift | |
GPU NVIDIA V100:para empezar con una pequeña huella de IA | 1 X NVIDIA V100 16 GB | 8 | 64 GiB | Virtual Server for VPC Red Hat OpenShift |