La computación de alto rendimiento (HPC) es una tecnología que utiliza clústeres de potentes procesadores que trabajan en paralelo para procesar conjuntos de datos multidimensionales masivos, también conocidos como big data, y resolver problemas complejos a velocidades extremadamente altas. HPC resuelve algunos de los problemas informáticos actuales más complejos en tiempo real.
Los sistemas HPC suelen funcionar a velocidades más de un millón de veces superiores a las de los sistemas de sobremesa, ordenadores portátiles o servidores más rápidos.
Durante décadas, los superordenadores, ordenadores especialmente diseñados que incorporan millones de procesadores o núcleos de procesador, fueron clave en la computación de alto rendimiento. Los superordenadores siguen entre nosotros; en el momento en el que se escribió este texto, el superordenador más rápido es el Frontier (enlace externo a ibm.com), con sede en Estados Unidos, cuya velocidad de procesamiento es de 1,102 exaflops, o quintillones de operaciones en coma flotante por segundo (flops). Sin embargo, hoy en día, cada vez hay más organizaciones que ejecutan servicios de HPC en clústeres de servidores informáticos de alta velocidad, alojados en las instalaciones o en la nube.
Las cargas de trabajo de HPC descubren nuevos e importantes conocimientos que hacen avanzar el saber humano y crean importantes ventajas competitivas. Por ejemplo, HPC secuencia el ADN, automatiza el comercio de acciones y ejecuta algoritmos y simulaciones de inteligencia artificial (IA), como los que permiten los automóviles autónomos, que analizan terabytes de datos que se transmiten desde sensores de IoT, radares y sistemas GPS en tiempo real para tomar decisiones en fracciones de segundo.
Lea cómo el escritorio como servicio (DaaS) permite a las empresas lograr el mismo nivel de rendimiento y seguridad que la implementación de las aplicaciones en las instalaciones.
Regístrese para obtener la guía sobre modernización de aplicaciones
Un sistema informático estándar resuelve problemas principalmente mediante el uso de la computación en serie: divide la carga de trabajo en una secuencia de tareas y, a continuación, ejecuta las tareas una tras otra en el mismo procesador.
Por el contrario, HPC utiliza:
Computación paralela masiva
La computación paralela ejecuta múltiples tareas de manera simultánea en varios servidores o procesadores informáticos. La computación paralela masiva es la computación paralela que utiliza de decenas de miles a millones de procesadores o núcleos de procesadores.
Clústeres de equipos (también denominados clústeres de HPC)
Un clúster de HPC consta de varios servidores informáticos de alta velocidad conectados en red, con un planificador centralizado que administra la carga de trabajo de computación paralela. Los ordenadores, denominados nodos, utilizan CPU multinúcleo de alto rendimiento o, más probablemente en la actualidad, GPU, que son ideales para cálculos matemáticos rigurosos, modelos de machine learning y tareas con uso intensivo de gráficos. Un único clúster de HPC puede incluir 100 000 nodos o más.
Componentes de alto rendimiento
Todos los demás recursos informáticos de un clúster de HPC, como las redes, la memoria, el almacenamiento y los sistemas de archivos, son de alta velocidad y alto rendimiento. También son componentes de baja latencia que pueden seguir el ritmo de los nodos y optimizar la potencia informática y el rendimiento del clúster.
Hace tan solo una década, el alto coste de la HPC, que implicaba poseer o alquilar un superodenador o construir y alojar un clúster de HPC en un centro de datos en las instalaciones, puso a la HPC fuera del alcance de la mayoría de las organizaciones.
Hoy en día, la HPC en la nube, a veces denominada HPC como servicio o HPCaaS, ofrece a las empresas una forma mucho más rápida, escalable y asequible de aprovechar las ventajas de la HPC. HPCaaS suele incluir acceso a clústeres HPC e infraestructura alojada en el centro de datos de un proveedor de servicios en la nube, además de capacidades de red (como IA y análisis de datos) y experiencia en HPC.
Hoy en día, hay tres tendencias convergentes que impulsan la HPC en la nube:
Aumento de la demanda
Las organizaciones de todos los sectores dependen cada vez más de la información en tiempo real y de la ventaja competitiva que resulta de resolver los complejos problemas que solo las aplicaciones de HPC pueden resolver. Por ejemplo, la detección del fraude con tarjetas de crédito, algo en lo que todos confiamos y que la mayoría de nosotros hemos experimentado en un momento u otro, depende cada vez más de la HPC para identificar el fraude más rápido y reducir los molestos falsos positivos, incluso cuando la actividad fraudulenta se expande y las tácticas de los estafadores cambian constantemente.
Prevalencia de redes RDMA de menor latencia y mayor rendimiento
El acceso directo remoto a memoria (RDMA) permite que un equipo en red acceda a la memoria de otro equipo en red sin involucrar el sistema operativo de ninguno de los equipos ni interrumpir el procesamiento de ninguno de los equipos. Esto ayuda a minimizar la latencia y maximizar el rendimiento. Las estructuras RDMA emergentes de alto rendimiento, como InfiniBand, la arquitectura de interfaz virtual y RDMA a través de Ethernet convergente, están haciendo posible la HPC basada en la nube.
Disponibilidad generalizada de HPCaaS en la nube pública y en la nube privada
Hoy en día, todos los principales proveedores de servicios de nube pública ofrecen servicios de HPC. Y aunque algunas organizaciones continúan ejecutando cargas de trabajo HPC sensibles o altamente reguladas en las instalaciones, muchas están adoptando o migrando a servicios HPC de nube privada ofrecidos por proveedores de hardware y soluciones.
Las aplicaciones de HPC se han convertido en sinónimo de aplicaciones de IA en general, y de aplicaciones de machine learning y deep learning en particular; hoy en día, la mayoría de los sistemas HPC se crean teniendo en cuenta estas cargas de trabajo. Estas aplicaciones de HPC están impulsando la innovación continua en:
Salud, genómica y ciencias de la vida
El primer intento de secuenciar un genoma humano duró 13 años; hoy en día, los sistemas HPC pueden hacer el trabajo en menos de un día. Otras aplicaciones de HPC en el cuidado de la salud y las ciencias de la vida incluyen el descubrimiento y diseño de fármacos, el diagnóstico rápido del cáncer y el modelado molecular.
Servicios financieros
Además de la negociación automatizada y la detección de fraudes, la HPC impulsa las aplicaciones de simulación Monte Carlo y otros métodos de análisis de riesgos.
Gobierno y defensa
Dos casos de uso cada vez más frecuentes de la HPC en este ámbito son la predicción meteorológica y la modelización del clima, que implican el procesamiento de grandes cantidades de datos meteorológicos históricos y millones de cambios diarios en puntos de datos relacionados con el clima. Otras aplicaciones gubernamentales y de defensa incluyen la investigación energética y el trabajo de inteligencia.
Energía
En algunos casos que se superponen con el gobierno y la defensa, las aplicaciones de HPC relacionadas con la energía incluyen el procesamiento de datos sísmicos, la simulación y el modelado de yacimientos, el análisis geoespacial, la simulación del viento y el mapeo del terreno.
Tanto si su carga de trabajo requiere un entorno de nube híbrida como uno contenido en la nube, IBM Cloud dispone de las herramientas informáticas de alto rendimiento para satisfacer sus necesidades.
Para hacer frente a los desafíos actuales y prepararse para el futuro, necesita un software de IA de IBM que se integre con su infraestructura y estrategia de datos.
El portafolio de IBM Spectrum LSF Suites redefine la virtualización de clústeres y la gestión de cargas de trabajo al proporcionar un sistema integrado para entornos HPC de misión crítica.
IBM es actualmente la única empresa que ofrece la pila completa de tecnología cuántica con el hardware, los sistemas integrados y los servicios en la nube más avanzados.
IBM tiene una abundante historia de supercomputación y es ampliamente considerada como pionera en el campo, con aspectos destacados como el programa Apollo, Deep Blue y Watson entre otros.
La computación cuántica está a punto de provocar un cambio de paradigma. El software que depende de esta tecnología incipiente, arraigada en las leyes físicas de la naturaleza, pronto podría revolucionar la computación para siempre.