¿Qué es la computación de alto rendimiento (HPC)?
HPC procesa cantidades masivas de datos y resuelve los problemas de cálculo más complejos de la actualidad en tiempo real o casi en tiempo real.
Primer plano de circuitos
¿Qué es HPC?

HPC es una tecnología que utiliza clústeres de potentes procesadores trabajando en paralelo para procesar conjuntos de datos masivos multidimensionales (big data) y resolver problemas complejos a velocidades extremadamente altas. Los sistemas HPC generalmente funcionan a velocidades más de un millón de veces más rápidas que los sistemas básicos locales, de servidores o portátiles más rápidos.

Durante décadas, el paradigma del sistema HPC fue el superordenador, un ordenador de diseño específico que incorpora millones de procesador o núcleos de procesador. Los superordenadores todavía están presentes hoy en día. El superordenador más rápido se encuentra en Estados Unidos y se denomina Frontier (enlace externo a  ibm.com); cuenta con una velocidad de procesamiento de 1,102 exaflops, o un trillón de operaciones de coma flotante por segundo (flops). No obstante, hay cada vez más organizaciones que ejecutan soluciones de HPC en clústeres de servidores informáticos de alta velocidad, alojados en local o en cloud.

Las cargas de trabajo HPC revelan nueva información útil que hace avanzar el conocimiento humano y crea una importante ventaja competitiva. Por ejemplo, HPC se utiliza para secuenciar el ADN, automatizar el comercio de acciones y ejecutar algoritmos y simulaciones de inteligencia artificial (IA) —como los propios de la conducción autónoma— que analizan terabytes de transmisión de datos de sensores de IoT, sistemas de radar y GPS en tiempo real para tomar decisiones en fracciones de segundo.

¿Cómo funciona HPC?

Los sistemas de computación estándar resuelven problemas principalmente mediante computación en serie: dividen la carga de trabajo en una secuencia de tareas y luego ejecutan las tareas una tras otra en el mismo procesador.

HPC, por el contrario, utiliza:

  • Computación masiva en paralelo. La computación paralela ejecuta varias tareas simultáneamente en varios procesadores o servidores informáticos. La computación masiva en paralelo es computación paralela que utiliza decenas de miles e incluso millones de procesadores o núcleos de procesador.

  • Clústeres de ordenadores (también llamados clústeres HPC). Un clúster HPC consta de varios servidores informáticos de alta velocidad conectados en red entre sí, con un planificador centralizado que gestiona la carga de trabajo de computación paralela. Los ordenadores, llamados nodos, utilizan CPU de varios núcleos y alto rendimiento o, lo que es más habitual hoy en día, GPU (unidades de procesamiento gráfico), que son adecuadas para cálculos matemáticos rigurosos, modelos de machine learning y tareas con uso intensivo de gráficos. Un único clúster HPC puede incluir hasta 100 000 nodos o más.

  • Componentes de alto rendimiento: todos los demás recursos informáticos de un clúster HPC (sistemas de archivos, redes, memoria y almacenamiento) son componentes de alta velocidad, alto rendimiento y baja latencia que pueden estar a la altura de los nodos y optimizar la potencia informática y el rendimiento del clúster.
HPC y cloud computing

Hace tan solo una década, el alto coste de HPC, que implicaba poseer un superordenador en propiedad o leasing, o crear y alojar un clúster HPC en un centro de datos local, dejaba esta tecnología fuera del alcance de la mayoría de las organizaciones.

Hoy en día, HPC en cloud —que a veces se denomina HPC como servicio, o HPCaaS—, ofrece a las empresas una forma bastante más rápida, escalable y asequible de beneficiarse de HPC. En general, HPCaaS incluye acceso a infraestructura y clústeres HPC alojados en el centro de datos de un proveedor de servicios en cloud, además de prestaciones de ecosistema (como IA y analítica de datos) y experiencia en HPC.

En la actualidad, la HPC en cloud está marcada por tres tendencias convergentes:

  • Demanda creciente. Hay organizaciones de todos los sectores que dependen cada vez más de los datos prácticos extraídos en tiempo real y la ventaja competitiva que genera la resolución de los problemas complejos que solo las aplicaciones HPC pueden resolver. Por ejemplo, para la detección del fraude con tarjeta de crédito —un objeto del que todos dependemos, y un problema que la mayoría de nosotros hemos sufrido alguna vez—, la HPC es cada vez más necesaria para identificar el fraude más rápido y reducir los molestos falsos positivos, y con mayor razón debido al aumento de la actividad fraudulenta y a la constante evolución de las tácticas de los defraudadores.

  • Prevalencia de redes RDMA de menor latencia y mayor rendimiento. El RDMA, siglas en inglés de acceso remoto directo a la memoria, permite que un ordenador en red acceda a la memoria de otro ordenador en red sin involucrar al sistema operativo ni interrumpir el proceso de ninguno de los ordenadores. De este modo, se minimiza la latencia y se maximiza el rendimiento. La HPC basada en cloud es posible, básicamente, gracias a los entramados RDMA emergentes de alto rendimiento, que incluyen Infiniband, Virtual Interface Architecture y RDMA over Converged Ethernet (RoCE).

  • Amplia disponibilidad de HPCaaS de cloud público y privado. Hoy en día, todos los proveedores de servicios en cloud público más destacados ofrecen servicios HPC. A pesar de que hay algunas organizaciones que todavía ejecutan en local las cargas de trabajo HPC confidenciales o altamente reguladas, son muchas más las que están adoptando o migrando a soluciones HPC de cloud privado ofrecidas por proveedores de soluciones y hardware. 
Casos de uso de HPC

Las aplicaciones HPC se han convertido en sinónimo de aplicaciones de IA en general, y de aplicaciones de machine learning y deep learning en particular; hoy en día, la mayoría de los sistemas HPC se crean teniendo en cuenta estas cargas de trabajo. Estas aplicaciones HPC están generando una innovación continua en:

Atención sanitaria, genómica y ciencias de la vida. El primer intento de secuenciar un genoma humano duró 13 años; hoy en día, los sistemas HPC pueden lograr esta tarea en menos de un día. Otras aplicaciones de HPC en atención sanitaria y ciencias de la vida incluyen el descubrimiento y el diseño de medicamentos, el diagnóstico rápido de cáncer y la creación de modelos moleculares.

Servicios financieros. Además de la automatización del comercio y de la detección del fraude (ya mencionados), la HPC es el motor de ciertas aplicaciones en la simulación de Monte Carlo y otros métodos de análisis de riesgos.

Administración y defensa. En este sector encontramos dos casos de uso creciente de HPC: los pronósticos meteorológicos y la creación de modelos climáticos, que implican el proceso de ingentes cantidades de datos meteorológicos históricos y millones de cambios a diario en puntos de datos relacionados con el clima. Otras de las aplicaciones en Administración y defensa son labores de inteligencia y la investigación en torno a las energías.

Energía: En algunos casos, las aplicaciones de HPC en relación con la energía presentan ciertos puntos en común con el sector de Administración y defensa, e incluyen su uso en procesamiento de datos sísmicos, creación de modelos y simulación de embalses, analítica geoespacial, simulación de vientos y cartografía.

Soluciones relacionadas
Computación de alto rendimiento en IBM Cloud

Tanto si su carga de trabajo requiere un entorno en cloud híbrido como uno en cloud, IBM Cloud tiene la solución de computación de alto rendimiento ideal para sus necesidades.

Descubra HPC en IBM Cloud
Infraestructura de IA

Para hacer frente a los retos actuales y prepararse para el futuro, necesita soluciones de IA de IBM que se integren con su infraestructura y su estrategia de datos.

Descubra las soluciones de infraestructura de IA
Gestión de cargas de trabajo de HPC

El portfolio de IBM® Spectrum LSF Suites redefine la virtualización de clústeres y la gestión de cargas de trabajo proporcionando una solución integrada para entornos HPC esenciales.

Consulte el almacenamiento y los servidores de computación HPC
Sistemas de computación cuántica

IBM es actualmente la única compañía que ofrece toda la gama completa de tecnología cuántica, con el hardware, los sistemas integrados y los servicios de cloud más avanzados.

Explore los sistemas de computación cuántica
Recursos Historia de la supercomputación en IBM

IBM tiene una abundante historia de supercomputación y es ampliamente considerada como pionera en el campo, con aspectos destacados como el programa Apollo, Deep Blue y Watson entre otros.

Novedades en HPC

Reciba las últimas novedades sobre HPC, que incluyen información, noticias y publicaciones en blogs técnicos.

Hoja de ruta para desarrollar un ecosistema de software cuántico abierto

La computación cuántica está a punto de provocar un cambio de paradigma. El software que depende de esta tecnología incipiente, arraigada en las leyes físicas de la naturaleza, pronto podría revolucionar la computación para siempre.