HPC es una tecnología que utiliza clústeres de potentes procesadores trabajando en paralelo para procesar conjuntos de datos masivos multidimensionales (big data) y resolver problemas complejos a velocidades extremadamente altas. Los sistemas HPC generalmente funcionan a velocidades más de un millón de veces más rápidas que los sistemas básicos locales, de servidores o portátiles más rápidos.
Durante décadas, el paradigma del sistema HPC fue el superordenador, un ordenador de diseño específico que incorpora millones de procesador o núcleos de procesador. Los superordenadores todavía están presentes hoy en día. El superordenador más rápido se encuentra en Estados Unidos y se denomina Frontier (enlace externo a ibm.com); cuenta con una velocidad de procesamiento de 1,102 exaflops, o un trillón de operaciones de coma flotante por segundo (flops). No obstante, hay cada vez más organizaciones que ejecutan soluciones de HPC en clústeres de servidores informáticos de alta velocidad, alojados en local o en cloud.
Las cargas de trabajo HPC revelan nueva información útil que hace avanzar el conocimiento humano y crea una importante ventaja competitiva. Por ejemplo, HPC se utiliza para secuenciar el ADN, automatizar el comercio de acciones y ejecutar algoritmos y simulaciones de inteligencia artificial (IA) —como los propios de la conducción autónoma— que analizan terabytes de transmisión de datos de sensores de IoT, sistemas de radar y GPS en tiempo real para tomar decisiones en fracciones de segundo.
Los sistemas de computación estándar resuelven problemas principalmente mediante computación en serie: dividen la carga de trabajo en una secuencia de tareas y luego ejecutan las tareas una tras otra en el mismo procesador.
HPC, por el contrario, utiliza:
Hace tan solo una década, el alto coste de HPC, que implicaba poseer un superordenador en propiedad o leasing, o crear y alojar un clúster HPC en un centro de datos local, dejaba esta tecnología fuera del alcance de la mayoría de las organizaciones.
Hoy en día, HPC en cloud —que a veces se denomina HPC como servicio, o HPCaaS—, ofrece a las empresas una forma bastante más rápida, escalable y asequible de beneficiarse de HPC. En general, HPCaaS incluye acceso a infraestructura y clústeres HPC alojados en el centro de datos de un proveedor de servicios en cloud, además de prestaciones de ecosistema (como IA y analítica de datos) y experiencia en HPC.
En la actualidad, la HPC en cloud está marcada por tres tendencias convergentes:
Las aplicaciones HPC se han convertido en sinónimo de aplicaciones de IA en general, y de aplicaciones de machine learning y deep learning en particular; hoy en día, la mayoría de los sistemas HPC se crean teniendo en cuenta estas cargas de trabajo. Estas aplicaciones HPC están generando una innovación continua en:
Atención sanitaria, genómica y ciencias de la vida. El primer intento de secuenciar un genoma humano duró 13 años; hoy en día, los sistemas HPC pueden lograr esta tarea en menos de un día. Otras aplicaciones de HPC en atención sanitaria y ciencias de la vida incluyen el descubrimiento y el diseño de medicamentos, el diagnóstico rápido de cáncer y la creación de modelos moleculares.
Servicios financieros. Además de la automatización del comercio y de la detección del fraude (ya mencionados), la HPC es el motor de ciertas aplicaciones en la simulación de Monte Carlo y otros métodos de análisis de riesgos.
Administración y defensa. En este sector encontramos dos casos de uso creciente de HPC: los pronósticos meteorológicos y la creación de modelos climáticos, que implican el proceso de ingentes cantidades de datos meteorológicos históricos y millones de cambios a diario en puntos de datos relacionados con el clima. Otras de las aplicaciones en Administración y defensa son labores de inteligencia y la investigación en torno a las energías.
Energía: En algunos casos, las aplicaciones de HPC en relación con la energía presentan ciertos puntos en común con el sector de Administración y defensa, e incluyen su uso en procesamiento de datos sísmicos, creación de modelos y simulación de embalses, analítica geoespacial, simulación de vientos y cartografía.
Tanto si su carga de trabajo requiere un entorno en cloud híbrido como uno en cloud, IBM Cloud tiene la solución de computación de alto rendimiento ideal para sus necesidades.
Para hacer frente a los retos actuales y prepararse para el futuro, necesita soluciones de IA de IBM que se integren con su infraestructura y su estrategia de datos.
El portfolio de IBM® Spectrum LSF Suites redefine la virtualización de clústeres y la gestión de cargas de trabajo proporcionando una solución integrada para entornos HPC esenciales.
IBM es actualmente la única compañía que ofrece toda la gama completa de tecnología cuántica, con el hardware, los sistemas integrados y los servicios de cloud más avanzados.
IBM tiene una abundante historia de supercomputación y es ampliamente considerada como pionera en el campo, con aspectos destacados como el programa Apollo, Deep Blue y Watson entre otros.
Reciba las últimas novedades sobre HPC, que incluyen información, noticias y publicaciones en blogs técnicos.
La computación cuántica está a punto de provocar un cambio de paradigma. El software que depende de esta tecnología incipiente, arraigada en las leyes físicas de la naturaleza, pronto podría revolucionar la computación para siempre.