La technologie de calcul intensif utilise des supercalculateurs, les ordinateurs les plus rapides au monde. Les supercalculateurs sont constitués d'interconnexions, de systèmes d'E/S, de mémoire et de cœurs de processeurs.
Contrairement aux ordinateurs traditionnels, les supercalculateurs utilisent plusieurs unités centrales de traitement (CPU). Ces unités centrales sont regroupées en nœuds de calcul, comprenant un processeur ou un groupe de processeurs (le multiprocesseur symétrique (SMP)) et un bloc mémoire. À l'échelle, un supercalculateur peut contenir des dizaines de milliers de nœuds. Grâce à des capacités de communication interconnectées, ces nœuds peuvent collaborer afin de résoudre un problème spécifique. Les nœuds utilisent également des interconnexions pour communiquer avec les systèmes d'E/S, comme le stockage de données et la mise en réseau.
Il convient de noter qu'en raison de la consommation d'énergie des supercalculateurs modernes, les centres de données ont besoin de systèmes de refroidissement et d'installations adaptées pour accueillir ces équipements.
Les algorithmes d'apprentissage automatique aideront à fournir aux chercheurs du domaine médical une vue complète de la population cancéreuse américaine à un niveau de détail granulaire.
L'apprentissage en profondeur pourrait aider les scientifiques à identifier des matériaux pour de meilleures batteries, des matériaux de construction plus résistants et des semi-conducteurs plus efficaces.
À l'aide d'un assortiment de techniques d'intelligence artificielle (IA), les chercheurs identifieront des schémas de fonction, de coopération et d'évolution des protéines humaines et des systèmes cellulaires.
Les supercalculateurs étant souvent utilisés pour exécuter des programmes d'intelligence artificielle , le calcul intensif est devenu synonyme d'IA. Cette utilisation régulière s'explique par le fait que les programmes d'IA requièrent des calculs hautes performances offerts par les supercalculateurs. En d'autres termes, les superordinateurs peuvent gérer les types de charges de travail généralement nécessaires aux applications d'IA.
Par exemple, IBM a construit les supercalculateurs Summit et Sierra en pensant aux charges de travail relatives au Big Data et à l'IA. Ils contribuent à la modélisation de supernovae, à la mise au point de nouveaux matériaux et à l'étude du cancer, de la génétique et de l'environnement, en utilisant des technologies accessibles à toutes les entreprises.
Le calcul intensif se mesure en opérations à virgule flottante par seconde (FLOPS). Le pétaflop est une mesure de la vitesse de traitement d'un ordinateur égale à mille milliards de flops. Et un système informatique de 1 pétaflop peut effectuer un quadrillion (1015) de flops. En d'autres termes, les supercalculateurs peuvent avoir une puissance de traitement un million de fois supérieure à celle de l'ordinateur portable le plus rapide.
Selon la liste TOP500 (lien externe à ibm.com), le supercalculateur le plus rapide au monde est le japonais Fugaku, avec une vitesse de 442 pétaflops en juin 2021. Les supercalculateurs IBM, Summit et Sierra, occupent les deuxième et troisième places, avec respectivement 148,8 et 94,6 pétaflops. Summit se trouve à l'Oak Ridge National Laboratory, une installation du département américain de l'Énergie située dans le Tennessee. Sierra se trouve au Lawrence Livermore National Laboratory en Californie.
Pour mettre les vitesses actuelles en perspective, lorsque Cray-1 a été installé au Los Alamos National Laboratory en 1976, il gérait une vitesse d'environ 160 mégaflops. Un mégaflop peut en effectuer un million (106) de flops.
Le terme calcul intensif est parfois utilisé comme synonyme d'autres types de calculs. Mais ces synonymes peuvent parfois prêter à confusion. Pour clarifier certaines similitudes et différences entre les types de calculs, voici quelques comparaisons courantes.
Alors que le calcul intensif fait généralement référence au processus de calculs complexes et de grande envergure utilisés par les supercalculateurs, le calcul hautes performances (HPC) consiste à utiliser plusieurs supercalculateurs pour traiter des calculs complexes et de grande envergure. Les deux termes sont souvent utilisés de manière interchangeable.
Les supercalculateurs sont parfois appelés ordinateurs parallèles, car le calcul intensif peut utiliser un traitement parallèle. On parle de traitement parallèle lorsque plusieurs unités centrales travaillent sur la résolution d'un seul calcul à un moment donné. Cependant, les scénarios de calcul hautes performances utilisent également le parallélisme, sans nécessairement recourir à un supercalculateur.
Une autre différence est que les supercalculateurs pourraient utiliser d'autres systèmes de processeurs, comme les processeurs vectoriels, les processeurs scalaires ou les processeurs à unités d'exécution multiples.
L'informatique quantique est un modèle informatique qui exploite les lois de la mécanique quantique pour traiter des données, en effectuant des calculs basés sur des probabilités. Elle vise à résoudre des problèmes complexes que les superordinateurs les plus puissants au monde ne peuvent pas résoudre et ne pourront jamais résoudre.
Le calcul intensif a évolué pendant de nombreuses années depuis la mise en service de la machine Colossus à Bletchley Park dans les années 1940. Le Colossus a été le premier ordinateur fonctionnel, électronique et numérique conçu par Tommy Flowers, un ingénieur en recherche téléphonique du General Post Office (GPO).
Le terme supercalculateur est apparu au début des années 1960, quand IBM a déployé l'IBM 7030 Stretch et que Sperry Rand a dévoilé l'UNIVAC LARC, les deux premiers supercalculateurs conçus pour être plus puissants que les machines commerciales les plus rapides disponibles à l'époque. Les événements qui ont influencé les progrès du calcul intensif ont débuté à la fin des années 1950 lorsque le gouvernement américain a commencé à financer régulièrement le développement d'une technologie informatique de pointe à hautes performances pour des applications militaires.
Bien que les superordinateurs aient été initialement produits en quantités limitées pour le gouvernement, la technologie développée a fait son chemin dans les secteurs industriels et commerciaux. Par exemple, deux sociétés américaines, Control Data Corporation (CDC) et Cray Research, ont été leaders du marché des supercalculateurs commerciaux du milieu des années 1960 à la fin des années 1970. Le CDC 6600, conçu par Seymour Cray, est considéré comme le premier supercalculateur commercial à succès. IBM deviendra plus tard un leader du secteur commercial des années 1990 à aujourd'hui.
Les solutions de calcul hautes performances aident à relever les plus grands défis mondiaux en luttant contre le cancer et en identifiant les matériaux de nouvelle génération.
Pour relever les défis actuels et préparer l'avenir, vous avez besoin de solutions d'IA intégrées à votre infrastructure et à votre stratégie de données.
Préparez l'avenir du cloud hybride avec Power10, conçu pour améliorer l'efficacité énergétique, la capacité et les performances.
Éliminez les goulots d'étranglement des E/S et partagez la mémoire entre les processeurs graphiques et les unités centrales afin d'obtenir des informations plus rapides et des modèles plus précis.
Optimisez votre infrastructure informatique sur site et dans le cloud avec la flexibilité et le contrôle du développement open source.
Découvrez ce qu'est un mainframe et son fonctionnement.
Découvrez comment les entreprises utilisent le calcul intensif dans leurs secteurs d'activité, comme le remodelage biologique de l'eau liquide (dynamique des fluides) ou l'acheminement de l'électricité et de la chaleur solaires vers des sites éloignés.
Découvrez ce qu'est le code open source, ses différences par rapport aux logiciels à code source fermé et son évolution.
Apprenez-en davantage sur le calcul hautes performances, pourquoi il est important et comment il fonctionne.
Découvrez ce qu'est l'intelligence artificielle, ses différents types, la différence entre l'apprentissage en profondeur et l'apprentissage automatique, et les applications de l'IA.
L'informatique quantique est un modèle informatique qui exploite les lois de la mécanique quantique pour traiter des données, en effectuant des calculs basés sur des probabilités. Elle vise à résoudre des problèmes complexes que les superordinateurs les plus puissants au monde ne peuvent pas résoudre et ne pourront jamais résoudre.
1 Getting up to Speed: The Future of Supercomputing, The National Academies Press (lien externe à ibm.com)