Le calcul accéléré désigne l’utilisation de matériel et de logiciels spécialement conçus pour accélérer les tâches informatiques.
Le calcul accéléré repose sur une large gamme de matériel et de logiciels (également appelés accélérateurs), notamment les unités de traitement graphique (GPU), les circuits intégrés à application spécifique (ASIC) et les réseaux de portes programmables (FPGA).
Les solutions de calcul accéléré sont très demandées dans de nombreux secteurs, car elles réalisent des calculs plus rapidement et plus efficacement que les unités centrales de traitement (CPU) traditionnelles. Contrairement aux processeurs, les accélérateurs s’appuient sur le calcul parallèle, une méthode de résolution de problèmes informatiques selon laquelle les tâches sont décomposées et résolues simultanément, et non en série.
Grâce à sa rapidité de traitement des données, le calcul accéléré est désormais essentiel au développement de nombreuses technologies et applications de pointe, notamment l’intelligence artificielle (IA), l’IA générative, le machine learning (ML) et le calcul haute performance (HPC). Aujourd’hui, il est intégré dans la stratégie de nombreuses entreprises technologiques parmi les plus prospères au monde, notamment Google, Amazon Web Services (AWS) et Microsoft.
Les unités centrales de traitement, ou CPU, sont constituées de divers circuits électroniques qui font fonctionner le système d’exploitation (OS) et les applications d’un ordinateur. Pendant de nombreuses années, le CPU a servi de cerveau à un ordinateur, transformant l’entrée de données en sortie d’informations. Cependant, à mesure que les applications devenaient plus avancées, elles devaient traiter les données plus rapidement et plus efficacement que les CPU ne pouvaient le faire. Entrez dans les accélérateurs et les technologies de calcul accélérées avec leurs capacités de traitement parallèle, leur faible latence et leur débit élevé. Depuis les années 1980, époque à laquelle ils ont gagné en popularité, bon nombre des plus grands progrès technologiques en informatique dépendent des accélérateurs.
Des nouveaux jeux vidéo les plus excitants et des expériences de réalité virtuelle immersives à ChatGPT, en passant par la formation de modèles IA et l’analyse de big data, les accélérateurs sont un élément essentiel de notre monde hyperconnecté qui évolue rapidement. De nombreuses entreprises modernes s’appuient sur des accélérateurs pour alimenter leurs applications les plus précieuses et leurs architectures d’infrastructure, notamment le cloud computing, les centres de données, l’edge computing et les grands modèles de langage (LLM). Par exemple, les chefs d’entreprise et les développeurs qui cherchent à se lancer dans l’IA générative investissent dans des accélérateurs pour optimiser leurs centre de données et traiter plus d’informations plus rapidement1.
Les accélérateurs sont utilisés dans un large éventail d’applications commerciales pour accélérer le traitement des données, en particulier à mesure que la couverture 5G s’étend, augmentant ainsi les opportunités de l’Internet des objets (IdO) et d’edge computing. Les applications IdO dépendent d’accélérateurs pour traiter les données provenant de dispositifs intelligents tels que les réfrigérateurs, les capteurs de flux de trafic, etc. L’edge computing peut fournir des informations plus approfondies, des temps de réponse plus rapides et une meilleure expérience client, mais seulement avec les vitesses de traitement offertes par les accélérateurs.
En ce qui concerne l’IA, bon nombre de ses applications les plus avancées, telles que le traitement automatique du langage naturel (TAL), la vision par ordinateur et la reconnaissance vocale, reposent sur la puissance du calcul accéléré pour fonctionner. Par exemple, les réseaux de neurones qui sous-tendent de nombreuses applications d’IA de pointe ont besoin d’accélérateurs IA pour classer et regrouper les données à grande vitesse.
Enfin, alors que de plus en plus d’entreprises cherchent des moyens de se transformer numériquement et d’accélérer l’innovation, les solutions de calcul accéléré offrent un coût total de possession relativement faible. La capacité des accélérateurs à traiter de grandes quantités de données rapidement et avec précision signifie qu’ils peuvent être utilisés dans de nombreuses applications différentes avec un potentiel de création de valeur commerciale, notamment les chatbots IA, l’analyse financière, le cloud computing et plus encore.
Le calcul accéléré s’appuie sur une combinaison de matériel, de logiciels et de technologies de réseau pour aider les entreprises modernes à faire fonctionner leurs applications les plus avancées. Les composants critiques aux accélérateurs comprennent notamment les GPU, les ASIC et les FPGA. Les logiciels et les interfaces de programmation d’application (API) sont tout aussi importants, CUDA et OpenCL jouant notamment un rôle majeur.
Enfin, les solutions de mise en réseau, telles que PCI express (PCIe) et NV Link, aident les unités de traitement à communiquer avec les périphériques de mémoire et de stockage qui conservent les données. Voici comment les accélérateurs matériels, les accélérateurs logiciels et les solutions réseau fonctionnent ensemble pour rendre possible le calcul accéléré.
Les accélérateurs matériels modernes traitent les données beaucoup plus rapidement que les CPU classiques grâce à leurs capacités de traitement parallèle. Sans eux, les principales applications du calcul accéléré ne seraient, pour la plupart, pas possibles.
Processeurs graphiques (GPU)
Les GPU, ou unités de traitement graphique, sont des accélérateurs matériels conçus pour accélérer le traitement graphique et d’images sur divers appareils, notamment les cartes vidéo, les cartes mères, les téléphones mobiles et les ordinateurs personnels (PC). Les accélérateurs GPU réduisent considérablement le temps nécessaire à un ordinateur pour exécuter plusieurs programmes. Le calcul accéléré par GPU est utilisé dans un large éventail d’applications informatiques accélérées, notamment l’IA et la blockchain.
ASIC
Les ASIC, ou circuits intégrés à application spécifique, sont des accélérateurs matériels conçus dans un but ou avec une fonctionnalité spécifique, comme l’apprentissage profond dans le cas de l’accélérateur ASIC WSE-3, considéré comme l’un des accélérateurs d’IA les plus rapides au monde2. Contrairement à d’autres accélérateurs matériels, les ASIC ne peuvent pas être reprogrammés. Cependant, comme ils sont construits dans un but unique, ils sont généralement plus performants que les accélérateurs conçus pour réaliser des tâches de calcul plus générales. Un autre exemple d’accélérateur ASIC est le Tensor Processing Unit (TPU) de Google, qui a été développé pour le ML à réseaux de neurones ML sur le logiciel TensorFlow de Google.
FPGA
Les FPGA, ou réseaux de portes programmables in situ, sont des accélérateurs d’IA hautement personnalisables qui dépendent de connaissances spécialisées pour être reprogrammés dans un but spécifique. Contrairement à d’autres accélérateurs d’IA, les FPGA ont un design unique qui convient à une fonction particulière, souvent liée au traitement des données en temps réel. Les FPGA sont reprogrammables au niveau matériel, ce qui permet un niveau de personnalisation bien supérieur. Ils sont souvent utilisés dans l’aérospatiale, les applications IdO et les solutions de réseau sans fil.
Les API et les logiciels jouent un rôle critique dans le fonctionnement des accélérateurs, en assurant l’interface entre le matériel et les réseaux nécessaires à l’exécution des applications accélérées.
API
Les API, ou interfaces de programmation d’application, sont des ensembles de règles qui permettent aux applications de communiquer et d’échanger des données. Les API sont essentielles au calcul accéléré, car elles permettent d’intégrer les données, les services et les fonctionnalités entre les applications. Elles simplifient et accélèrent le développement d’application et de logiciels en permettant aux développeurs d’intégrer des données, des services et des capacités provenant d’autres applications et de les partager au sein de l’entreprise. Les API permettent d’optimiser le flux de données entre les accélérateurs matériels et logiciels, et donnent aux développeurs accès aux bibliothèques logicielles indispensables au développement d’applications et de logiciels.
CUDA
Compute Unified Device Architecture (CUDA), créé par NVIDIA en 2007, est un logiciel qui permet aux développeurs d’accéder directement aux capacités de calcul parallèle des GPU NVIDIA. CUDA permet aux codeurs d’utiliser la technologie GPU pour un éventail beaucoup plus large de fonctions qu’auparavant. Depuis, en s’appuyant sur ce que CUDA a rendu possible, les accélérateurs matériels GPU ont acquis encore plus de capacités, notamment le ray tracing, (la génération d’images informatiques en suivant la direction de la lumière d’une caméra) et les cœurs tensoriels (conçus pour permettre l’apprentissage profond).
OpenCL
OpenCL est une plateforme open source conçue pour le calcul parallèle, qui prend en charge de nombreux types d’accélérateurs matériels, y compris les GPU et les FPGA. Sa haute compatibilité en fait un outil idéal pour les développeurs qui ont besoin d’utiliser différents types de composants dans leurs workloads accélérées. Parmi les cas d’utilisation d’OpenCl, citons les jeux, la modélisation 3D et la production multimédia.
Les technologies de réseau sont critiques à l’accélération du calcul, permettant une communication rapide et efficace entre les nombreuses unités de traitement et les dispositifs de mémoire et de stockage où les données sont stockées. Voici quelques-uns des différents types de réseau sur lesquels repose le calcul accéléré.
Ethernet
Ethernet est une technologie largement utilisée pour assurer un transfert rapide et flexible des données entre les serveurs d’un centre de données (ou simplement entre des ordinateurs situés dans le même espace physique). S’il est répandu et abordable, il n’est pas aussi rapide que d’autres types de mise en réseau, comme NVLink ou InfiniBand.
PCI Express (PCIe)
PCIe est un bus d’extension informatique à haut débit qui connecte deux périphériques à une source de mémoire externe. Les accélérateurs utilisent PCIe pour connecter les GPU et autres types d’accélérateurs matériels à un système informatique central.
NVLink
NVLink est la technologie propriétaire de NVIDIA de la technologie Interconnect et peut fournir une bande passante beaucoup plus élevée que PCIe. Il a été conçu pour permettre un partage de données hautement efficace entre les GPU et d’autres appareils.
InfiniBand
InfiniBand est une spécification de communication qui définit une architecture de tissu commuté sur les serveurs interconnectés, le stockage ou d’autres dispositifs dans un centre de données. Développée par l’InfiniBand Trade Association, la technologie se distingue par ses performances élevées et sa faible latence, ce qui la rend idéale pour les workloads à hautes performances.
Computer Express Link (CXL)
CXL est une norme d’interconnexion ouverte qui permet de réduire la latence et d’augmenter la bande passante entre les CPU et les accélérateurs en combinant plusieurs interfaces en une seule connexion PCIe.
Avec la diffusion de la technologie de l’IA et l’expansion des réseaux 5G permettant des transfert de données rapides, le nombre de cas d’utilisation de l’informatique accélérée augmente chaque jour. Voici les plus courants.
L’intelligence artificielle (IA) et ses nombreuses applications métier ne seraient pas possibles sans accélérateurs tels que les GPU et les ASIC. Ces dispositifs de calcul accéléré permettent aux ordinateurs d’effectuer des calculs très complexes plus rapidement et plus efficacement que les CPU traditionnels. Les accélérateurs comme Vela, le supercalculateur d’IA cloud natif d’IBM alimentent de nombreuses applications d’IA de pointe qui dépendent de leurs capacités à entraîner des modèles d’IA sur des ensembles de données de plus en plus volumineux.
Les machine learning (ML) et l’apprentissage profond (DL), un domaine de l’IA qui utilise des données et d’algorithmes pour imiter la façon dont les humains apprennent et décident, reposent tous deux sur les capacités de traitement des données des accélérateurs. Le calcul accéléré permet d’entraîner des modèles d’apprentissage profond, qui apprennent à faire des inférences à partir des données comme le fait le cerveau humain.
La blockchain, le célèbre registre utilisé pour enregistrer les transactions et suivre les actifs sur les réseaux professionnels, repose largement sur l’informatique accélérée. Une étape essentielle, appelée « preuve de travail » (Proof of Work, PoW), au cours de laquelle une transaction est validée et ajoutée à la blockchain, dépend des accélérateurs. Dans les cryptomonnaies, par exemple, la preuve de travail signifie que toute personne disposant de la machine appropriée peut miner une cryptomonnaie, telle que le bitcoin.
Les accélérateurs gèrent les grands jeux de données générés par les applications Internet des objets (IdO) beaucoup plus efficacement qu’un CPU doté de capacités de traitement en série. L’IdO dépend d’appareils connectés à Internet qui collectent en permanence des données à des fins de traitement. Les accélérateurs matériels comme les GPU permettent de traiter rapidement les données pour les applications IdO comme les voitures autonomes et les systèmes qui surveillent le trafic et la météo.
L’edge computing, un cadre qui rapproche les applications des sources de données, s’appuie fortement sur les accélérateurs pour fonctionner. L’expansion de la connectivité 5G a entraîné une croissance exponentielle des jeux de données. L’informatique accélérée, grâce à ses capacités de traitement parallèle, permet aux entreprises de profiter de toutes les possibilités de l’edge computing, comme un délai d’obtention d’informations plus court, de meilleurs temps de réponse et une bande passante améliorée.
IBM Spectrum LSF Suites est une plateforme de gestion des workloads et un outil de planification de travaux pour les environnements de calcul haute performance (HPC) distribués.
Les solutions HPC en cloud hybride d’IBM aident à relever les défis à grande échelle et à forte intensité de calcul et à accélérer le temps de découverte de l’information.
Trouvez la solution d’infrastructure cloud adaptée aux besoins de votre entreprise et ajustez les ressources en fonction de la demande.
1. GPUs Force CIOs to Rethink the Datacenter, Information Week, 23 avril 2024.
2. Gigantic AI CPU has almost one million cores, Tech Radar, 16 mars 2024.