Qu’est-ce que le calcul accéléré ?

Femme utilisant une tablette numérique dans un centre de données

Qu’est-ce que le calcul accéléré ?

Le calcul accéléré désigne l’utilisation de matériel et de logiciels spécialement conçus pour accélérer les tâches informatiques. 

Le calcul accéléré repose sur une large gamme de matériel et de logiciels (également appelés accélérateurs), notamment les unités de traitement graphique (GPU), les circuits intégrés à application spécifique (ASIC) et les réseaux de portes programmables (FPGA). 

Les solutions de calcul accéléré sont très demandées dans de nombreux secteurs, car elles réalisent des calculs plus rapidement et plus efficacement que les unités centrales de traitement (CPU) traditionnelles. Contrairement aux processeurs, les accélérateurs s’appuient sur le calcul parallèle, une méthode de résolution de problèmes informatiques selon laquelle les tâches sont décomposées et résolues simultanément, et non en série. 

Grâce à sa rapidité de traitement des données, le calcul accéléré est désormais essentiel au développement de nombreuses technologies et applications de pointe, notamment l’intelligence artificielle (IA), l’IA générative, le machine learning (ML) et le calcul haute performance (HPC). Aujourd’hui, il est intégré dans la stratégie de nombreuses entreprises technologiques parmi les plus prospères au monde, notamment Google, Amazon Web Services (AWS) et Microsoft.

Accélérateurs et processeurs

Les unités centrales de traitement, ou CPU, sont constituées de divers circuits électroniques qui font fonctionner le système d’exploitation (OS) et les applications d’un ordinateur. Pendant de nombreuses années, le CPU a servi de cerveau à un ordinateur, transformant l’entrée de données en sortie d’informations. Cependant, à mesure que les applications devenaient plus avancées, elles devaient traiter les données plus rapidement et plus efficacement que les CPU ne pouvaient le faire. Entrez dans les accélérateurs et les technologies de calcul accélérées avec leurs capacités de traitement parallèle, leur faible latence et leur débit élevé. Depuis les années 1980, époque à laquelle ils ont gagné en popularité, bon nombre des plus grands progrès technologiques en informatique dépendent des accélérateurs.

Design 3D de balles roulant sur une piste

Les dernières actualités et informations en matière d’IA 


La newsletter hebdomadaire Think vous apporte toute l’actualité sur l’IA, le cloud et bien d’autres sujets. 

Pourquoi le calcul accéléré est-il important ?

Des nouveaux jeux vidéo les plus excitants et des expériences de réalité virtuelle immersives à ChatGPT, en passant par la formation de modèles IA et l’analyse de big data, les accélérateurs sont un élément essentiel de notre monde hyperconnecté qui évolue rapidement. De nombreuses entreprises modernes s’appuient sur des accélérateurs pour alimenter leurs applications les plus précieuses et leurs architectures d’infrastructure, notamment le cloud computing, les centres de données, l’edge computing et les grands modèles de langage (LLM). Par exemple, les chefs d’entreprise et les développeurs qui cherchent à se lancer dans l’IA générative investissent dans des accélérateurs pour optimiser leurs centre de données et traiter plus d’informations plus rapidement1.

Les accélérateurs sont utilisés dans un large éventail d’applications commerciales pour accélérer le traitement des données, en particulier à mesure que la couverture 5G s’étend, augmentant ainsi les opportunités de l’Internet des objets (IdO) et d’edge computing. Les applications IdO dépendent d’accélérateurs pour traiter les données provenant de dispositifs intelligents tels que les réfrigérateurs, les capteurs de flux de trafic, etc. L’edge computing peut fournir des informations plus approfondies, des temps de réponse plus rapides et une meilleure expérience client, mais seulement avec les vitesses de traitement offertes par les accélérateurs.  

En ce qui concerne l’IA, bon nombre de ses applications les plus avancées, telles que le traitement automatique du langage naturel (TAL), la vision par ordinateur et la reconnaissance vocale, reposent sur la puissance du calcul accéléré pour fonctionner. Par exemple, les réseaux de neurones qui sous-tendent de nombreuses applications d’IA de pointe ont besoin d’accélérateurs IA pour classer et regrouper les données à grande vitesse.

Enfin, alors que de plus en plus d’entreprises cherchent des moyens de se transformer numériquement et d’accélérer l’innovation, les solutions de calcul accéléré offrent un coût total de possession relativement faible. La capacité des accélérateurs à traiter de grandes quantités de données rapidement et avec précision signifie qu’ils peuvent être utilisés dans de nombreuses applications différentes avec un potentiel de création de valeur commerciale, notamment les chatbots IA, l’analyse financière, le cloud computing et plus encore.

Calcul haute performance

Processeurs Intel Xeon Scalable de 4e génération sur IBM Cloud

Découvrez l’engagement d’Intel et d’IBM en faveur de la prochaine génération de microarchitecture pour le secteur du cloud.

Comment fonctionne le calcul accéléré ?

Le calcul accéléré s’appuie sur une combinaison de matériel, de logiciels et de technologies de réseau pour aider les entreprises modernes à faire fonctionner leurs applications les plus avancées. Les composants critiques aux accélérateurs comprennent notamment les GPU, les ASIC et les FPGA. Les logiciels et les interfaces de programmation d’application (API) sont tout aussi importants, CUDA et OpenCL jouant notamment un rôle majeur. 

Enfin, les solutions de mise en réseau, telles que PCI express (PCIe) et NV Link, aident les unités de traitement à communiquer avec les périphériques de mémoire et de stockage qui conservent les données. Voici comment les accélérateurs matériels, les accélérateurs logiciels et les solutions réseau fonctionnent ensemble pour rendre possible le calcul accéléré.

Accélérateurs matériels

Les accélérateurs matériels modernes traitent les données beaucoup plus rapidement que les CPU classiques grâce à leurs capacités de traitement parallèle. Sans eux, les principales applications du calcul accéléré ne seraient, pour la plupart, pas possibles.

Processeurs graphiques (GPU)

Les GPU, ou unités de traitement graphique, sont des accélérateurs matériels conçus pour accélérer le traitement graphique et d’images sur divers appareils, notamment les cartes vidéo, les cartes mères, les téléphones mobiles et les ordinateurs personnels (PC). Les accélérateurs GPU réduisent considérablement le temps nécessaire à un ordinateur pour exécuter plusieurs programmes. Le calcul accéléré par GPU est utilisé dans un large éventail d’applications informatiques accélérées, notamment l’IA et la blockchain.

ASIC

Les ASIC, ou circuits intégrés à application spécifique, sont des accélérateurs matériels conçus dans un but ou avec une fonctionnalité spécifique, comme l’apprentissage profond dans le cas de l’accélérateur ASIC WSE-3, considéré comme l’un des accélérateurs d’IA les plus rapides au monde2. Contrairement à d’autres accélérateurs matériels, les ASIC ne peuvent pas être reprogrammés. Cependant, comme ils sont construits dans un but unique, ils sont généralement plus performants que les accélérateurs conçus pour réaliser des tâches de calcul plus générales. Un autre exemple d’accélérateur ASIC est le Tensor Processing Unit (TPU) de Google, qui a été développé pour le ML à réseaux de neurones ML sur le logiciel TensorFlow de Google.

FPGA

Les FPGA, ou réseaux de portes programmables in situ, sont des accélérateurs d’IA hautement personnalisables qui dépendent de connaissances spécialisées pour être reprogrammés dans un but spécifique. Contrairement à d’autres accélérateurs d’IA, les FPGA ont un design unique qui convient à une fonction particulière, souvent liée au traitement des données en temps réel. Les FPGA sont reprogrammables au niveau matériel, ce qui permet un niveau de personnalisation bien supérieur. Ils sont souvent utilisés dans l’aérospatiale, les applications IdO et les solutions de réseau sans fil. 

API et logiciels

Les API et les logiciels jouent un rôle critique dans le fonctionnement des accélérateurs, en assurant l’interface entre le matériel et les réseaux nécessaires à l’exécution des applications accélérées. 

API

Les API, ou interfaces de programmation d’application, sont des ensembles de règles qui permettent aux applications de communiquer et d’échanger des données. Les API sont essentielles au calcul accéléré, car elles permettent d’intégrer les données, les services et les fonctionnalités entre les applications. Elles simplifient et accélèrent le développement d’application et de logiciels en permettant aux développeurs d’intégrer des données, des services et des capacités provenant d’autres applications et de les partager au sein de l’entreprise. Les API permettent d’optimiser le flux de données entre les accélérateurs matériels et logiciels, et donnent aux développeurs accès aux bibliothèques logicielles indispensables au développement d’applications et de logiciels.

CUDA

Compute Unified Device Architecture (CUDA), créé par NVIDIA en 2007, est un logiciel qui permet aux développeurs d’accéder directement aux capacités de calcul parallèle des GPU NVIDIA. CUDA permet aux codeurs d’utiliser la technologie GPU pour un éventail beaucoup plus large de fonctions qu’auparavant. Depuis, en s’appuyant sur ce que CUDA a rendu possible, les accélérateurs matériels GPU ont acquis encore plus de capacités, notamment le ray tracing, (la génération d’images informatiques en suivant la direction de la lumière d’une caméra) et les cœurs tensoriels (conçus pour permettre l’apprentissage profond).

OpenCL

OpenCL est une plateforme open source conçue pour le calcul parallèle, qui prend en charge de nombreux types d’accélérateurs matériels, y compris les GPU et les FPGA. Sa haute compatibilité en fait un outil idéal pour les développeurs qui ont besoin d’utiliser différents types de composants dans leurs workloads accélérées. Parmi les cas d’utilisation d’OpenCl, citons les jeux, la modélisation 3D et la production multimédia.

Technologie de mise en réseau

Les technologies de réseau sont critiques à l’accélération du calcul, permettant une communication rapide et efficace entre les nombreuses unités de traitement et les dispositifs de mémoire et de stockage où les données sont stockées. Voici quelques-uns des différents types de réseau sur lesquels repose le calcul accéléré.

Ethernet

Ethernet est une technologie largement utilisée pour assurer un transfert rapide et flexible des données entre les serveurs d’un centre de données (ou simplement entre des ordinateurs situés dans le même espace physique). S’il est répandu et abordable, il n’est pas aussi rapide que d’autres types de mise en réseau, comme NVLink ou InfiniBand.

PCI Express (PCIe)

PCIe est un bus d’extension informatique à haut débit qui connecte deux périphériques à une source de mémoire externe. Les accélérateurs utilisent PCIe pour connecter les GPU et autres types d’accélérateurs matériels à un système informatique central.

NVLink

NVLink est la technologie propriétaire de NVIDIA de la technologie Interconnect et peut fournir une bande passante beaucoup plus élevée que PCIe. Il a été conçu pour permettre un partage de données hautement efficace entre les GPU et d’autres appareils.

InfiniBand

InfiniBand est une spécification de communication qui définit une architecture de tissu commuté sur les serveurs interconnectés, le stockage ou d’autres dispositifs dans un centre de données. Développée par l’InfiniBand Trade Association, la technologie se distingue par ses performances élevées et sa faible latence, ce qui la rend idéale pour les workloads à hautes performances.

Computer Express Link (CXL)

CXL est une norme d’interconnexion ouverte qui permet de réduire la latence et d’augmenter la bande passante entre les CPU et les accélérateurs en combinant plusieurs interfaces en une seule connexion PCIe. 

Cas d’utilisation du calcul accéléré

Avec la diffusion de la technologie de l’IA et l’expansion des réseaux 5G permettant des transfert de données rapides, le nombre de cas d’utilisation de l’informatique accélérée augmente chaque jour. Voici les plus courants. 

Intelligence artificielle (IA)

L’intelligence artificielle (IA) et ses nombreuses applications métier ne seraient pas possibles sans accélérateurs tels que les GPU et les ASIC. Ces dispositifs de calcul accéléré permettent aux ordinateurs d’effectuer des calculs très complexes plus rapidement et plus efficacement que les CPU traditionnels. Les accélérateurs comme Vela, le supercalculateur d’IA cloud natif d’IBM alimentent de nombreuses applications d’IA de pointe qui dépendent de leurs capacités à entraîner des modèles d’IA sur des ensembles de données de plus en plus volumineux.

Machine learning et apprentissage profond

Les machine learning (ML) et l’apprentissage profond (DL), un domaine de l’IA qui utilise des données et d’algorithmes pour imiter la façon dont les humains apprennent et décident, reposent tous deux sur les capacités de traitement des données des accélérateurs. Le calcul accéléré permet d’entraîner des modèles d’apprentissage profond, qui apprennent à faire des inférences à partir des données comme le fait le cerveau humain. 

Blockchain

La blockchain, le célèbre registre utilisé pour enregistrer les transactions et suivre les actifs sur les réseaux professionnels, repose largement sur l’informatique accélérée. Une étape essentielle, appelée « preuve de travail » (Proof of Work, PoW), au cours de laquelle une transaction est validée et ajoutée à la blockchain, dépend des accélérateurs. Dans les cryptomonnaies, par exemple, la preuve de travail signifie que toute personne disposant de la machine appropriée peut miner une cryptomonnaie, telle que le bitcoin.

Internet des objets (IdO)

Les accélérateurs gèrent les grands jeux de données générés par les applications Internet des objets (IdO) beaucoup plus efficacement qu’un CPU doté de capacités de traitement en série. L’IdO dépend d’appareils connectés à Internet qui collectent en permanence des données à des fins de traitement. Les accélérateurs matériels comme les GPU permettent de traiter rapidement les données pour les applications IdO comme les voitures autonomes et les systèmes qui surveillent le trafic et la météo.

Edge computing

L’edge computing, un cadre qui rapproche les applications des sources de données, s’appuie fortement sur les accélérateurs pour fonctionner. L’expansion de la connectivité 5G a entraîné une croissance exponentielle des jeux de données. L’informatique accélérée, grâce à ses capacités de traitement parallèle, permet aux entreprises de profiter de toutes les possibilités de l’edge computing, comme un délai d’obtention d’informations plus court, de meilleurs temps de réponse et une bande passante améliorée.

Solutions connexes
IBM Spectrum LSF Suites 

IBM Spectrum LSF Suites est une plateforme de gestion des workloads et un outil de planification de travaux pour les environnements de calcul haute performance (HPC) distribués.

Explorer les suites Spectrum LSF
Solutions de serveur et de stockage pour le calcul haute performance (HPC) | IBM

Les solutions HPC en cloud hybride d’IBM aident à relever les défis à grande échelle et à forte intensité de calcul et à accélérer le temps de découverte de l’information.

Découvrir les solutions HPC
Solutions d’infrastructure cloud

Trouvez la solution d’infrastructure cloud adaptée aux besoins de votre entreprise et ajustez les ressources en fonction de la demande.

Solutions cloud
Passez à l’étape suivante

Optimisez vos workloads d’IA les plus exigeants avec les solutions HPC d’IBM. Tirez parti de la flexibilité du cloud hybride et d’une infrastructure de pointe pour accélérer votre chemin vers l’innovation.

Découvrir les solutions HPC
Notes de bas de page

1. GPUs Force CIOs to Rethink the Datacenter, Information Week, 23 avril 2024.

2. Gigantic AI CPU has almost one million cores, Tech Radar, 16 mars 2024.