Qu'est-ce qu'un processeur graphique (GPU) ?

Centre de données avec porte ouverte sur une baie de serveurs

Auteurs

Mesh Flinders

Staff Writer

IBM Think

Stephanie Susnjara

Staff Writer

IBM Think

Ian Smalley

Staff Editor

IBM Think

Qu'est-ce qu'un processeur graphique (GPU) ?

Un processeur graphique, aussi connu sous le nom d’unité de traitement graphique (GPU), est un circuit électronique conçu pour accélérer l’affichage et le traitement d’images sur divers appareils, notamment les cartes vidéo, les cartes système, les téléphones mobiles et les ordinateurs personnels (PC).

En effectuant des calculs mathématiques à grande vitesse, un GPU réduit le temps nécessaire à un ordinateur pour exécuter plusieurs programmes. Cela en fait un outil essentiel pour les technologies émergentes et futures telles que le machine learning (ML) , l’intelligence artificielle (IA) et la blockchain.

Avant l’invention des GPU dans les années 1990, les contrôleurs graphiques des PC et des consoles de jeux vidéo s’appuyaient sur l’unité centrale de traitement (CPU) de l’ordinateur pour exécuter des tâches. À partir du début des années 1950, les CPU étaient les processeurs les plus importants des ordinateurs, exécutant toutes les instructions nécessaires à l’exécution des programmes, telles que la logique, le contrôle et les entrées/sorties (E/S).

Cependant, avec l’essor des jeux vidéo et de la conception assistée par ordinateur (CAO) dans les années 1990, l’industrie avait besoin d’un moyen plus rapide et plus efficace de combiner les pixels.

En 2007, Nvidia a développé CUDA (Compute Unified Device Architecture), une plateforme logicielle et une interface de programmation d’application (API) qui donnaient aux développeurs un accès direct aux capacités de calcul parallèle des GPU, leur permettant d’utiliser la technologie GPU pour un plus large éventail de fonctions qu’auparavant.

Dans les années 2010, la technologie GPU a acquis encore plus de capacités, notamment le ray tracing (la génération d’images informatiques en suivant la direction de la lumière d’une caméra) et les cœurs tensoriels (conçus pour permettre l’apprentissage profond [DL]).

Grâce à ces progrès, les GPU ont joué un rôle crucial dans l’accélération de l’IA et des processeurs d’apprentissage profond, contribuant à accélérer le développement des applications d’IA et de ML. Aujourd’hui, en plus d’alimenter les consoles de jeux et les logiciels de montage, les GPU fournissent des fonctions de calcul de pointe essentielles à de nombreuses entreprises.

Comment fonctionne un GPU ?

Un GPU possède sa propre mémoire vive (RAM), un type spécifique de mémoire électronique utilisée pour stocker du code et des données auxquels la puce peut accéder et qu’elle peut modifier si nécessaire. Les GPU avancés disposent généralement d’une RAM conçue pour contenir les volumes importants de données nécessaires aux tâches gourmandes en calcul, telles que l’édition graphique, les jeux vidéo ou les applications d’IA/de ML.

Deux types de mémoire GPU couramment utilisés sont la GDDR6 (Graphics Double Data Rate 6 Synchronous Dynamic Random-Access Memory) et la GDDR6X, une version plus récente. La GDDR6X utilise 15 % moins d’énergie par bit transféré que la GDDR6, mais sa consommation totale d’énergie est plus élevée en raison de sa plus grande rapidité. Les iGPU peuvent être intégrés au CPU d’un ordinateur ou insérés dans un emplacement à côté de celui-ci et connectés via un port PCI Express.

Quelle est la différence entre un GPU et un CPU ?

La conception des CPU et des GPU présente des similitudes, notamment en ce qui concerne le nombre de cœurs et de transistors dédiés aux tâches de traitement. Cependant, les CPU ont des fonctions plus générales que les GPU. Les GPU ont tendance à se concentrer sur une tâche de calcul unique et spécifique, telle que le traitement graphique ou le machine learning.

Les CPU sont le cœur et le cerveau d’un système informatique ou d’un appareil. Ils reçoivent des instructions générales ou des demandes concernant une tâche d’un programme ou d’une application logicielle. Les GPU ont une tâche plus spécifique, impliquant généralement le traitement rapide d’images et de vidéos haute résolution. Ils effectuent constamment des calculs mathématiques complexes nécessaires au rendu des graphismes ou à d’autres fonctions gourmandes en calcul pour accomplir leur tâche.

L’une des principales différences est que les CPU utilisent généralement moins de cœurs et exécutent leurs tâches dans un ordre linéaire. Les GPU, en revanche, ont des centaines, voire des milliers de cœurs, ce qui rend possible le traitement parallèle qui est à l’origine de leurs capacités de traitement ultra-rapides.

Les premiers GPU ont été conçus pour accélérer le rendu des graphismes 3D, rendant les scènes de films et de jeux vidéo plus réalistes et attrayantes. La première puce GPU, la GeForce de Nvidia, a été lancée en 1999, et a été suivie d’une période de croissance rapide qui a vu les capacités des GPU s’étendre à d’autres domaines grâce à leurs capacités de traitement parallèle à haute vitesse.

Le traitement parallèle, ou calcul parallèle, est un type de calcul qui repose sur deux processeurs ou plus pour accomplir différentes sous-tâches d’une tâche informatique globale.

Avant l’avènement des GPU, les ordinateurs d’ancienne génération ne pouvaient exécuter qu’un seul programme à la fois, et plusieurs heures étaient nécessaires pour terminer une tâche. La capacité des GPU à effectuer un grand nombre de calculs ou de tâches simultanément grâce au traitement parallèle les rend plus rapides et plus efficaces que les CPU des anciens ordinateurs.

Vue aérienne d’autoroutes

Gardez la tête dans le cloud 


Recevez la newsletter hebdomadaire Think pour obtenir des conseils d’experts sur l’optimisation des paramètres multicloud à l’ère de l’IA.

Quels sont les différents types de GPU ?

Il existe trois types de GPU :

  • les GPU discrets ;
  • les GPU intégrés ;
  • les GPU virtuels.

les GPU discrets ;

Les GPU discrets, également appelés dGPU, sont des processeurs graphiques distincts du CPU d’un appareil, la partie de l’ordinateur qui traite les informations et permet au système de fonctionner. Ils sont généralement utilisés dans des applications exigeantes nécessitant des capacités graphiques puissantes, telles que le montage, la création de contenu ou les jeux haut de gamme. Il s’agit de puces distinctes dotées de connecteurs pour des cartes de circuit imprimé séparées, habituellement reliées au CPU via un emplacement PCI Express dédié.

L’un des GPU discrets les plus utilisés est le modèle Intel Arc, conçu pour le marché des jeux PC.

les GPU intégrés ;

Un GPU intégré, ou iGPU, est directement intégré à la carte mère d’un ordinateur ou d’un appareil, généralement à proximité du CPU. Popularisés par Intel dans les années 2010, les iGPU ont gagné en importance, car les fabricants tels que MSI, ASUS et Nvidia ont reconnu l’intérêt de combiner les GPU et les CPU sur une même carte mère, évitant ainsi aux utilisateurs d’installer eux-mêmes un GPU via un port PCI Express. Ils restent un choix populaire pour les utilisateurs d’ordinateurs portables, les joueurs et autres personnes qui exécutent des programmes gourmands en ressources sur leur PC.

GPU virtuels

Les GPU virtuels offrent les mêmes fonctionnalités que les GPU discrets ou intégrés, mais sans le matériel physique. Il s’agit essentiellement d’une version logicielle d’un GPU conçue pour fonctionner sur une instance cloud et capable d’exécuter les mêmes workloads. De plus, comme ils fonctionnent sans matériel, les GPU virtuels sont plus simples et moins onéreux à gérer que leurs homologues physiques.

AI Academy

Se préparer à l’IA avec le cloud hybride

Dirigé par des leaders d’opinion IBM, le programme a pour but d’aider les chefs d’entreprise à acquérir les connaissances nécessaires qui leur permettront d’orienter leurs investissements IA vers les opportunités les plus prometteuses.

Qu’est-ce qu’un GPU cloud ?

Un GPU cloud désigne l’accès à un GPU virtuel par le biais d’un fournisseur de services cloud (CSP). Ces dernières années, le marché des services GPU basés dans le cloud s’est développé, sous l’impulsion de l’accélération du cloud computing et de l’adoption croissante des applications basées sur l’IA/le ML. Selon un rapport de Fortune Business Insights, le marché du GPUaaS (GPU-as-a-Service), évalué à 3,23 milliards de dollars en 2023, devrait passer de 4,31 milliards de dollars en 2024 à 49,84 milliards de dollars à l’horizon 20321.

De nombreux CSP, dont Google Cloud Platform, Amazon Web Services (AWS), Microsoft et IBM Cloud, offrent un accès à la demande à des services GPU évolutifs pour optimiser les performances des workloads. Ils fournissent des ressources GPU virtualisées au sein de leurs centres de données et facturent à l’utilisation. Ils s’appuient souvent sur du matériel GPU de grands fabricants tels que Nvidia, AMD et Intel pour alimenter leur infrastructure cloud.

Les offres de GPU dans le cloud sont généralement préconfigurées et peuvent être déployées facilement. Cela permet aux entreprises d’éviter les coûts initiaux et la maintenance associés aux GPU physiques. De plus, alors que les entreprises cherchent à intégrer des workloads d’IA générative pour effectuer des tâches de calcul avancées (par exemple la création de contenu et la génération d’images), l’évolutivité et la rentabilité offertes par les GPU dans le cloud sont devenues cruciales.

Qu’est-ce qu’un benchmark GPU ?

Un benchmark GPU permet d’évaluer les performances d’un GPU dans différentes conditions. Il s’agit de logiciels spécialisés qui permettent aux utilisateurs (joueurs, infographistes 3D, développeurs système, etc.) d’obtenir des informations sur leur GPU et de résoudre des problèmes de performances tels que les blocages, la latence et la compatibilité avec d’autres logiciels et matériels.

Il existe deux grands types de benchmarks GPU : les benchmarks synthétiques et les benchmarks réels. Les premiers testent les performances brutes d’un GPU dans un environnement standardisé. Les seconds testent les performances d’un GPU dans des applications spécifiques.

Les outils de benchmarking GPU évaluent des indicateurs de performance tels que la vitesse, la fréquence d’images et la bande passante mémoire. Ils examinent également l’efficacité thermique et la consommation d’énergie afin que les utilisateurs puissent obtenir des performances optimales en fonction de leurs besoins. Certaines plateformes de benchmarking GPU intègrent également des tests qui mesurent la qualité d’interaction entre un disque SSD et un GPU.

Cas d'utilisation modernes des GPU

À mesure que les GPU ont évolué, les améliorations techniques les ont rendus plus programmables et ont permis de découvrir de nouvelles fonctionnalités. Plus précisément, leur capacité à diviser les tâches entre plusieurs processeurs, ce que l’on appelle le traitement parallèle, les a rendus indispensables à un large éventail d’applications, notamment les jeux sur PC, le calcul haute performance (HPC), les stations de travail de rendu 3D ou encore le calcul en centre de données.

Voici un aperçu plus détaillé de certaines des applications modernes les plus importantes de la technologie GPU :

  • Intelligence artificielle
  • Machine learning et apprentissage profond
  • Blockchain
  • Jeu vidéo
  • Montage vidéo
  • Création de contenu
  • Calcul haute performance (HPC)
  • Visualisation et simulation
Intelligence artificielle

L’IA et ses nombreuses applications seraient probablement impossibles sans le calcul par GPU. La capacité des GPU à résoudre des problèmes techniques complexes plus rapidement et plus efficacement que les CPU traditionnels les rend indispensables. Les GPU sont des composants essentiels de nombreux supercalculateurs, en particulier les supercalculateurs d’IA.

Les GPU alimentent de nombreuses applications d’IA de pointe, telles que Vela, le supercalculateur d’IA cloud natif d’IBM, qui nécessite des vitesses élevées pour s’entraîner à partir d’ensembles de données de plus en plus volumineux. Les modèles d’IA s’entraînent et s’exécutent sur des GPU de centres de données, généralement exploités par des entreprises menant des recherches scientifiques ou d’autres tâches gourmandes en calcul.

Machine learning (ML) et apprentissage profond (DL)

Le machine learning désigne une discipline de l’IA qui consiste à utiliser des données et des algorithmes pour imiter la façon dont les humains apprennent. L’apprentissage profond est un sous-ensemble du ML qui utilise les réseaux neuronaux pour simuler le processus de prise de décision du cerveau humain. La technologie GPU est essentielle à ces deux domaines du progrès technologique.

En ce qui concerne le ML et le DL, les GPU permettent aux modèles de trier des ensembles de données énormes et d’en tirer des inférences de manière similaire à celle des humains. Les GPU améliorent particulièrement la mémoire et l’optimisation, car ils peuvent effectuer de nombreux calculs simultanés. De plus, les GPU utilisés dans le ML et le DL consomment moins de ressources que les CPU, sans pour autant perdre en puissance ou en précision.

Blockchain

La blockchain, c’est-à-dire le registre utilisé pour enregistrer les transactions et suivre les actifs dans les réseaux professionnels, dépend fortement de la technologie GPU, en particulier lorsqu’il s’agit de l’étape appelée « preuve de travail ». Dans de nombreuses blockchains largement utilisées, telles que les cryptomonnaies, l’étape de la preuve de travail est vitale pour valider une transaction, car elle permet de l’ajouter à la blockchain.

Jeu vidéo

L’industrie du jeu vidéo a été la première à exploiter la puissance des GPU dans les années 1990 pour améliorer l’expérience de jeu globale en offrant plus de vitesse et de précision graphique. Les jeux vidéo actuels sont très gourmands en ressources informatiques en raison des scénarios hyperréalistes, des interactions en temps réel et des vastes mondes immersifs.

Les tendances du jeu telles que la réalité virtuelle (RV), les taux de rafraîchissement plus élevés et les écrans haute résolution dépendent toutes des GPU pour fournir des graphismes rapides dans des environnements informatiques plus exigeants. Parmi les GPU dédiés aux jeux, on trouve les modèles AMD Radeon, Intel Arc et Nvidia GeForce RTX.

Montage vidéo

Traditionnellement, les longs temps de rendu ont été un obstacle majeur dans les logiciels de montage grand public et professionnels. Depuis leur invention, les GPU ont progressivement réduit les temps de traitement et les ressources de calcul dans les produits de montage vidéo tels que Final Cut Pro et Adobe Premiere.

De nos jours, les GPU équipés de traitement parallèle et d’intelligence artificielle intégrée accélèrent considérablement les capacités de montage, des suites de montage professionnelles aux applications pour smartphones.

Création de contenu

Les améliorations en matière de traitement, de performances et de qualité graphique ont fait des GPU un élément essentiel de la transformation du secteur de la création de contenu. À l’heure actuelle, les créateurs de contenu équipés d’une carte graphique performante et d’un accès Internet haut débit peuvent générer du contenu réaliste, l’enrichir grâce à l’IA et au machine learning, puis le monter et le diffuser en direct à un public plus rapidement que jamais, et ce, en grande partie grâce aux progrès de la technologie GPU.

Calculs hautes performances

Dans les systèmes HPC, les GPU utilisent des capacités de traitement parallèle pour accélérer les tâches gourmandes en calcul, telles que les calculs mathématiques complexes et l’analyse de données volumineuses dans des domaines tels que la découverte de médicaments, la production d’énergie et l’astrophysique.

Visualisation et simulation

Les GPU sont très demandés dans de nombreux secteurs pour améliorer l’expérience et les capacités de formation dans le cadre d’applications professionnelles complexes, notamment les présentations virtuelles de produits, les dessins CAO, ainsi que l’imagerie médicale et sismique ou géophysique. Les GPU sont essentiels pour les visualisations avancées (par exemple pour la formation professionnelle des pompiers, des astronautes, des enseignants) grâce à l’animation 3D, à l’IA et au ML, au rendu avancé et aux expériences de réalité virtuelle et de réalité augmentée (RA) hyperréalistes.

En outre, les ingénieurs et les climatologues utilisent des applications de simulation alimentées par des GPU pour prévoir les conditions météorologiques, la dynamique des fluides, l’astrophysique et le comportement des véhicules dans certaines conditions. Le modèle Nvidia RTX est l’un des GPU les plus puissants disponibles pour la visualisation scientifique et l’exploration énergétique.

GPU, NPU et FPGA

Avec la prolifération des applications d’IA et d’IA générative, il est intéressant d’examiner deux autres dispositifs de traitement spécialisés et de les comparer aux GPU. Les entreprises utilisent actuellement les trois types de processeurs (CPU, GPU et FPGA) en fonction de leurs besoins.

Qu’est-ce qu’une unité de traitement neuronal (NPU) ?

Une unité de traitement neuronal (NPU) est un microprocesseur informatique spécialisé conçu pour imiter l’activité de traitement du cerveau humain. Également appelé accélérateur d’IA, puce d’IA ou processeur d’apprentissage profond, un NPU est un accélérateur matériel conçu pour accélérer les réseaux neuronaux d’IA, l’apprentissage profond et le machine learning.  

Les NPU et les GPU améliorent tous deux le CPU d’un système, mais ils présentent des différences notables. Les GPU contiennent des milliers de cœurs pour réaliser les tâches de calcul rapides et précises nécessaires au rendu graphique et aux jeux. Les NPU sont conçus pour accélérer les workloads d’IA et d’IA générative, en hiérarchisant le flux de données et la mémoire en temps réel, le tout assorti d’une faible consommation d’énergie et d’une latence réduite.

Qu’est-ce qu’un FPGA (réseau de portes programmables in situ) ?

Les GPU haute performance sont parfaitement adaptés aux applications d’apprentissage profond ou d’IA, car ils peuvent gérer une grande quantité de calculs dans plusieurs cœurs avec une mémoire disponible généreuse. Les réseaux de portes programmables in situ (FPGA) sont un type de circuits intégrés polyvalents qui peuvent être reprogrammés pour différentes fonctions. Par rapport aux GPU, la flexibilité et la rentabilité des FPGA permettent d’obtenir de meilleures performances dans les applications d’apprentissage profond qui nécessitent une faible latence, telles que l’imagerie médicale et l’edge computing.

Notes de bas de page

Tous les liens sont externes au site ibm.com

1 GPU as a Service Market Size, Share & Industry Analysis, Fortune Business Insights, Fortune Business Insights, 9 décembre 2024

Solutions connexes
IBM Cloud Virtual Server for VPC

IBM Cloud Virtual Server for VPC est une famille de serveurs virtuels Intel x86, IBM Z et IBM LinuxONE basés sur IBM Cloud Virtual Private Cloud.

Découvrir Cloud Virtual Server
Hébergement Web cloud 

Les serveurs dédiés IBM Cloud offrent une solution d’hébergement Web évolutive avec un trafic backhaul gratuit illimité et des options de personnalisation étendues.

Découvrez les solutions d’hébergement Web
Services de conseil cloud 

Déverrouillez de nouvelles fonctionnalités et stimulez l’agilité de votre entreprise grâce aux services de conseil d’IBM Cloud. Découvrez comment co-créer des solutions, accélérer la transformation numérique et optimiser les performances grâce à des stratégies de cloud hybride et à des partenariats d’experts.

Services cloud
Passez à l’étape suivante

Renforcez votre présence en ligne avec les solutions d’hébergement Web fiables et sécurisées d’IBM Cloud. Des sites à fort trafic aux applications d’entreprise, les IBM Cloud Bare Metal Servers offrent flexibilité, transfert de données illimité et une portée mondiale adaptée à vos besoins d’hébergement.

Découvrir l’hébergement Web d’IBM Cloud Créer votre compte IBM Cloud gratuit