My IBM Se connecter S’abonner
Qu’est-ce qu’une unité centrale de traitement (CPU) ?

Qu’est-ce qu’une unité centrale de traitement (CPU) ?

Découvrir les systèmes d’exploitation IBM Inscrivez-vous pour recevoir les mises à jour du cloud
Illustration avec collage de pictogrammes représentant un écran d’ordinateur, un serveur, des nuages et des points

Publication : 10 mai 2024
Contributeurs : Phill Powell, Ian Smalley

Qu’est-ce qu’une unité centrale de traitement (CPU) ?

Qu’est-ce qu’une unité centrale de traitement (CPU) ?

Une unité centrale de traitement (CPU) est le principal composant fonctionnel d’un ordinateur. Le CPU est un assemblage de circuits électroniques qui exécute le système d’exploitation et les applications d’un ordinateur et gère une variété d’autres opérations informatiques.

Un CPU est essentiellement le cerveau actif de l’ordinateur. Le CPU est le gestionnaire invisible intégré à l’ordinateur, où les données saisies sont transformées en informations. Il stocke et exécute les instructions de programme via ses vastes réseaux de circuits.

Comme le cerveau humain, le CPU peut effectuer plusieurs tâches. Il s’agit également de la partie de l’ordinateur qui régule simultanément les fonctions internes de l’ordinateur, supervise la consommation d’énergie, alloue les ressources informatiques et communique avec divers applications, programmes et réseaux.

Si vous n’êtes toujours pas convaincu de l’importance cruciale des CPU dans le domaine de l’informatique, lisez ceci : le CPU est la seule pièce que l’on trouve sur chaque ordinateur, quelles que soient sa taille ou son utilisation. Si vous lisez ceci sur un smartphone, un ordinateur portable ou un PC, vous utilisez un processeur en ce moment même.

Même si le terme « CPU » donne l’impression que nous parlons d’un équipement au singulier, ce n’est pas le cas. Le CPU est en réalité un ensemble de composants informatiques différents qui fonctionnent ensemble de manière extrêmement bien coordonnée.

Aider l’informatique à s’autogérer grâce à l’autonomie opérationnelle

Cet article explore l’intersection entre les technologies de l’information (TI) et les opérations autonomes, et comment votre organisation peut bénéficier de l’intégration de l’IA et de l’automatisation dans son informatique.

Contenu connexe Abonnez-vous à la Think Newsletter
Concepts directeurs : stockage et mémoire de données

Concepts directeurs : stockage et mémoire de données

Avant d’aborder les différents éléments d’une unité centrale et leur interaction, il est important de se familiariser avec deux concepts essentiels à l’informatique : le stockage de données et la mémoire.

  • Le stockage de données consiste à conserver des informations pour pouvoir y accéder ultérieurement ou les conserver de façon permanente. Les ordinateurs s’appuient sur deux types de stockage, classés en stockage primaire ou en stockage secondaire. Le stockage primaire (également appelée mémoire principale ou simplement « mémoire ») contient des instructions de fonctionnement ou la récupération de données. L’unité centrale communique régulièrement avec le stockage primaire pour accéder à ces données.
  • La mémoire est une allocation de fichiers informatiques à partir de laquelle des instructions de fonctionnement spécifiques ou d’autres formes d’informations numériques peuvent être extraites et utilisées. La mémoire prend généralement la forme d’un stockage à court terme pour les fichiers les plus souvent consultés lors de l’utilisation récente d’un ordinateur. Lorsqu’un élément de données entre pour la première fois dans un système d’exploitation (OS), il est placé dans la mémoire vive (RAM) de ce système d’exploitation.

Là encore, le processeur ressemble au cerveau humain en ce sens que les deux font l’expérience de la mémoire à court terme et de la mémoire à long terme. La mémoire de fonctionnement standard d’un processeur ne stocke les données de la RAM que « sur le moment », comme la mémoire à court terme d’une personne, avant de les vider régulièrement de la mémoire cache de l’ordinateur.

Le stockage secondaire s’apparente à la mémoire à long terme chez les humains et implique la conservation permanente ou à long terme des données en les archivant sur des périphériques de stockage secondaire, tels que des disques durs. Les périphériques de sortie tels que les disques durs offrent un stockage permanent. Le stockage permanent implique une mémoire en lecture seule (ROM), ce qui signifie que les données sont accessibles mais ne peuvent pas être traitées ou modifiées.

Quels sont les composants d’un CPU ?

Quels sont les composants d’un CPU ?

Voici les trois principaux composants d’une unité centrale de traitement.

Unité de contrôle

L’unité de contrôle du processeur contient des circuits qui guident le système informatique à travers un système d’impulsions électriques et lui indiquent d’exécuter des instructions informatiques de haut niveau. Mais malgré son nom, l’unité de contrôle elle-même ne contrôle pas les applications ou les programmes individuels ; au contraire, elle assigne ces tâches comme un responsable humain assigne des tâches particulières à différents employés.

Unité arithmétique/logique

L’unité arithmétique/logiciel (ALU) gère toutes les opérations arithmétiques et logiques. Ses fonctionnalités mathématiques sont basées sur quatre types d’opérations (ajout, soustraction, multiplication et division). Les opérations logiques impliquent généralement un certain type de comparaison (comme des lettres, des chiffres ou des caractères spéciaux) lié à une action informatique particulière.

Unité de mémoire

L’unité mémoire gère plusieurs fonctions clés liées à l’utilisation de la mémoire, de la gestion du flux de données qui se produit entre la RAM et le CPU à la supervision des travaux importants de la mémoire cache. Les unités de mémoire contiennent tous les types de données et d’instructions nécessaires au traitement de données et offrent des garanties de protection de la mémoire.

Les composants suivants du processeur sont également essentiels :

  • Cache : la vitesse de la mémoire est un aspect critique du fonctionnement des CPU, et pourtant, ironiquement, le CPU n’accède pas réellement à la RAM. Au lieu de cela, les CPU modernes disposent d’une ou plusieurs couches de cache qui gèrent régulièrement ces tâches (à des vitesses supérieures à celles de la RAM) en raison de la position avantageuse du cache sur la puce du processeur du CPU.
  • Les registres : pour les besoins immédiats et constants en données qui doivent être satisfaits rapidement afin d’assurer un bon fonctionnement (pour que l’unité centrale puisse exécuter efficacement ses différentes instructions de traitement des données), l’unité centrale utilise des registres, qui sont une forme de mémoire permanente. En créant des registres dans le processeur lui-même, les données de ces registres sont accessibles la milliseconde nécessaire.
  • Horloge : il est essentiel que les circuits complexes d’une unité centrale soient synchronisés de manière très précise. L’horloge du CPU gère ce processus en émettant des impulsions électriques à intervalles réguliers, qui se coordonnent avec les différents composants de l’ordinateur. La fréquence à laquelle ces impulsions sont transmises est appelée vitesse d’horloge. Elle est mesurée en hertz (Hz) ou en mégahertz (MHz).
  • Registre d’instructions et pointeur : lorsqu’un jeu d’instructions est exécuté par le processeur, le pointeur d’instructions indique l’emplacement de la prochaine instruction à exécuter par le processeur. Une fois l’instruction en cours terminée, les informations suivantes apparaissent dans le registre d’instructions et une nouvelle instruction est mise en évidence dans le pointeur d’instructions.
  • Les bus : un bus informatique joue un rôle très particulier dans la plupart des ordinateurs : il assure le transfert et la circulation corrects des données entre les composants informatiques à l’intérieur d’un système informatique. La largeur d’un bus décrit le nombre de bits que le bus transfère en parallèle. Les bus permettent aux ordinateurs de relier les unités centrales à la mémoire embarquée et remplissent d’autres fonctions.
Comment fonctionne un processeur ?

Comment fonctionne un processeur ?

Les fonctionnalités du CPU sont gérées par l’unité de contrôle, l’assistance à la synchronisation étant fournie par l’horloge de l’ordinateur. Le travail du processeur s’effectue selon un cycle établi, connu sous le nom de cycle d’instructions du processeur, qui nécessite un certain nombre de répétitions des instructions de calcul de base suivantes, comme le permet la puissance de traitement de cet ordinateur :

  • Récupérations : elles se produisent à chaque fois que les données sont extraites de la mémoire.
  • Décodage : le décodeur intégré au processeur traduit les instructions binaires en signaux électriques qui interagissent avec d’autres parties du processeur.
  • Exécution : l’exécution se produit lorsque les ordinateurs interprètent et exécutent l’ensemble des instructions d’un programme informatique.

En effectuant quelques manipulations basiques, l’horloge de l’ordinateur au sein du processeur peut être modifiée pour fonctionner plus rapidement que la normale. Cette astuce est utilisée par certains utilisateurs pour accélérer le fonctionnement de leur ordinateur. Cependant, cette pratique n’est pas recommandée, car elle peut entraîner une usure prématurée des pièces de l’ordinateur et même constituer une violation des garanties du fabricant de processeur.

Historique du CPU : ENIAC

Historique du CPU : ENIAC

Les ordinateurs sont maintenant considérés comme un élément fondamental qui semble avoir toujours fait partie de notre quotidien. Ce n’est évidemment pas le cas.

On dit que toute technologie repose sur les épaules des géants. Par exemple, dans l’histoire de l’informatique, les premiers visionnaires, dont les expériences et les écrits ont contribué à former la génération suivante de penseurs, ont ensuite émis de nouvelles idées sur le potentiel de l’informatique, et ainsi de suite.

À l’ère moderne, l’histoire de l’informatique a commencé pendant les conflits. La Seconde Guerre mondiale faisait rage lorsque le gouvernement américain a fait appel à un groupe de la Moore School of Electrical Engineering de l’université de Pennsylvanie. Leur mission était de créer un calculateur entièrement électronique, capable de mesurer avec précision les valeurs de distance pour les tableaux de portée de l’artillerie. Dirigés par le physicien John Mauchly et l’ingénieur J. Presper Eckert, Jr., les travaux ont commencé au début de 1943.

La mise au point de cet outil de calcul, baptisé ENIAC (lien externe à ibm.com), a pris fin début 1946. Il s’agissait d’une énorme évolution au sens propre et figuré.

Le projet ENIAC a coûté 400 000 USD (soit environ 6,7 millions de dollars en 2024 en tenant compte de l’inflation). Il a été élaboré dans un sous-sol de la Moore School, occupant une superficie de 1 500 mètres carrés d’espace au sol. Un nombre impressionnant de composants informatiques étaient nécessaires, dont plus de 17 000 tubes à vide, 70 000 résistances, 10 000 condensateurs, 6 000 commutateurs et 1 500 relais. De plus, les tubes à vide produisaient tellement de chaleur que le projet ENIAC a nécessité son propre système de refroidissement.

Malgré un processeur primitif, l’ENIAC était une merveille pour son époque et pouvait traiter jusqu’à 5 000 équations par seconde. À la fin de la Seconde Guerre mondiale, l’ENIAC a été immédiatement utilisé dans le cadre de la guerre froide naissante du côté américain. Sa première mission consistait à effectuer des calculs liés à la construction d’une nouvelle arme, la bombe à hydrogène, dont l’impact explosif était mille fois plus puissant que celui des bombes atomiques.

Historique du CPU : UNIVAC

Historique du CPU : UNIVAC

L’ENIAC a démontré ce qu’un ordinateur pouvait faire sur le plan militaire. Bientôt, la même équipe, composée d’Eckert et de Mauchly, créa sa propre entreprise pour montrer au monde comment un ordinateur pouvait avoir un impact positif sur le monde des affaires.

La création phare de l’Eckert-Mauchly Computer Corporation (EMCC), l’UNIVAC 1 (généralement appelé « l’UNIVAC »), était une version plus petite et moins chère de l’ENIAC dotée de diverses améliorations reflétant l’évolution technologique de son époque.

Tout d’abord, il facilitait la saisie des données et la rendait plus expressive en incluant des périphériques d’E/S tels qu’un clavier de machine à écrire électrique, jusqu’à 10 lecteurs de bandes UNISERVO pour le stockage de données et un convertisseur bande-carte qui permet aux entreprises d’utiliser des cartes perforées en plus des bandes magnétiques de stockage.

Comme son prédécesseur, l’UNIVAC (lien externe à ibm.com) nécessitait toujours une grande surface au sol (2 500 m²), mais il s’agissait d’une réduction considérable par rapport à l’ENIAC. Cependant, l’UNIVAC, avec ses fonctionnalités supplémentaires, coûtait beaucoup plus cher que l’ENIAC, environ 1,5 million de dollars (environ 11,6 millions de dollars aujourd’hui).

Malgré ce montant, l’UNIVAC a pu réaliser des exploits incroyables. CBS News l’a notamment utilisé pour prédire avec précision les résultats de l’élection présidentielle américaine de 1952. Les sondages conventionnels de Gallup avaient prédit une élection serrée, mais l’UNIVAC a surpris tous les journalistes en annonçant la large victoire de Dwight D. Eisenhower. C’est exactement ce qui s’est passé. Personne n'avait vu venir ce résultat, sauf l’UNIVAC. L’événement a stupéfié le public, qui a pu apprécier du jour au lendemain l’analyse et les prédictions étonnantes que les ordinateurs pouvaient générer.

Malgré un profil plus élégant, l’UNIVAC était toujours aussi massif, pesant un peu plus de 8 tonnes et nécessitant 125 kW d’énergie. L’UNIVAC 1 a été dévoilé en 1951, le premier modèle acheté par l’US Census Bureau. Malheureusement, l’utilisation de l’UNIVAC a été compliquée par un sérieux défaut de conception. Il fallait toujours utiliser des tubes à vide en verre sujets à divers types de bris et produisant un excès de chaleur considérable.

Heureusement, la nouvelle étape de la révolution des processeurs allait résoudre ce problème.

Historique du CPU : les transistors

Historique du CPU : les transistors

Les créateurs de l’ENIAC et de l’UNIVAC devaient recourir aux tubes à vide parce qu’il n’y avait pas d’alternative viable à l’époque. Tout a changé en 1953 lorsqu’un étudiant en recherche de l’Université de Manchester a montré qu’il avait trouvé un moyen de construire un ordinateur entièrement basé sur des transistors (lien externe à ibm.com). La création de Richard Grimsdale était une machine 48 bits qui contenait 92 transistors et 550 diodes, et aucun tube à vide en verre.

Les transistors avaient commencé à être produits en série au début des années 1950, mais leur utilisation a d’abord été compliquée par le matériau utilisé : le germanium, qui était difficile à purifier et devait être conservé dans une plage de température précise.

Au début de l’année 1954, les scientifiques de Bell Laboratories ont commencé à expérimenter le silicium, qui allait finalement être adopté pour la production de puces informatiques. Mais les choses n’ont vraiment décollé que lorsque Mohamed Atalia et Dawon Kahng, des laboratoires Bell, ont affiné l’utilisation du silicium et créé le transistor à effet de champ à grille isolée (ou MOSFET, ou transistor MOS).

Les deux ingénieurs ont construit un prototype fonctionnel à la fin de l’année 1959 et, début 1960, il a été dévoilé au monde entier, ouvrant la voie à l’ère du transistor. À la fin de cette décennie, l’usage du transistor s’est généralisé.

En fait, le MOSFET est devenu si universellement populaire à l’échelle mondiale au fil des décennies qu’il est depuis considéré par le Computer History Museum comme « le dispositif le plus largement fabriqué de l’histoire » (lien externe à ibm.com). On estime qu’en 2018, 13 sextillions de transistors MOS avaient été fabriqués.

Les transistors ont véritablement changé la donne en termes de conception de CPU, en transformant les premiers équipements informatiques, encombrants et surdimensionnés, en ordinateurs plus élégants nécessitant moins d’espace et plus efficaces.

Qu’est-ce qu’un microprocesseur ?

Qu’est-ce qu’un microprocesseur ?

UNIVAC fut une révélation pour l’époque, malgré ses insuffisances et sa taille gigantesque. L’étape suivante vit la réduction de la taille de cartes mères utilisant diverses puces informatiques. Cela a finalement conduit au développement du chipset (ou jeu de puces), une puce unique aux utilisations multiples. Et à ce stade, les processeurs modernes ont été tellement miniaturisés que l’ensemble du processeur est hébergé dans une petite puce de circuit intégré, appelée microprocesseur.

Les microprocesseurs sont caractérisés par le nombre de cœurs qu’ils prennent en charge. Un cœur de processeur est un « cerveau dans le cerveau », qui sert d’unité de traitement physique au sein d’un processeur. Les microprocesseurs peuvent contenir de nombreux processeurs. À l’inverse, un cœur physique est un processeur intégré à une puce, mais qui n’occupe qu’un socket, ce qui permet à d’autres cœurs physiques d’exploiter le même environnement informatique.

Il convient de noter que le terme « microprocesseur » ne doit pas être confondu avec « microcontrôleur ». Un microcontrôleur est un très petit ordinateur qui repose sur un seul circuit intégré. Les microcontrôleurs contiennent généralement au moins un processeur, ainsi que la mémoire associée et les données d’E/S programmables.

Voici quelques-uns des autres termes utilisés en relation avec les microprocesseurs :

  • Processeurs monocœurs : les processeurs monocœur contiennent une seule unité de traitement. Ils se caractérisent généralement par des performances plus lentes, fonctionnent sur un seul thread et exécutent les instructions une par une dans le cycle d’instructions du processeur.
  • Processeurs double cœur : les processeurs double cœur sont équipés de deux unités de traitement contenues dans un circuit intégré. Les deux cœurs fonctionnent en même temps, ce qui double les taux de performance pour une meilleure efficacité.
  • Processeurs quadricœurs : les processeurs quadricœurs contiennent quatre unités de traitement au sein d'un seul circuit intégré. Tous les cœurs fonctionnent simultanément et multiplient par quatre les taux de performance.
  • Processeurs multicœurs : les processeurs multicœurs sont des circuits intégrés équipés d’au moins deux cœurs de processeur. Ils offrent des performances optimales et permettent une consommation d’énergie optimisée.
Que sont les threads ?

Que sont les threads ?

Les threads peuvent être considérés comme des séquences virtuelles d’instructions envoyées à un CPU. Il s’agit essentiellement d’un moyen de diviser les charges de travail et de partager ces responsabilités entre différents processeurs.

Le multithreading et l’hyperthreading sont deux termes apparentés. Dans le premier cas, les tâches sont divisées en threads distincts et exécutées en parallèle. L’hyperthreading permet d’obtenir des performances encore plus élevées, car les processeurs sont utilisés pour exécuter deux threads en même temps.

Les processeurs graphiques (GPU)

Les processeurs graphiques (GPU) sont conçus pour l’accélération et l’amélioration des graphiques informatiques et des images traitées. Le GPU est un circuit électronique spécial qui peut être utilisé sur les cartes mères, ainsi que dans les PC et les consoles de jeux.

Fabricants de processeurs notables

Fabricants de processeurs notables

On pense parfois que la technologie des CPU étant bien établie, elle n’évolue pas réellement. Pourtant, de nombreux éléments témoignent d’une innovation continue, car de nouveaux produits sont constamment créés, tous essayant d’offrir le meilleur processeur (ou microprocesseur) possible. Les entreprises suivantes sont la preuve tangible de ces efforts :

  • Advanced Micro Devices (AMD): AMD fabrique des microprocesseurs Ryzen depuis sa création en 2017. Les produits AMD Ryzen notables (par exemple, Ryzen 7, Ryzen 9) ont été prisés par les amateurs de jeux vidéo pour leur capacités en termes de vitesse, tandis que le processeur Ryzen 5 1600 a obtenu de bons résultats auprès de ceux qui travaillent dans le développement de logiciels.
  • Qualcomm : en ce qui concerne la fabrication, Qualcomm dirige actuellement un grand nombre de fournisseurs travaillant tous dans le domaine des CPU. En mai 2024, des échantillons de taux de clics sur les ordinateurs suggèrent que Qualcomm enregistrait une part de clics de 37,4 %, plus de deux fois supérieure à celle de son concurrent le plus proche.
  • Arm : c’est un marché où la rapidité est une vertu motrice. Et bien que Arm ne fabrique pas de microprocesseurs, il offre un moyen d’obtenir des licences et d’utiliser sa technologie de puce, ce qui permet aux entreprises tierces de s’assurer qu’elles bénéficient des temps de traitement ultra-rapides qu’offrent les microprocesseurs conçus par Arm.
  • Intel : Intel est un leader dans la production de puces informatiques depuis 1975. Les processeurs comme l’Intel Core i5 (introduit en 2009) ont montré une compatibilité parfaite avec les programmes qui nécessitent plus de puissance de traitement, comme les programmes de montage vidéo et de développement logiciel.    
Solutions connexes

Solutions connexes

Systèmes d’exploitation mainframe IBM

Divers systèmes d’exploitation sophistiqués fonctionnent sur les mainframes IBM, la plateforme riche en sécurité, résiliente et agile à intégrer dans votre stratégie de cloud hybride.

Systèmes d’exploitation mainframe IBM

IBM Power

IBM Power est une famille de serveurs basés sur des processeurs IBM Power capables d’exécuter IBM AIX, IBM i et Linux.

Découvrez IBM Power

Solutions de calcul haute performance IBM

Les solutions HPC d’IBM vous aident à réduire les délais de mise sur le marché, à mieux contrôler les coûts et à obtenir des performances élevées. Gérez des charges de travail d’IA et de modélisation de simulation gourmands en ressources informatiques.

Découvrir les solutions de calcul haute performance IBM
IBM Storage FlashSystem 5300

Stockage professionnel capable d’évoluer à votre rythme. IBM Storage FlashSystem 5300 est une option de stockage NVMe pour les jeunes entreprises qui ont besoin d’un stockage compact et puissant.

Découvrir IBM stockage FlashSystem 5300

Ressources

Ressources

Qu’est-ce que le supercalcul ?

Exploitez la puissance de plusieurs processeurs et nœuds de calcul avec les ordinateurs les plus rapides du monde. Les supercalculateurs contiennent des interconnexions et des cœurs dédiés à la mémoire et au traitement et peuvent être utilisés pour communiquer avec les systèmes d’entrée/sortie (E/S) pour le stockage de données et de mise en réseau.

Qu’est-ce que le confidential computing ?

La sécurité reste une préoccupation permanente, c’est pourquoi le confidential computing offre une technologie de cloud computing qui isole et protège les données sensibles au sein d’une enclave de processeur protégée pendant leur traitement. Les codes de programmation sont utilisés pour garantir que seuls les utilisateurs autorisés peuvent accéder aux données.

Qu’est-ce que le mainframe ?

Découvrez des ordinateurs à haute performance dotés de grandes quantités de mémoire et de processeurs de données qui traitent des milliards de calculs et de transactions en temps réel. Les mainframes sont utilisés pour les bases de données commerciales, les serveurs de transactions et les applications nécessitant une grande agilité.

Qu’est-ce que la virtualisation ?

La virtualisation est la base du cloud computing et c’est un processus qui permet une utilisation plus efficace du matériel informatique. La virtualisation utilise des logiciels pour créer une couche d’abstraction matérielle, ce qui permet de diviser les composants matériels d’un même ordinateur.

Qu’est-ce que le traitement automatique du langage naturel ?

Le traitement automatique du langage naturel est une branche de l’IA qui combine la linguistique informatique (modélisation du langage humain basée sur des règles) avec des modèles statistiques et des modèles de machine learning pour permettre aux ordinateurs et aux appareils numériques de reconnaître, de comprendre et de générer du texte et de la parole.

Qu'est-ce que l'informatique quantique ?

L’informatique quantique utilise des technologies spécialisées, notamment du matériel informatique et des algorithmes qui tirent parti de la mécanique quantique, pour résoudre des problèmes complexes que les ordinateurs classiques ou les superordinateurs ne peuvent pas résoudre, ou pas assez rapidement.

Passez à l’étape suivante

Une informatique efficace commence par un système d’exploitation robuste et flexible. Les systèmes d’exploitation mainframe offrent exactement ce type d’expérience optimisée. IBM propose une grande variété de mainframes adaptés à tous les types d’environnement de stockage souhaités par votre organisation.

Découvrir les systèmes d’exploitation mainframe IBM