Une unité centrale de traitement (CPU) est le principal composant fonctionnel d’un ordinateur. Le CPU est un assemblage de circuits électroniques qui exécute le système d’exploitation et les applications d’un ordinateur et gère une variété d’autres opérations informatiques.
Un CPU est essentiellement le cerveau actif de l’ordinateur. Le CPU est le gestionnaire invisible intégré à l’ordinateur, où les données saisies sont transformées en informations. Il stocke et exécute les instructions de programme via ses vastes réseaux de circuits.
Comme le cerveau humain, le CPU peut effectuer plusieurs tâches. Il s’agit également de la partie de l’ordinateur qui régule simultanément les fonctions internes de l’ordinateur, supervise la consommation d’énergie, alloue les ressources informatiques et communique avec divers applications, programmes et réseaux.
Si vous n’êtes toujours pas convaincu de l’importance cruciale des CPU dans le domaine de l’informatique, lisez ceci : le CPU est la seule pièce que l’on trouve sur chaque ordinateur, quelles que soient sa taille ou son utilisation. Si vous lisez ceci sur un smartphone, un ordinateur portable ou un PC, vous utilisez un processeur en ce moment même.
Même si le terme « CPU » donne l’impression que nous parlons d’un équipement au singulier, ce n’est pas le cas. Le CPU est en réalité un ensemble de composants informatiques différents qui fonctionnent ensemble de manière extrêmement bien coordonnée.
Avant d’aborder les différents éléments d’une unité centrale et leur interaction, il est important de se familiariser avec deux concepts essentiels à l’informatique : le stockage de données et la mémoire.
Là encore, le processeur ressemble au cerveau humain en ce sens que les deux font l’expérience de la mémoire à court terme et de la mémoire à long terme. La mémoire de fonctionnement standard d’un processeur ne stocke les données de la RAM que « sur le moment », comme la mémoire à court terme d’une personne, avant de les vider régulièrement de la mémoire cache de l’ordinateur.
Le stockage secondaire s’apparente à la mémoire à long terme chez les humains et implique la conservation permanente ou à long terme des données en les archivant sur des périphériques de stockage secondaire, tels que des disques durs. Les périphériques de sortie tels que les disques durs offrent un stockage permanent. Le stockage permanent implique une mémoire en lecture seule (ROM), ce qui signifie que les données sont accessibles mais ne peuvent pas être traitées ou modifiées.
Voici les trois principaux composants d’une unité centrale de traitement.
L’unité de contrôle du processeur contient des circuits qui guident le système informatique à travers un système d’impulsions électriques et lui indiquent d’exécuter des instructions informatiques de haut niveau. Mais malgré son nom, l’unité de contrôle elle-même ne contrôle pas les applications ou les programmes individuels ; au contraire, elle assigne ces tâches comme un responsable humain assigne des tâches particulières à différents employés.
L’unité arithmétique/logiciel (ALU) gère toutes les opérations arithmétiques et logiques. Ses fonctionnalités mathématiques sont basées sur quatre types d’opérations (ajout, soustraction, multiplication et division). Les opérations logiques impliquent généralement un certain type de comparaison (comme des lettres, des chiffres ou des caractères spéciaux) lié à une action informatique particulière.
L’unité mémoire gère plusieurs fonctions clés liées à l’utilisation de la mémoire, de la gestion du flux de données qui se produit entre la RAM et le CPU à la supervision des travaux importants de la mémoire cache. Les unités de mémoire contiennent tous les types de données et d’instructions nécessaires au traitement de données et offrent des garanties de protection de la mémoire.
Les composants suivants du processeur sont également essentiels :
Les fonctionnalités du CPU sont gérées par l’unité de contrôle, l’assistance à la synchronisation étant fournie par l’horloge de l’ordinateur. Le travail du processeur s’effectue selon un cycle établi, connu sous le nom de cycle d’instructions du processeur, qui nécessite un certain nombre de répétitions des instructions de calcul de base suivantes, comme le permet la puissance de traitement de cet ordinateur :
En effectuant quelques manipulations basiques, l’horloge de l’ordinateur au sein du processeur peut être modifiée pour fonctionner plus rapidement que la normale. Cette astuce est utilisée par certains utilisateurs pour accélérer le fonctionnement de leur ordinateur. Cependant, cette pratique n’est pas recommandée, car elle peut entraîner une usure prématurée des pièces de l’ordinateur et même constituer une violation des garanties du fabricant de processeur.
Les ordinateurs sont maintenant considérés comme un élément fondamental qui semble avoir toujours fait partie de notre quotidien. Ce n’est évidemment pas le cas.
On dit que toute technologie repose sur les épaules des géants. Par exemple, dans l’histoire de l’informatique, les premiers visionnaires, dont les expériences et les écrits ont contribué à former la génération suivante de penseurs, ont ensuite émis de nouvelles idées sur le potentiel de l’informatique, et ainsi de suite.
À l’ère moderne, l’histoire de l’informatique a commencé pendant les conflits. La Seconde Guerre mondiale faisait rage lorsque le gouvernement américain a fait appel à un groupe de la Moore School of Electrical Engineering de l’université de Pennsylvanie. Leur mission était de créer un calculateur entièrement électronique, capable de mesurer avec précision les valeurs de distance pour les tableaux de portée de l’artillerie. Dirigés par le physicien John Mauchly et l’ingénieur J. Presper Eckert, Jr., les travaux ont commencé au début de 1943.
La mise au point de cet outil de calcul, baptisé ENIAC, a pris fin début 1946. Il s’agissait d’une énorme évolution au sens propre et figuré.
Le projet ENIAC a coûté 400 000 USD (soit environ 6,7 millions de dollars en 2024 en tenant compte de l’inflation). Il a été élaboré dans un sous-sol de la Moore School, occupant une superficie de 1 500 mètres carrés d’espace au sol. Un nombre impressionnant de composants informatiques étaient nécessaires, dont plus de 17 000 tubes à vide, 70 000 résistances, 10 000 condensateurs, 6 000 commutateurs et 1 500 relais. De plus, les tubes à vide produisaient tellement de chaleur que le projet ENIAC a nécessité son propre système de refroidissement.
Malgré un processeur primitif, l’ENIAC était une merveille pour son époque et pouvait traiter jusqu’à 5 000 équations par seconde. À la fin de la Seconde Guerre mondiale, l’ENIAC a été immédiatement utilisé dans le cadre de la guerre froide naissante du côté américain. Sa première mission consistait à effectuer des calculs liés à la construction d’une nouvelle arme, la bombe à hydrogène, dont l’impact explosif était mille fois plus puissant que celui des bombes atomiques.
L’ENIAC a démontré ce qu’un ordinateur pouvait faire sur le plan militaire. Bientôt, la même équipe, composée d’Eckert et de Mauchly, créa sa propre entreprise pour montrer au monde comment un ordinateur pouvait avoir un impact positif sur le monde des affaires.
La création phare de l’Eckert-Mauchly Computer Corporation (EMCC), l’UNIVAC 1 (généralement appelé « l’UNIVAC »), était une version plus petite et moins chère de l’ENIAC dotée de diverses améliorations reflétant l’évolution technologique de son époque.
Tout d’abord, il facilitait la saisie des données et la rendait plus expressive en incluant des périphériques d’E/S tels qu’un clavier de machine à écrire électrique, jusqu’à 10 lecteurs de bandes UNISERVO pour le stockage de données et un convertisseur bande-carte qui permet aux entreprises d’utiliser des cartes perforées en plus des bandes magnétiques de stockage.
Comme son prédécesseur, l’UNIVAC nécessitait toujours une grande surface au sol (2 500 m²), mais il s’agissait d’une réduction considérable par rapport à l’ENIAC. Cependant, l’UNIVAC, avec ses fonctionnalités supplémentaires, coûtait beaucoup plus cher que l’ENIAC, environ 1,5 million de dollars (environ 11,6 millions de dollars aujourd’hui).
Malgré ce montant, l’UNIVAC a pu réaliser des exploits incroyables. CBS News l’a notamment utilisé pour prédire avec précision les résultats de l’élection présidentielle américaine de 1952. Les sondages conventionnels de Gallup avaient prédit une élection serrée, mais l’UNIVAC a surpris tous les journalistes en annonçant la large victoire de Dwight D. Eisenhower. C’est exactement ce qui s’est passé. Personne n'avait vu venir ce résultat, sauf l’UNIVAC. L’événement a stupéfié le public, qui a pu apprécier du jour au lendemain l’analyse et les prédictions étonnantes que les ordinateurs pouvaient générer.
Malgré un profil plus élégant, l’UNIVAC était toujours aussi massif, pesant un peu plus de 8 tonnes et nécessitant 125 kW d’énergie. L’UNIVAC 1 a été dévoilé en 1951, le premier modèle acheté par l’US Census Bureau. Malheureusement, l’utilisation de l’UNIVAC a été compliquée par un sérieux défaut de conception. Il fallait toujours utiliser des tubes à vide en verre sujets à divers types de bris et produisant un excès de chaleur considérable.
Heureusement, la nouvelle étape de la révolution des processeurs allait résoudre ce problème.
Les créateurs de l’ENIAC et de l’UNIVAC devaient recourir aux tubes à vide parce qu’il n’y avait pas d’alternative viable à l’époque. Tout a changé en 1953 lorsqu’un étudiant en recherche de l’Université de Manchester a montré qu’il avait trouvé un moyen de construire un ordinateur entièrement basé sur des transistors. La création de Richard Grimsdale était une machine 48 bits qui contenait 92 transistors et 550 diodes, et aucun tube à vide en verre.
Les transistors avaient commencé à être produits en série au début des années 1950, mais leur utilisation a d’abord été compliquée par le matériau utilisé : le germanium, qui était difficile à purifier et devait être conservé dans une plage de température précise.
Au début de l’année 1954, les scientifiques de Bell Laboratories ont commencé à expérimenter le silicium, qui allait finalement être adopté pour la production de puces informatiques. Mais les choses n’ont vraiment décollé que lorsque Mohamed Atalia et Dawon Kahng, des laboratoires Bell, ont affiné l’utilisation du silicium et créé le transistor à effet de champ à grille isolée (ou MOSFET, ou transistor MOS).
Les deux ingénieurs ont construit un prototype fonctionnel à la fin de l’année 1959 et, début 1960, il a été dévoilé au monde entier, ouvrant la voie à l’ère du transistor. À la fin de cette décennie, l’usage du transistor s’est généralisé.
En fait, le MOSFET est devenu si universellement populaire à l’échelle mondiale au fil des décennies qu’il est depuis considéré par le Computer History Museum comme « le dispositif le plus largement fabriqué de l’histoire ». On estime qu’en 2018, 13 sextillions de transistors MOS avaient été fabriqués.
Les transistors ont véritablement changé la donne en termes de conception de CPU, en transformant les premiers équipements informatiques, encombrants et surdimensionnés, en ordinateurs plus élégants nécessitant moins d’espace et plus efficaces.
UNIVAC fut une révélation pour l’époque, malgré ses insuffisances et sa taille gigantesque. L’étape suivante vit la réduction de la taille de cartes mères utilisant diverses puces informatiques. Cela a finalement conduit au développement du chipset (ou jeu de puces), une puce unique aux utilisations multiples. Et à ce stade, les processeurs modernes ont été tellement miniaturisés que l’ensemble du processeur est hébergé dans une petite puce de circuit intégré, appelée microprocesseur.
Les microprocesseurs sont caractérisés par le nombre de cœurs qu’ils prennent en charge. Un cœur de processeur est un « cerveau dans le cerveau », qui sert d’unité de traitement physique au sein d’un processeur. Les microprocesseurs peuvent contenir de nombreux processeurs. À l’inverse, un cœur physique est un processeur intégré à une puce, mais qui n’occupe qu’un socket, ce qui permet à d’autres cœurs physiques d’exploiter le même environnement informatique.
Il convient de noter que le terme « microprocesseur » ne doit pas être confondu avec « microcontrôleur ». Un microcontrôleur est un très petit ordinateur qui repose sur un seul circuit intégré. Les microcontrôleurs contiennent généralement au moins un processeur, ainsi que la mémoire associée et les données d’E/S programmables.
Voici quelques-uns des autres termes utilisés en relation avec les microprocesseurs :
Les threads peuvent être considérés comme des séquences virtuelles d’instructions envoyées à un CPU. Il s’agit essentiellement d’un moyen de diviser les charges de travail et de partager ces responsabilités entre différents processeurs.
Le multithreading et l’hyperthreading sont deux termes apparentés. Dans le premier cas, les tâches sont divisées en threads distincts et exécutées en parallèle. L’hyperthreading permet d’obtenir des performances encore plus élevées, car les processeurs sont utilisés pour exécuter deux threads en même temps.
Les processeurs graphiques (GPU) sont conçus pour l’accélération et l’amélioration des graphiques informatiques et des images traitées. Le GPU est un circuit électronique spécial qui peut être utilisé sur les cartes mères, ainsi que dans les PC et les consoles de jeux.
On pense parfois que la technologie des CPU étant bien établie, elle n’évolue pas réellement. Pourtant, de nombreux éléments témoignent d’une innovation continue, car de nouveaux produits sont constamment créés, tous essayant d’offrir le meilleur processeur (ou microprocesseur) possible. Les entreprises suivantes sont la preuve tangible de ces efforts :