My IBM Se connecter S’abonner

L’histoire du processeur (CPU)

20 mai 2024

Temps de lecture : 10 min.

Le processeur (CPU) est le cerveau de l’ordinateur. Il gère l’attribution et le traitement des tâches, en plus des fonctions qui caractérisent un ordinateur.

On ne saurait trop insister sur l’importance du processeur dans l’informatique. Pratiquement tous les systèmes informatiques contiennent au moins un type de processeur basique. Qu’ils soient utilisés dans un ordinateur personnel (PC), un ordinateur portable, une tablette, un smartphone ou même dans un supercalculateur (dont la puissance est telle qu’elle doit être mesurée en opérations en virgule flottante par seconde), les processeurs sont les seuls composants d’un ordinateur dont on ne peut pas se passer. Quelles que soient les avancées technologiques, une réalité demeure : si vous supprimez le processeur, vous n’avez tout simplement plus d’ordinateur.

En plus de gérer l’activité de l’ordinateur, les processeurs permettent d’activer et de stabiliser la relation « push-and-pull » qui existe entre le stockage de données et la mémoire. Le processeur sert d’intermédiaire, en interagissant avec le stockage primaire (ou mémoire principale) lorsqu’il doit accéder aux données de la mémoire vive (RAM) du système d’exploitation. D’autre part, la mémoire en lecture seule (« read-only memory » ou ROM) est conçue pour le stockage de données permanent et généralement à long terme.

Composants du processeur

Les processeurs des ordinateurs modernes contiennent généralement les composants suivants :

  • Unité de contrôle : elle contient des circuits intensifs qui dirigent le système informatique en émettant un système d’impulsions électriques, et demande au système d’exécuter des instructions informatiques de haut niveau.
  • Unité arithmétique/logique (« arithmetic/logic unit » ou ALU) : elle exécute toutes les opérations arithmétiques et logiques, y compris les équations mathématiques et les comparaisons logiques liées à des actions informatiques particulières.
  • Unité de mémoire : elle gère l’utilisation de la mémoire et le flux de données entre la mémoire vive et l’unité centrale. Elle supervise également la gestion de la mémoire cache.
  • Cache : il contient des zones de mémoire intégrées à la puce du processeur pour atteindre des vitesses de récupération des données encore plus rapides que celles de la RAM.
  • Registres : ils fournissent une mémoire permanente intégrée pour des besoins de données constants et répétés qui doivent être traités régulièrement et immédiatement.
  • Horloge : elle gère les circuits du processeur en transmettant des impulsions électriques. La vitesse de transmission de ces impulsions est appelée vitesse d’horloge, mesurée en Hertz (Hz) ou en mégahertz (MHz).
  • Registre d’instructions et pointeur : ils affichent l’emplacement du prochain jeu d’instructions qui doit être exécuté par le processeur.
  • Bus : il assure le transfert et le flux de données entre les composants d’un système informatique.

Comment fonctionnent les processeurs ?

Les processeurs fonctionnent en utilisant un type de cycle de commande répété administré par l’unité de contrôle en association avec l’horloge de l’ordinateur, qui fournit une assistance à la synchronisation.

Le travail effectué par un processeur se déroule selon un cycle établi (appelé cycle d’instructions du processeur). Le cycle d’instructions du processeur désigne un certain nombre de répétitions, et c’est le nombre de fois que les instructions informatiques de base seront répétées, comme le permet la puissance de traitement d’un ordinateur.

Les instructions de calcul de base sont les suivantes :

  • Récupérations : elles se produisent à chaque fois que les données sont extraites de la mémoire.
  • Décodage : le décodeur intégré au processeur traduit les instructions binaires en signaux électriques qui interagissent avec d’autres parties du processeur.
  • Exécution : l’exécution se produit lorsque les ordinateurs interprètent et exécutent l’ensemble des instructions d’un programme informatique.

En effectuant quelques manipulations basiques, l’horloge de l’ordinateur au sein du processeur peut être modifiée pour fonctionner plus rapidement que la normale, une astuce à laquelle certains utilisateurs ont recours pour accélérer le fonctionnement de leur ordinateur. Cependant, cette pratique (l’« overclocking ») n’est pas recommandée, car elle peut entraîner une usure prématurée des pièces de l’ordinateur et même constituer une violation des garanties du fabricant de processeur.

Les styles de traitement peuvent également être ajustés. Une façon de le faire est de mettre en œuvre un pipeline d’instructions, qui cherche à instiller un parallélisme au niveau des instructions dans un seul processeur. L’objectif du pipeline est de maintenir chaque partie du processeur active en fractionnant les instructions informatiques entrantes et en les répartissant de manière uniforme entre les unités du processeur. Les instructions sont décomposées en sous-ensembles d’instructions ou d’étapes plus petits.

Une autre méthode pour obtenir un parallélisme au niveau des instructions à l’intérieur d’un seul processeur consiste à utiliser un type de processeur « superscalaire ». Alors que les processeurs scalaires peuvent exécuter un maximum d’une instruction par cycle d’horloge, il n’y a aucune limite au nombre d’instructions qui peuvent être distribuées par un processeur superscalaire. Il envoie plusieurs instructions à diverses unités d’exécution du processeur, ce qui a pour effet d’augmenter le débit.

Qui a inventé le processeur ?

Les technologies de rupture ont rarement été inventées par une seul personne. En général, plus une technologie est complexe et révolutionnaire, plus il y a d’individus qui en sont à l’origine.

Dans le cas du processeur, l’une des inventions les plus importantes de l’histoire de la technologie, nous parlons des personnes qui ont découvert l’ordinateur lui-même.

Les anthropologues utilisent le terme d’« invention indépendante » pour décrire des situations dans lesquelles différents individus, qui peuvent se trouver isolés les uns des autres, présentent des idées ou des inventions similaires ou complémentaires, sans savoir que des expériences qui ressemblent aux leurs sont menées par des homologues.

Dans le cas du processeur (ou de l’ordinateur), des inventions indépendantes sont apparues à plusieurs reprises et ont conduit à différentes évolutions dans l’histoire de ce processeur.

Deux géants de l’informatique

Si cet article ne peut en aucun cas rendre hommage à tous les pionniers de l’informatique, il existe deux personnes dont la vie et le travail méritent amplement d’être mis en lumière si l’on parle d’informatique et de processeur.

Grâce Hopper : un hommage à « grand-mère COBOL »

L’Américaine Grace Brewster Hopper (1906-1992) pesait moins de 48 kg lorsqu’elle s’est engagée dans la marine américaine, soit environ 7 kg de moins que le poids minimal requis. Dans ce qui allait être l’une des décisions les plus avisées de l’histoire de la marine des États-Unis, la Navy lui a accordé une exemption.

Grace Hopper a su compenser sa petite taille par son énergie et ses ressources intellectuelles. C’était un esprit de premier ordre : à la fois mathématicienne douée, titulaire d’un double doctorat de l’université de Yale en mathématiques et en physique mathématique, professeur de mathématiques réputé au Vassar College, informaticienne pionnière à qui l’on doit la création d’un langage informatique et la rédaction du premier manuel d’informatique, elle était également commandante de la marine, à une époque où les femmes étaient généralement reléguées à des rôles administratifs dans l’armée.

En raison de son travail sur les principaux projets informatiques de son époque, comme le développement du superordinateur UNIVAC après la Seconde Guerre mondiale, Grace Hopper était toujours au cœur de l’action, toujours au bon endroit et au bon moment. Elle avait été témoin d’une grande partie de l’histoire de l’informatique moderne. C’est elle qui a inventé le terme « bug informatique », qui désignait à l’origine un véritable insecte qui s’était retrouvé prisonnier d’un équipement informatique. (L’insecte en question est toujours exposé au National Museum of American History de la Smithsonian Institution, à Washington, DC.)

Tout au long de son travail sur le projet UNIVAC (et plus tard, de la gestion du projet UNIVAC pour la Remington Rand Corporation), Mme Hopper a exprimé sa frustration qu’il n’existât pas de language de programmation plus simple. C’est pourquoi elle s’est lancée dans l’écriture de son propre langage de programmation, connu sous le nom célèbre de COBOL (un acronyme anglais de COmmon Business-Oriented Language).

Robert Noyce, « maire » de la Silicon Valley

Robert Noyce était un homme d’affaires influent et dynamique, le genre de personne qui pouvait faire démarrer une activité par le simple fait de sa présence.

Enfant, l’Américain Robert Noyce (1927-1990), était déjà un inventeur astucieux. Il est parvenu à canaliser sa curiosité intellectuelle dans ses études universitaires de premier cycle, en particulier après avoir découvert deux des transistors originaux créés par Bell Laboratories. A 26 ans, Robert Noyce obtenait un doctorat en physique au Massachusetts Institute of Technology (MIT).

En 1959, il a repris le premier circuit intégré hybride inventé par Jack Kilby en 1958 et a apporté d’importantes modifications au design original. Les améliorations apportées par M. Noyce ont permis la création d’un nouveau type de circuit intégré : le circuit intégré monolithique (également appelé « micropuce »), qui a été fabriqué à partir de silicium. La puce en silicium s’est rapidement imposée, a transformé les industries et a façonné la société de nombreuses manières.

M. Noyce a cofondé deux sociétés particulièrement prospères au cours de sa carrière : Fairchild Semiconductor Corporation (1957) et Intel (1968). Il a été le premier PDG d’Intel, entreprise connue dans le monde entier pour la fabrication de puces.

Dans les deux entreprises, son principal partenaire était Gordon Moore, devenu célèbre pour sa prédiction sur l’industrie des semi-conducteurs, qui s’est avérée si fiable qu’elle ressemble presque à un algorithme. Appelée « loi de Moore », elle postule que le nombre de transistors utilisés dans un circuit intégré double tous les deux ans environ.

Pendant que M. Noyce dirigeait Intel, la société a créé l’Intel 4004, aujourd’hui reconnu comme la puce qui a lancé la révolution des microprocesseurs dans les années 1970. La création de l’Intel 4004 est le fruit d’une collaboration entre Ted Hoff, Stanley Mazor et Federico Faggin (tous trois travaillant pour Intel), et elle est devenue le premier microprocesseur commercialisé.

A la fin du mandat de M. Noyce, la société a également produit l’Intel 8080, le deuxième microprocesseur à 8 bits de la société, qui est apparu pour la première fois en avril 1974. Quelques années plus tard, le fabricant lançait l’Intel 8086, un microprocesseur à 16 bits.

Au cours de son illustre carrière, Robert Noyce a déposé 12 brevets pour diverses créations et a été honoré par trois présidents américains différents pour son travail sur les circuits intégrés et l’impact mondial considérable qu’ils ont eu.

ENIAC : partir à la guerre

Même si cette affirmation peut sembler exagérée en temps de paix, l’avenir du monde était très incertain en 1943. L’issue de la Seconde Guerre mondiale (1939-1945) ne faisait pas l’unanimité, et les protagonistes (forces des Alliés comme celles de l’Axe) espéraient trouver un avantage technologique qui leur permettrait de prendre l’ascendant sur l’ennemi.

Alors que les appareils informatiques en étaient encore à leurs débuts, un chantier titanesque a été créé : le Manhattan Project. Le gouvernement américain a embauché un groupe d’ingénieurs de la Moore School of Electrical Engineering de l’Université de Pennsylvanie. Leur mission était de créer un ordinateur électronique capable de calculer les métrages pour les tables de tir de l’artillerie.

À la demande de l’armée, le projet a été mené par John Mauchly et J. Presper Eckert, Jr. Les travaux ont commencé au début de l’année 1943 et ne se sont terminés que trois ans plus tard.

Le projet (baptisé ENIAC pour « Electronic Numerical Integrator and Computer ») a conduit à la création d’un appareil massif dont l’installation nécessitait une surface au sol d’un peu moins de 140 m², sans parler des 17 000 tubes électroniques en verre, des 70 000 résistances, des 10 000 condensateurs, des 6 000 commutateurs et des 1 500 relais dont il était composé. En 2024, un projet équivalent aurait coûté environ 6,7 millions de dollars.

L’appareil pouvait traiter jusqu’à 5 000 équations par seconde (selon la difficulté de l’équation), une quantité incroyable à l’époque. L’ENIAC était si grand que les utilisateurs pouvaient se tenir à l’intérieur du processeur et programmer la machine en recâblant les connexions entre ses unités fonctionnelles.

L’ENIAC a été utilisé par l’armée américaine pendant le reste de la Seconde Guerre mondiale. Lorsque le conflit a pris fin, la guerre froide commençait, et l’ENIAC s’est vu attribuer de nouvelles tâches. Il devait à présent exécuter des calculs qui permettraient la construction d’une bombe correspondant à une force explosive plus de mille fois supérieure à celle des armes atomiques qui avaient mis fin à la Seconde Guerre mondiale (la bombe à hydrogène).

UNIVAC : retour aux affaires

Après la Seconde Guerre mondiale, les deux leaders du projet ENIAC ont décidé de créer leur propre affaire, avec l’objectif d’introduire l’informatique dans les entreprises américaines. La nouvelle société Eckert-Mauchly Computer Corporation (EMCC) s’est attelée à la création de son produit phare : une version plus petite et moins chère de l’ENIAC, avec diverses améliorations telles que des lecteurs de bande supplémentaires, un clavier et un dispositif de conversion permettant l’utilisation de cartes perforées.

Bien que plus élégant que l’ENIAC, l’UNIVAC, qui a été présenté pour la première fois au public en 1951, avait toujours des dimensions colossales : il pesait plus de 8 tonnes et avait besoin d’une puissance électrique de 125 kW. L’appareil restait également coûteux : environ 11,6 millions de dollars en monnaie d’aujourd’hui.

Il contenait le premier processeur, l’UNIVAC 1103, qui avait été développé en même temps que le reste du projet. L’UNIVAC 1103 utilisait des tubes électroniques en verre, ce qui rendait le processeur volumineux, peu maniable et lent.

Le lot initial d’UNIVAC 1 ne comprenait que 11 unités, ce qui signifie que seules les entreprises et les agences gouvernementales les plus importantes, les mieux financées et les mieux connectées pouvaient avoir accès à cet appareil. Près de la moitié d’entre elles étaient des agences de défense américaines, comme l’US Air Force et la Central Intelligence Agency (CIA). Le tout premier modèle a été acheté par le US Census Bureau.

CBS News possédait l’une de ces machines et l’a utilisée pour prédire, contre toute attente, le résultat de l’élection présidentielle américaine de 1952. C’était là un coup de publicité audacieux, qui a permis au public américain de découvrir les prouesses dont étaient capables les ordinateurs.

Transistors : décupler les capacités en devenant plus petit

Au fur et à mesure que l’informatique s’imposait et était célébrée par tous, une faiblesse demeurait. Les processeurs avaient un problème récurrent avec les tubes électroniques utilisés. Il s’agissait en réalité d’un problème mécanique : les tubes électroniques en verre étaient extrêmement délicats et se cassaient facilement.

Le fabricant s’est donné beaucoup de mal pour venir en aide à ses clients, dont les ordinateurs s’arrêtaient simplement dès qu’un tube cessait de fonctionner.

Le fabricant soumettait ses tubes à des tests rigoureux, sélectionnait les plus robustes et les tenait en réserve pour toute demande urgente des clients.

Autre problème : la taille de la machine. Les tubes électroniques qui composaient le processeur étaient particulièrement encombrants, et les concepteurs souhaitaient parvenir à la même puissance de traitement avec un appareil beaucoup plus petit.

En 1953, un étudiant de l’université de Manchester a montré qu’il était possible de construire un ordinateur entièrement basé sur des transistors (lien externe à ibm.com).

Les transistors de l’époque étaient difficiles à utiliser, en grande partie parce qu’ils étaient fabriqués à partir de germanium, une substance difficile à purifier et qui devait être maintenue dans une plage de température précise.

En 1954, le laboratoire Bell a commencé à tester d’autres substances, notamment le silicium. Après une longue phase de recherche, des scientifiques comme Mohamed Italia et Dawn Kahng ont trouvé en 1960 une formule pour le transistor moderne à effet de champ à grille métal-oxyde (« metal-oxide-semiconductor field-effect transistor » ou MOSFET, ou encore transistor MOS), l’« appareil le plus fabriqué de l’histoire » (lien externe à ibm.com) selon le Computer History Museum. En 2018, on a estimé que 13 trilliards de transistors MOS avaient été fabriqués.

L’avènement du microprocesseur

La quête de la miniaturisation s’est poursuivie jusqu’à ce que les informaticiens créent un processeur si petit qu’il peut être contenu dans une petite puce de circuit intégré, le microprocesseur.

Les microprocesseurs sont caractérisés par le nombre de cœurs qu’ils prennent en charge. Un cœur de processeur est un « cerveau dans le cerveau », qui sert d’unité de traitement physique au sein d’un processeur. Les microprocesseurs peuvent contenir de nombreux processeurs. À l’inverse, un cœur physique est un processeur intégré à une puce, mais qui n’occupe qu’un socket, ce qui permet à d’autres cœurs physiques d’exploiter le même environnement informatique.

Voici quelques-uns des autres termes utilisés en relation avec les microprocesseurs :

  • Processeurs monocœurs : les processeurs monocœur contiennent une seule unité de traitement. Ils se caractérisent généralement par des performances plus lentes, fonctionnent sur un seul thread et exécutent les instructions une par une dans le cycle d’instructions du processeur.
  • Processeurs double cœur : les processeurs double cœur sont équipés de deux unités de traitement contenues dans un circuit intégré. Les deux cœurs fonctionnent en même temps, ce qui double les taux de performance pour une meilleure efficacité.
  • Processeurs quadricœurs : les processeurs quadricœurs contiennent quatre unités de traitement au sein d'un seul circuit intégré. Tous les cœurs fonctionnent simultanément et multiplient par quatre les taux de performance.
  • Processeurs multicœurs : les processeurs multicœurs sont des circuits intégrés équipés d’au moins deux cœurs de processeur. Ils offrent des performances optimales et permettent une consommation d’énergie optimisée.

Principaux fabricants de processeurs

Quelques entreprises proposent désormais différentes gammes dont les produits complètent ou améliorent les processeurs. Le marché des processeurs lui-même, qui attirait autrefois de nombreux acteurs, dont des fabricants grand public comme Motorola, a beaucoup changé. Il ne reste désormais plus que deux géants : Intel et AMD.

Chacun utilise des architectures ISA (« Instruction Set Software ») différentes. Ainsi, alors que les processeurs AMD reposent sur l’architecture RISC (« Reduced Instruction Set Computer »), les processeurs Intel suivent une architecture CISC (« Complex Instruction Set Computer »).

  • Advanced Micro Devices (AMD) – AMD commercialise des processeurs et des microprocesseurs sous la forme de deux types de produits : les CPU (unités centrales de calcul) et les APU (unités de traitement accéléré). Les APU sont simplement des CPU équipés de graphiques Radeon propriétaires. Les processeurs Ryzen d’AMD sont des microprocesseurs à haute vitesse et à haute performance destinés au marché des jeux vidéo. Les processeurs Athlon étaient autrefois considérés comme la ligne haut de gamme d’AMD, mais AMD les utilise désormais comme produit généraliste.
  • Arm : Arm ne fabrique pas réellement des pièces d’équipement ; il loue ses précieux processeurs et/ou d’autres technologies propriétaires à d’autres entreprises qui fabriquent des équipements. Apple, par exemple, n’utilise plus les puces Intel dans les processeurs Mac, mais fabrique ses propres processeurs personnalisés sur la base des designs d’Arm. D’autres entreprises commencent à suivre le même exemple.
  • Intel : Intel vend des processeurs et des microprocesseurs dans quatre gammes de produits. Sa gamme premium est Intel Core, qui comprend des modèles de processeurs comme le Core i3. Les processeurs Xeon d’Intel sont destinés aux bureaux et aux entreprises. Les gammes Celeron et Intel Pentium (représentées par des modèles comme les processeurs monocœurs Pentium 4) sont considérées comme plus lentes et moins puissantes que la gamme Core.

Comprendre le rôle des processeurs

Quand nous envisageons les processeurs, nous pouvons penser aux différents composants qu’ils contiennent et qu’ils utilisent. Nous pouvons également nous souvenir que la conception des processeurs est passée des dispositifs surdimensionnés (lors des premières tentatives) à la période moderne de miniaturisation.

Mais malgré toutes les transformations apportées à ses dimensions ou à son apparence, le processeur reste en quelque sorte le même, car il est particulièrement efficace dans les tâches qu’il remplit. Vous savez qu’il fonctionne correctement et qu’il est fiable, opération après opération.

Une informatique de qualité repose sur l’utilisation d’un équipement approprié et sur lequel vous pouvez compter. IBM construit des serveurs robustes, conçus pour résister à tous les problèmes que l’espace de travail moderne peut leur imposer. Trouvez les serveurs IBM dont vous avez besoin pour obtenir les résultats que doit atteindre votre organisation.

 

Auteur

Phill Powell

Staff Writer