Mein IBM Anmelden Abonnieren

Die Geschichte der zentralen Recheneinheit (CPU)

20. Mai 2024

Lesedauer: 10 Minuten

Die zentrale Recheneinheit (CPU) ist das Gehirn des Computers. Sie übernimmt die Zuweisung und Verarbeitung von Aufgaben sowie Funktionen, die einen Computer zum Laufen bringen.

Die Bedeutung der CPU für die Datenverarbeitung kann gar nicht hoch genug eingeschätzt werden. Praktisch alle Computersysteme enthalten zumindest eine Art von Basis-CPU. Unabhängig davon, ob sie in PCs, Laptops, Tablets, Smartphones oder sogar in Supercomputern verwendet werden, deren Leistung so stark ist, dass sie in Gleitkommaoperationen pro Sekunde gemessen werden muss, sind CPUs das einzige Teil von Computern, auf das nicht verzichtet werden kann. Unabhängig von technologischen Fortschritten bleibt die Wahrheit bestehen: Wenn Sie die CPU entfernen, haben Sie einfach keinen Computer mehr.

Neben der Verwaltung der Computeraktivität tragen CPUs dazu bei, die Push-and-Pull-Beziehung zwischen Datenspeicher und Arbeitsspeicher zu ermöglichen und zu stabilisieren. Die CPU dient als Vermittler und interagiert mit dem Primärspeicher (oder Hauptspeicher), wenn sie auf Daten aus dem Arbeitsspeicher (RAM) des Betriebssystems zugreifen muss. Andererseits ist der Read-Only Memory (ROM) für die permanente und in der Regel langfristige Datenspeicherung konzipiert.

CPU-Komponenten

Moderne CPUs in elektronischen Computern enthalten in der Regel die folgenden Komponenten:

  • Steuereinheit: Enthält eine intensive Schalttechnik, die das Computersystem durch die Ausgabe eines Systems elektrischer Impulse steuert und das System anweist, hochrangige Computerbefehle auszuführen.
  • Arithmetisch-logische Einheit (ALU): Führt alle arithmetischen und logischen Operationen aus, einschließlich mathematischer Gleichungen und logikbasierter Vergleiche, die mit bestimmten Computeraktionen verbunden sind.
  • Speichereinheit: Verwaltet die Speichernutzung und den Datenfluss zwischen RAM und CPU. Außerdem überwacht sie die Handhabung des Cache-Speichers.
  • Cache: Enthält Speicherbereiche, die in den Prozessorchip einer CPU integriert sind, um Daten noch schneller abzurufen, als dies mit RAM möglich ist.
  • Register: Bietet einen integrierten permanenten Speicher für konstante, wiederholte Datenanforderungen, die regelmäßig und sofort bearbeitet werden müssen.
  • Taktgeber: Steuert die Schaltkreise der CPU durch Übertragung elektrischer Impulse. Die Übertragungsrate dieser Impulse wird als Taktfrequenz bezeichnet und in Hertz (Hz) oder Megahertz (MHz) gemessen.
  • Befehlsregister und -zeiger: Zeigt den Speicherort des nächsten Befehlssatzes an, der von der CPU ausgeführt werden soll.
  • Busse: Gewährleisten die ordnungsgemäße Datenübertragung und den Datenfluss zwischen den Komponenten eines Computersystems.

Wie funktionieren CPUs?

CPUs funktionieren durch eine Art wiederholten Befehlszyklus, der von der Steuerungseinheit in Verbindung mit der Computeruhr verwaltet wird, die die Synchronisierung unterstützt.

Die Arbeit, die eine CPU leistet, erfolgt nach einem festgelegten Zyklus (dem sogenannten CPU-Befehlszyklus). Der CPU-Befehlszyklus legt eine bestimmte Anzahl von Wiederholungen fest. Dies ist die Anzahl der Wiederholungen der grundlegenden Rechenanweisungen, sofern die Verarbeitungsleistung des entsprechenden Computers es zulässt.

Zu den grundlegenden Rechenanweisungen gehören folgende:

  • Abruf: Abrufe erfolgen immer dann, wenn Daten aus dem Speicher abgerufen werden.
  • Decodieren: Der Decoder in der CPU übersetzt binäre Befehle in elektrische Signale, die andere Teile der CPU ansprechen.
  • Ausführen: Eine Ausführung erfolgt, wenn Computer die Anweisungen eines Computerprogramms interpretieren und ausführen.

Mit einigen grundlegenden Basteleien kann die Computeruhr in einer CPU so manipuliert werden, dass die Zeit schneller läuft, als sie normalerweise verstreicht. Einige Benutzer tun dies, um ihren Computer schneller laufen zu lassen. Diese Vorgehensweise („Übertakten“) ist jedoch nicht ratsam, da sie dazu führen kann, dass Computerteile schneller als normal verschleißen und sogar die Garantie des CPU-Herstellers verletzt werden kann.

Auch die Verarbeitungsstile können angepasst werden. Eine Möglichkeit, diese zu manipulieren, ist die Implementierung von Anweisungs-Pipelining, das darauf abzielt, Parallelität auf Anweisungsebene in einem einzelnen Prozessor zu erzeugen. Das Ziel des Pipelining besteht darin, jeden Teil des Prozessors zu beschäftigen, indem eingehende Computerbefehle aufgeteilt und gleichmäßig auf die Prozessoreinheiten verteilt werden. Anweisungen werden in kleinere Anweisungen oder Schritte unterteilt.

Eine weitere Methode, um Parallelität auf Instruktionsebene innerhalb eines einzelnen Prozessors zu erreichen, ist die Verwendung einer CPU, die als superskalarer Prozessor bezeichnet wird. Während Skalarprozessoren maximal eine Anweisung pro Taktzyklus ausführen können, gibt es für die Anzahl der Anweisungen, die ein Superskalarprozessor verarbeiten kann, praktisch keine Begrenzung. Er sendet mehrere Anweisungen an verschiedene Ausführungseinheiten des Prozessors und steigert so den Durchsatz.

Wer hat die CPU erfunden?

Bahnbrechende Technologien haben oft mehr als nur einen „Elternteil“. Je komplexer und weltbewegender diese Technologie ist, desto mehr Einzelpersonen sind in der Regel für diese Geburt verantwortlich.

Im Fall der CPU – eine der wichtigsten Erfindungen der Geschichte – geht es eigentlich darum, wer den Computer selbst erfunden hat.

Anthropologen verwenden den Begriff „unabhängige Erfindung“, um Situationen zu beschreiben, in denen verschiedene Personen, die sich in verschiedenen Ländern und in relativer Isolation befinden, ähnliche oder komplementäre Ideen oder Erfindungen entwickeln, ohne voneinander zu wissen.

In Bezug auf die CPU (oder den Computer) gab es wiederholt unabhängige Erfindungen, die zu verschiedenen Entwicklungsschüben in der Geschichte der CPUs führten.

Die beiden Giganten der Computerbranche

Auch wenn in diesem Artikel nicht alle frühen Pioniere der Informatik gewürdigt werden können, gibt es zwei Menschen, deren Leben und Werk näher beleuchtet werden müssen. Beide standen in direktem Zusammenhang mit dem Computer und der CPU:

Grace Hopper: Hommage an „Grandma COBOL“

Die Amerikanerin Grace Brewster Hopper (1906-1992) wog nur knapp 48 Kilogramm, als sie sich bei der US-Marine verpflichtete – 7 Kilogramm unter dem erforderlichen Gewichtslimit. Und in einer der klügsten Entscheidungen der US-Seefahrtsgeschichte erteilte die Marine eine Ausnahmegenehmigung und nahm sie trotzdem auf.

Was Grace Hopper an Körpergröße fehlte, machte sie durch Tatkraft und eine vielseitige Begabung wett. Sie war eine Universalgelehrte ersten Ranges: eine begabte Mathematikerin mit zwei Doktortiteln der Yale University in Mathematik und mathematischer Physik, eine renommierte Professorin für Mathematik am Vassar College, eine wegweisende Informatikerin, der die Entwicklung einer Computersprache und die Erstellung des ersten Computerhandbuchs zugeschrieben wird, und eine Marinekommandantin (zu einer Zeit, als Frauen im Militär selten über administrative Positionen hinauskamen).

Aufgrund ihrer Arbeit an führenden Computerprojekten ihrer Zeit, wie der Entwicklung des UNIVAC-Supercomputers nach dem Zweiten Weltkrieg, schien Hopper immer mitten im Geschehen zu sein – zur richtigen Zeit am richtigen Ort. Sie hatte einen Großteil der modernen Computergeschichte persönlich miterlebt. Sie war die Person, die ursprünglich den Begriff des „Computer-Bugs“ prägte, indem sie eine echte Motte beschrieb, die sich in einem Computerbauteil verfangen hatte. (Die Original-Motte ist noch heute im National Museum of American History der Smithsonian Institution in Washington, D.C., ausgestellt.)

Während ihrer Arbeit am UNIVAC-Projekt (und später als Leiterin des UNIVAC-Projekts für die Remington Rand Corporation) frustrierte es Hopper, dass es keine einfachere Programmiersprache gab, die verwendet werden konnte. Also machte sie sich daran, ihre eigene Programmiersprache zu schreiben, die später als COBOL (ein Akronym für COmmon Business-Oriented Language) bekannt wurde.

Robert Noyce: Der Bürgermeister von Silicon Valley

Robert Noyce war ein Macher im klassischen Sinne – eine Person, die allein durch ihre Anwesenheit erstaunliche Aktivitäten in Gang setzen konnte.

Der Amerikaner Robert Noyce (1927–1990) war schon als Kind ein genialer Erfinder. Später lenkte er seine intellektuelle Neugier auf seine Bachelor-Arbeit, insbesondere nachdem ihm zwei der von den Bell Laboratories entwickelten Original-Transistoren gezeigt wurden. Mit 26 Jahren erwarb Noyce einen Doktortitel in Physik am Massachusetts Institute of Technology (MIT).

Im Jahr 1959 entwickelte er auf der Grundlage von Jack Kilbys Erfindung der ersten Hybrid-ICs aus dem Jahr 1958 eine neue Version, die er gegenüber dem ursprünglichen Design erheblich veränderte. Noyces Verbesserungen führten zu einer neuen Art von integrierten Schaltungen: der monolithischen integrierten Schaltung (auch Mikrochip genannt), die aus Silizium hergestellt wurde. Bald wurde der Siliziumchip zu einer Offenbarung, die ganze Branchen veränderte und die Gesellschaft auf neue Weise prägte.

Noyce war während seiner beruflichen Laufbahn Mitbegründer von zwei äußerst erfolgreichen Unternehmen: Fairchild Semiconductor Corporation (1957) und Intel (1968). Er war der erste CEO von Intel, dem Unternehmen, das weltweit für die Herstellung von Prozessoren bekannt ist.

Sein Partner bei beiden Unternehmungen war Gordon Moore, der für seine Vorhersage über die Halbleiterindustrie berühmt wurde, die sich als so zuverlässig erwies, dass sie fast wie ein Algorithmus anmutete. Das sogenannte „Moore'sche Gesetz“ besagt, dass sich die Anzahl der in einem integrierten Schaltkreis verwendeten Transistoren etwa alle zwei Jahre verdoppelt.

Während Noyce Intel leitete, produzierte das Unternehmen den Intel 4004, der heute als der Chip gilt, der die Mikroprozessor-Revolution der 1970er Jahre einleitete. Die Entwicklung des Intel 4004 war das Ergebnis einer Zusammenarbeit zwischen Ted Hoff, Stanley Mazor und Federico Faggin von Intel und war der erste Mikroprozessor, der jemals kommerziell angeboten wurde.

Gegen Ende seiner Amtszeit produzierte das Unternehmen auch den Intel 8080 – den zweiten 8-Bit-Mikroprozessor des Unternehmens, der erstmals im April 1974 auf den Markt kam. Ein paar Jahre später brachte der Hersteller den Intel 8086 auf den Markt, einen 16-Bit-Mikroprozessor.

Während seiner glanzvollen Karriere meldete Robert Noyce 12 Patente für verschiedene Erfindungen an und wurde von drei verschiedenen US-Präsidenten für seine Arbeit an integrierten Schaltkreisen und deren enorme globale Auswirkungen geehrt.

ENIAC: Auf dem Weg in den Krieg

Es mag übertrieben dramatisch klingen, aber 1943 stand das Schicksal der Welt tatsächlich auf dem Spiel. Der Ausgang des Zweiten Weltkriegs (1939–1945) war noch völlig offen, und sowohl die Alliierten als auch die Achsenmächte versuchten, sich durch jede Art von technologischem Vorteil einen Vorteil gegenüber dem Feind zu verschaffen.

Computersysteme steckten noch in den Kinderschuhen, als ein Projekt ins Leben gerufen wurde, das in seiner Art so monumental war wie das Manhattan-Projekt. Die US-Regierung engagierte eine Gruppe von Ingenieuren der Moore School of Electrical Engineering an der University of Pennsylvania. Die Mission bestand darin, einen elektronischen Computer zu bauen, der in der Lage ist, Entfernungsangaben für Artillerie-Entfernungstabellen zu berechnen.

Das Projekt wurde auf Wunsch des Militärs von John Mauchly und J. Presper Eckert Jr. geleitet. Die Arbeit an dem Projekt begann Anfang 1943 und endete erst 3 Jahre später.

Das im Rahmen des Projekts entwickelte Gerät – genannt ENIAC, was für „Electronic Numerical Integrator And Computer“ steht – war in Wirklichkeit eine riesige Installation mit einer Grundfläche von 140 Quadratmetern, und es wurden 17.000 Glasvakuumröhren, 70.000 Widerstände, 10.000 Kondensatoren, 6.000 Schalter und 1.500 Relais verbaut. In der Währung von 2024 hätte das Projekt 6,7 Millionen USD gekostet.

Es konnte bis zu 5.000 Gleichungen pro Sekunde verarbeiten (je nach Gleichung), was aus historischer Sicht eine erstaunliche Menge ist. ENIAC war so groß, dass man innerhalb der CPU stehen und die Maschine programmieren konnte, indem man die Verbindungen zwischen den Funktionseinheiten in der Maschine neu verdrahtete.

ENIAC wurde im weiteren Verlauf des Zweiten Weltkriegs von der US-Armee eingesetzt. Doch als dieser Konflikt endete, begann der Kalte Krieg und ENIAC erhielt neue Marschbefehle. Dieses Mal sollte es Berechnungen durchführen, die den Bau einer Bombe mit mehr als tausendfacher Sprengkraft der Atomwaffen ermöglichen sollten, die den Zweiten Weltkrieg beendeten: die Wasserstoffbombe.

UNIVAC: Zurück zum Tagesgeschäft

Nach dem Zweiten Weltkrieg beschlossen die beiden Leiter des ENIAC-Projekts, ein Unternehmen zu gründen und die Computertechnik in die amerikanische Geschäftswelt einzuführen. Die neu benannte Eckert-Mauchly Computer Corporation (EMCC) machte sich daran, ihr Vorzeigeprodukt vorzubereiten – eine kleinere und günstigere Version des ENIAC mit verschiedenen Verbesserungen wie zusätzlichen Bandlaufwerken, einer Tastatur und einem Konvertergerät, das die Verwendung von Lochkarten ermöglichte.

Obwohl der 1951 der Öffentlichkeit vorgestellte UNIVAC-Computer schlanker war als der ENIAC, war er mit einem Gewicht von über 8 Tonnen und einem Energieverbrauch von 125 kW immer noch ein Koloss. Und immer noch teuer: Umgerechnet etwa 11,6 Millionen USD.

Als CPU enthielt es die erste CPU – die UNIVAC 1103 –, die zur gleichen Zeit wie der Rest des Projekts entwickelt wurde. Der UNIVAC 1103 verwendete Glasvakuumröhren, wodurch die CPU groß, unhandlich und träge wurde.

Die ursprüngliche Charge des UNIVAC 1 war auf eine Auflage von 11 Maschinen beschränkt, was bedeutete, dass nur die größten, am besten finanzierten und am besten vernetzten Unternehmen oder Regierungsbehörden einen UNIVAC erwerben konnten. Fast die Hälfte davon waren US-Verteidigungsbehörden wie die US-Luftwaffe und die Central Intelligence Agency (CIA). Das allererste Modell wurde vom U.S. Census Bureau gekauft.

CBS News hatte eine der Maschinen und setzte sie bekanntermaßen ein, um das Ergebnis der US-Präsidentschaftswahlen 1952 entgegen aller Wahrscheinlichkeiten korrekt vorherzusagen. Es war ein gewagter Publicity-Stunt, der die amerikanische Bevölkerung mit den Wundern vertraut machte, die Computer vollbringen konnten.

Transistoren: Klein aber fein

Als die Rechenleistung immer mehr an Bedeutung gewann und gefeiert wurde, wurde auch ihre größte Schwäche deutlich. CPUs hatten ein anhaltendes Problem mit den verwendeten Vakuumröhren. Im Grunde war es ein mechanisches Problem: Die Glasvakuumröhren waren extrem empfindlich und gingen leicht zu Bruch.

Das Problem war so ausgeprägt, dass der Hersteller große Anstrengungen unternahm, um eine provisorische Lösung für seine vielen aufgebrachten Kunden zu finden, deren Computer ohne funktionierende Röhren nicht mehr funktionierten.

Der Hersteller der Röhren führte in der Fabrik regelmäßig Tests durch, bei denen die Röhren unterschiedlich stark beansprucht und unsachgemäß behandelt wurden, bevor er aus diesen Chargen die „widerstandsfähigsten“ Röhren auswählte, die als Reserve für Notfallanfragen von Kunden bereitgehalten wurden.

Das andere Problem mit den Vakuumröhren in CPUs betraf die Größe der Rechenmaschine selbst. Die Röhren waren sperrig und die Entwickler suchten nach einer Möglichkeit, die Rechenleistung der Röhre in ein viel kleineres Gerät zu integrieren.

1953 zeigte ein Forschungsstudent an der Universität Manchester, dass man einen vollständig transistorbasierten Computer (Link befindet sich außerhalb von ibm.com) bauen kann.

Die Arbeit mit den ursprünglichen Transistoren war schwierig, vor allem, weil sie aus Germanium gefertigt waren, einer Substanz, die sich nur schwer reinigen ließ und in einem präzisen Temperaturbereich gehalten werden musste.

1954 begannen die Wissenschaftler des Bell Laboratory mit anderen Substanzen zu experimentieren, darunter auch mit Silizium. Die Wissenschaftler von Bell (Mohamed Italia und Dawn Kahng) verfeinerten die Verwendung von Silizium immer weiter und fanden 1960 eine Formel für den Metall-Oxid-Halbleiter-Feldeffekttransistor (auch MOSFET oder MOS-Transistor genannt), den modernen Transistor, der vom Computer History Museum als das „am häufigsten hergestellte Gerät in der Geschichte“ (Link befindet sich außerhalb von ibm.com) gefeiert wurde. Im Jahr 2018 wurden schätzungsweise 13 Sextillionen MOS-Transistoren hergestellt.

Das Aufkommen des Mikroprozessors

Der Drang zur Miniaturisierung hielt an, bis Informatiker eine CPU entwickelten, die so klein war, dass sie in einem kleinen integrierten Schaltkreis untergebracht werden konnte, dem sogenannten Mikroprozessor.

Mikroprozessoren werden durch die Anzahl der Kerne, die sie unterstützen, gekennzeichnet. Ein CPU-Kern ist das „Gehirn im Gehirn“ und dient als physische Verarbeitungseinheit innerhalb einer CPU. Mikroprozessoren können mehrere Prozessoren enthalten. Ein physischer Kern ist hingegen eine CPU, die in einen Chip eingebaut ist, aber nur einen Sockel belegt, sodass andere physische Kerne dieselbe Rechenumgebung nutzen können.

Hier sind einige der anderen Hauptbegriffe, die in Bezug auf Mikroprozessoren verwendet werden:

  • Single-Core-Prozessoren: Single-Core-Prozessoren enthalten eine einzelne Verarbeitungseinheit. Sie zeichnen sich in der Regel durch eine langsamere Leistung aus, laufen auf einem einzelnen Thread und führen einen CPU-Befehlszyklus nach dem anderen aus.
  • Dual-Core-Prozessoren: Dual-Core-Prozessoren sind mit zwei Recheneinheiten ausgestattet, die in einem integrierten Schaltkreis untergebracht sind. Beide Kerne laufen gleichzeitig, wodurch sich die Leistungsraten effektiv verdoppeln.
  • Quad-Core-Prozessoren: Quad-Core-Prozessoren bestehen aus vier Recheneinheiten in einem einzigen integrierten Schaltkreis. Alle Kerne laufen gleichzeitig, wodurch sich die Leistung vervierfacht.
  • Multi-Core-Prozessoren: Multi-Core-Prozessoren sind integrierte Schaltkreise, die mit mindestens zwei Prozessorkernen ausgestattet sind, sodass sie eine überragende Leistung und einen optimierten Stromverbrauch bieten können.

Führende CPU-Hersteller

Mehrere Unternehmen stellen nun Produkte her, die CPUs verschiedener Marken unterstützen. Diese Marktnische hat sich jedoch dramatisch verändert, da sie früher zahlreiche Akteure anzog, darunter viele etablierte Hersteller (z. B. Motorola). Jetzt gibt es wirklich nur noch ein paar Hauptakteure: Intel und AMD.

Sie verwenden unterschiedliche Befehlssatzarchitekturen (ISA). Während AMD-Prozessoren also auf der RISC-Architektur (Reduced Instruction Set Computer) basieren, folgen Intel-Prozessoren einer CISC-Architektur (Complex Instruction Set Computer).

  • Advanced Micro Devices (AMD): AMD verkauft Prozessoren und Mikroprozessoren in zwei Produkttypen: CPUs und APUs (Accelerated Processing Units). In diesem Fall sind APUs einfach CPUs, die mit proprietären Radeon-Grafikkarten ausgestattet wurden. Die Ryzen-Prozessoren von AMD sind Hochgeschwindigkeits- und Hochleistungs-Mikroprozessoren, die für den Videospielmarkt bestimmt sind. Athlon-Prozessoren galten früher als die High-End-Produktlinie von AMD, aber AMD verwendet sie jetzt als Allzweckalternative.
  • Arm: Arm stellt selbst keine Geräte her, sondern vermietet seine geschätzten Prozessordesigns und/oder andere proprietäre Technologien an andere Unternehmen, die Geräte herstellen. Apple beispielsweise verwendet keine Intel-Chips mehr in Mac-CPUs, sondern stellt seine eigenen maßgeschneiderten Prozessoren auf der Grundlage von Arm-Designs her. Andere Unternehmen folgen diesem Beispiel.
  • Intel: Intel verkauft Prozessoren und Mikroprozessoren über vier Produktlinien. Die Premium-Produktlinie ist Intel Core, einschließlich Prozessormodellen wie dem Core i3. Die Xeon-Prozessoren von Intel werden für Büros und Unternehmen vermarktet. Die Celeron- und Pentium-Produktlinien von Intel (vertreten durch Modelle wie die Pentium 4 Single-Core-CPUs) gelten als langsamer und weniger leistungsstark als die Core-Produktlinie.

Die zuverlässige Rolle von CPUs verstehen

Bei der Betrachtung von CPUs können wir über die verschiedenen Komponenten nachdenken, die CPUs enthalten und verwenden. Wir können auch darüber nachdenken, wie sich das CPU-Design von seinen frühen übergroßen Experimenten zu seiner modernen Phase der Miniaturisierung entwickelt hat.

Aber trotz aller Veränderungen in Größe und Aussehen bleibt die CPU standhaft sie selbst und erledigt ihre Arbeit weiterhin – weil sie ihre Aufgabe so gut beherrscht. Sie wissen, dass Sie sich darauf verlassen können, dass es jedes Mal richtig funktioniert.

Intelligente Datenverarbeitung hängt von der richtigen Ausrüstung ab, auf die Sie sich verlassen können. IBM baut seine Server robust, damit sie alle Probleme bewältigen, die der moderne Workplace für sie bereithält. Finden Sie die IBM-Server, die Sie benötigen, um die Ergebnisse zu erzielen, auf die sich Ihr Unternehmen verlässt.

 

Autor

Phill Powell

Staff Writer