Startseite
Think
Themen
CPU
Veröffentlicht: 10. Mai 2024
Mitwirkende: Phill Powell, Ian Smalley
Eine Zentrale Recheneinheit (CPU) ist die wichtigste Funktionskomponente eines Computers. Die CPU ist eine Ansammlung elektronischer Schaltkreise, die das Betriebssystem und die Apps eines Computers ausführen und eine Vielzahl anderer Computervorgänge verwalten.
Eine CPU ist im Wesentlichen das aktive Gehirn des Computers. Sie ist der unsichtbare Manager innerhalb des Computers, wo Dateneingaben in Informationsausgaben umgewandelt werden. Sie speichert Programmanweisungen und führt sie über ihre riesigen Schaltkreisnetzwerke aus.
Wie das menschliche Gehirn ist auch die CPU zu Multitasking in der Lage. Das bedeutet, dass sie auch der Teil des Computers ist, der gleichzeitig die internen Funktionen des Computers reguliert, den Stromverbrauch überwacht, Computerressourcen zuweist und Schnittstellen zu verschiedenen Apps, Programmen und Netzwerken bietet.
Wenn Sie immer noch nicht davon überzeugt sind, wie wichtig CPUs für die Datenverarbeitung sind, sollten Sie Folgendes in Betracht ziehen: Die CPU ist das eine Teil, das in jedem Computer zu finden ist, unabhängig von Größe oder Verwendungszweck dieses Computers. Wenn Sie dies auf einem Smartphone, Laptop oder PC lesen, verwenden Sie in diesem Moment eine CPU.
Auch wenn der Begriff „CPU“ so klingt, als ob wir über ein einzelnes Gerät sprechen würden, ist das nicht der Fall. Die CPU ist eigentlich eine Ansammlung verschiedener Computerkomponenten, die auf hochgradig orchestrierte Weise zusammenarbeiten.
Dieser Bericht untersucht die Schnittmenge von Informationstechnologie (IT) und autonomen Operationen und wie Ihr Unternehmen von der Integration von KI und Automatisierung in seine IT profitieren kann.
Bevor wir auf die verschiedenen Komponenten einer CPU und deren Zusammenspiel eingehen, sollten wir uns zunächst mit zwei wesentlichen Konzepten vertraut machen, die die Datenverarbeitung vorantreiben: Datenspeicherung und Arbeitsspeicher.
Auch hier ähnelt die CPU dem menschlichen Gehirn, da beide ein Kurzzeitgedächtnis und ein Langzeitgedächtnis haben. Der Standardbetriebsspeicher einer CPU speichert RAM-Daten nur „im Moment“ – ähnlich dem Kurzzeitgedächtnis einer Person – bevor sie regelmäßig aus dem Cache des Computers gelöscht werden.
Sekundärspeicher sind mit dem menschlichen Langzeitgedächtnis vergleichbar und umfassen die dauerhafte oder langfristige Speicherung von Daten durch ihre Archivierung auf sekundären Speichergeräten wie z. B. Festplatten. Ausgabegeräte wie Festplatten bieten permanenten Speicher. Bei der dauerhaften Speicherung handelt es sich um schreibgeschützten Speicher (ROM), was bedeutet, dass auf Daten zugegriffen werden kann, diese aber nicht bearbeitet oder geändert werden können.
Im Folgenden sind die drei Hauptkomponenten einer CPU aufgeführt.
Die Steuereinheit der CPU beherbergt Schaltkreise, die das Computersystem durch ein System elektrischer Impulse führen und es benachrichtigen, um Computerbefehle auf hoher Ebene auszuführen. Doch trotz des Namens steuert die Steuereinheit selbst keine einzelnen Apps oder Programme. Stattdessen werden diese Aufgaben zugewiesen, so wie ein menschlicher Manager verschiedenen Mitarbeitern bestimmte Aufgaben zuweist.
Die Recheneinheit (Arithmetic/Logic Unit, ALU) übernimmt alle arithmetischen Operationen und logischen Operationen. Die mathematische Funktionalität basiert auf vier Arten von Operationen (Addition, Subtraktion, Multiplikation und Division). Logische Operationen beinhalten in der Regel eine Art von Vergleich (z. B. von Buchstaben, Zahlen oder Sonderzeichen), der mit einer bestimmten Computeraktion verbunden ist.
Die Speichereinheit übernimmt mehrere Schlüsselfunktionen im Zusammenhang mit der Speichernutzung, von der Verwaltung des Datenflusses zwischen RAM und CPU bis hin zur Überwachung der wichtigen Arbeit des Cache-Speichers. Speichereinheiten enthalten alle Arten von Daten und Anweisungen, die für die Datenverarbeitung erforderlich sind, und bieten Speicherschutzmaßnahmen.
Folgende CPU-Komponenten sind ebenfalls essentiell:
Die CPU-Funktionalität wird von der Steuereinheit übernommen, wobei die Synchronisation von der Computeruhr unterstützt wird. Die CPU-Arbeit erfolgt nach einem festgelegten Zyklus, dem sogenannten CPU-Befehlszyklus, der eine bestimmte Anzahl von Wiederholungen der folgenden grundlegenden Rechenanweisungen erfordert, je nach der Verarbeitungsleistung des entsprechenden Computers:
Es sollte erwähnt werden, dass mit einigen grundlegenden Basteleien die Computeruhr in einer CPU so manipuliert werden kann, dass die Zeit schneller läuft, als sie normalerweise verstreicht. Einige Benutzer tun dies, um ihren Computer schneller laufen zu lassen. Diese Vorgehensweise ist jedoch nicht ratsam, da sie dazu führen kann, dass Computerteile früher als normal verschleißen und die Garantien des CPU-Herstellers verletzt werden.
Computer werden heute als ein so grundlegender Bestandteil des modernen Lebens verstanden, dass es sich anfühlt, als wären sie schon immer da gewesen. Aber das ist natürlich nicht der Fall.
Man sagt, dass die Technologie auf den Schultern von Giganten steht. In der Geschichte der Computertechnik gab es zum Beispiel frühe Visionäre, deren verschiedene Experimente und Schriften die nächste Generation von Denkern prägten, die wiederum weitere Ideen über das Potenzial der Computertechnik hatten, und so weiter.
In der Neuzeit begann die Geschichte der Computertechnik im Zuge eines Konflikts. Während des Zweiten Weltkriegs beauftragte die US-Regierung eine Gruppe der Moore School of Electrical Engineering an der University of Pennsylvania. Ihre Mission war es, einen vollständig elektronischen Computer zu entwickeln, der Entfernungsangaben für Artillerie-Reichweitentabellen genau berechnen konnte. Unter der Leitung des Physikers John Mauchly und des Ingenieurs J. Presper Eckert Jr. begannen die Arbeiten Anfang 1943.
Die Rechenmaschine, die sie Anfang 1946 fertigstellten, hieß ENIAC (Link befindet sich außerhalb von ibm.com) — und das war buchstäblich und bildlich eine riesige Entwicklung.
Die Kosten für ENIAC beliefen sich auf 400.000 US-Dollar (inflationsbereinigt etwa 6,7 Millionen US-Dollar im Jahr 2024). Sie wurde in einem Keller der Moore School errichtet und nahm satte 1.500 Quadratmeter Grundfläche ein. Es wurde eine atemberaubende Anzahl von Computerkomponenten benötigt, darunter mehr als 17.000 Vakuumröhren, 70.000 Widerstände, 10.000 Kapazitäten, 6.000 Schalter und 1.500 Relays. In einer vielsagenden Vorahnung erzeugten die Vakuumröhren so viel Wärme, dass ENIAC eine eigene spezielle Klimaanlage benötigte.
Obwohl ENIAC über eine primitive CPU verfügte, war sie für ihre Zeit ein Wunderwerk und konnte bis zu 5.000 Gleichungen pro Sekunde verarbeiten. Als der Zweite Krieg endete, wurde ENIAC sofort in den sich abzeichnenden Kalten Krieg auf amerikanischer Seite einbezogen. Ihre erste Aufgabe bestand darin, Berechnungen für den Bau einer neuen Waffe durchzuführen – der Wasserstoffpatrone, deren explosive Wirkung tausendmal stärker ist als die von Atombomben .
ENIAC hatte demonstriert, was ein Computer militärisch leisten kann. Bald gründete das gleiche Team von Eckert und Mauchly ein eigenes Unternehmen, um der Welt zu zeigen, wie ein Computer die Geschäftswelt positiv beeinflussen könnte.
Das Flaggschiff der Eckert-Mauchly Computer Corporation (EMCC), die UNIVAC 1 (gewöhnlich nur als „UNIVAC“ bezeichnet), war eine kleinere, billigere Version der ENIAC mit verschiedenen Verbesserungen, die den technologischen Wandel ihrer Zeit widerspiegelten.
Zunächst einmal wurde die Dateneingabe einfacher und ausdrucksstärker, da E/A-Geräte wie die Tastatur einer elektrischen Schreibmaschine, bis zu 10 UNISERVO-Bandlaufwerke zur Datenspeicherung und ein Band-zu-Karte-Konverter integriert wurden, der es Unternehmen ermöglichte, zusätzlich zu magnetischen Speicherbändern auch Lochkarten zu verwenden.
Wie ihre Vorgängerin benötigte die UNIVAC (Link befindet sich außerhalb von ibm.com) immer noch eine Menge Grundfläche (382 Quadratfuß), aber das war eine erhebliche Verkleinerung gegenüber der ENIAC. Allerdings kostet die UNIVAC mit ihrer zusätzlichen Ausstattung deutlich mehr als die ENIAC, was sich auf rund 1,5 Millionen US-Dollar (derzeit rund 11,6 Millionen US-Dollar) belief.
Für diesen Betrag konnte die UNIVAC jedoch erstaunliche Tricks vollführen. Vor allem CBS News nutzte sie, um die US-Präsidentschaftswahl 1952 korrekt vorherzusagen. Konventionelle Gallup-Umfragen hatten ein knappes Wahlergebnis vorhergesagt, doch das UNIVAC-Umfrageinstitut verblüffte alle Reporter mit der frühzeitigen Vorhersage eines überwältigenden Siegs von Dwight D. Eisenhower – und genau das geschah auch. Niemand außer der UNIVAC hat es kommen sehen. Das Ereignis verblüffte die Öffentlichkeit, die über Nacht die erstaunlichen Analysen und Vorhersagen, die Computer erstellen können, zu schätzen wusste.
Trotz eines schlankeren Profils war die UNIVAC immer noch massiv, wog etwas mehr als 8 Tonnen und benötigte 125 kW Energie. Die UNIVAC 1 wurde 1951 vorgestellt, das erste Modell, das vom US Census Bureau gekauft wurde. Leider wurde der Einsatz von UNIVAC durch einen schwerwiegenden Konstruktionsfehler erschwert, da sie sich immer noch auf Glasvakuumröhren verließ, die anfällig für verschiedene Arten von Bruch waren und erhebliche Mengen an überschüssiger Wärme erzeugten.
Glücklicherweise sollte die nächste CPU-Revolution dieses Problem direkt angehen.
Die Erfinder von ENIAC und UNIVAC hatten unter den Vakuumröhren gelitten, weil es zu dieser Zeit keine brauchbare Alternative gab. Das alles änderte sich 1953, als ein Forschungsstudent an der University of Manchester zeigte, dass er einen Weg gefunden hatte, einen vollständig transistorbasierten Computer zu konstruieren (Link befindet sich außerhalb von ibm.com). Richard Grimsdales Kreation war eine 48-Bit-Maschine, die 92 Transistoren und 550 Dioden enthielt - sowie keine einzige Vakuumröhre aus Glas.
Transistoren wurden bereits in den frühen 1950er Jahren in Massenproduktion hergestellt, aber ihre Nutzung wurde ursprünglich durch das verwendete Material erschwert – Germanium, das schwierig zu reinigen war und in einem präzisen Temperaturbereich gehalten werden musste.
Anfang 1954 begannen Wissenschaftler der Bell Laboratories mit Silizium zu experimentieren, das schließlich für die Herstellung von Computerchips eingesetzt werden sollte. Aber es ging erst richtig los, als Mohamed Atalia und Dawon Kahng von den Bell Laboratories die Verwendung von Silizium weiter verfeinerten und den Metalloxid-Halbleiter-Feldeffekttransistor (auch MOSFET oder MOS-Transistor) entwickelten.
Die beiden Ingenieure hatten Ende 1959 einen funktionierenden Prototyp gebaut, und Anfang 1960 wurde dieser der Welt vorgestellt, womit das neue Jahrzehnt mit der Einführung des Transistorzeitalters begann. Gegen Ende dieses Jahrzehnts war der Transistor überall weit verbreitet.
Tatsächlich wurde der MOSFET in den letzten Jahrzehnten so allgemein beliebt und weltweit akzeptiert, dass er seitdem vom Computer History Museum als das „am häufigsten hergestellte Gerät der Geschichte“ (Link befindet sich außerhalb von ibm.com) gefeiert wurde. Im Jahr 2018 wurden schätzungsweise 13 Sextillionen MOS-Transistoren hergestellt.
Für die CPU-Entwicklung waren die Transistoren ein echter Wendepunkt. Sie befreiten die Computer von ihren sperrigen, überdimensionierten Anfängen und ermöglichten die Entwicklung eleganterer Computer, die weniger Platz benötigten und effizienter arbeiteten.
Die UNIVAC war für ihre Zeit eine Offenbarung, trotz ihrer Unzulänglichkeiten und enormen Größe. Dann kam eine Phase, in der kleinere Motherboards entwickelt wurden, die eine Vielzahl von Computerchips verwendeten. Dies führte schließlich zur Entwicklung des Chipsatzes, einem einzelnen Chip mit mehreren Verwendungsmöglichkeiten. Und mittlerweile sind moderne CPUs so weit miniaturisiert, dass die gesamte CPU in einem kleinen integrierten Schaltkreis-Chip untergebracht ist, der als Mikroprozessor bezeichnet wird.
Mikroprozessoren werden durch die Anzahl der Kerne, die sie unterstützen, gekennzeichnet. Ein CPU-Kern ist das „Gehirn im Gehirn“ und dient als physische Verarbeitungseinheit innerhalb einer CPU. Mikroprozessoren können mehrere Prozessoren enthalten. Ein physischer Kern ist hingegen eine CPU, die in einen Chip eingebaut ist, aber nur einen Sockel belegt, sodass andere physische Kerne dieselbe Rechenumgebung nutzen können.
Es ist erwähnenswert, dass der Begriff „Mikroprozessor“ nicht mit „Mikrocontroller“ verwechselt werden sollte. Ein Mikrocontroller ist ein sehr kleiner Computer, der auf einer einzigen integrierten Schaltung existiert. Mikrocontroller enthalten in der Regel mindestens eine CPU sowie zugehörige Speicher- und programmierbare E/A-Daten.
Hier sind einige der anderen Hauptbegriffe, die in Bezug auf Mikroprozessoren verwendet werden:
Threads kann man sich als virtuelle Befehlssequenzen vorstellen, die an eine CPU ausgegeben werden. In erster Linie dienen sie dazu, Workloads aufzuteilen und die entsprechenden Verantwortlichkeiten auf verschiedene Prozessoren zu verteilen.
Zwei verwandte Begriffe sind Multithreading und Hyperthreading. Im ersten Fall werden die Aufgaben in verschiedene Threads aufgeteilt und parallel ausgeführt. Hyperthreading trägt zu noch größeren Leistungsvorteilen bei, da die Prozessoren zur gleichzeitigen Ausführung von zwei Threads verwendet werden.
Grafikprozessoren (GPUs) wurden für die Beschleunigung und Verbesserung von Computergrafiken und verarbeiteten Bildern entwickelt. Ein GPU existiert als spezielle elektronische Schaltung, die sowohl auf Motherboards, als auch in PCs und Spielekonsolen verwendet werden kann.
Oft wird angenommen, dass die CPU-Technologie stagnieren müsste, da sie so gut etabliert ist. Es gibt jedoch zahlreiche Anzeichen dafür, dass kontinuierliche Innovationen am Werk sind, da ständig neue Produkte entwickelt werden, die alle das Ziel verfolgen, die bestmögliche CPU (bzw. den bestmöglichen Mikroprozessor) anzubieten. Die folgenden Unternehmen stellen dieses Bemühen wiederholt unter Beweis:
Verschiedene hochentwickelte Betriebssysteme laufen auf IBM Mainframes – der sicheren, leistungsstarken und flexiblen Plattform für die Integration in Ihre Hybrid-Cloud-Strategie.
Mithilfe der HPC-Lösungen von IBM erreichen Sie eine kürzere Markteinführungszeit, eine bessere Kostenkontrolle und eine höhere Leistung. Verwalten Sie rechenintensive Simulations-, Modellierungs- und KI-Workloads.
Auf Unternehmen abgestimmter Speicher, der mit Ihnen zusammen wächst. IBM Storage FlashSystem 5300 ist eine NVMe-Speicheroption für Unternehmen, die gerade am Anfang stehen und einen kompakten, leistungsstarken Speicher benötigen.
Nutzen Sie die Leistung mehrerer CPUs und Rechenknoten mit den schnellsten Computern der Welt. Supercomputer enthalten Interconnects und Kerne für Speicher und Verarbeitung und können für die Kommunikation mit Eingabe/Ausgabe-Systemen (E/A) für Datenspeicherung und Vernetzung verwendet werden.
Sicherheit bleibt ein ständiges Problem. Daher bietet Confidential Computing eine Cloud-Computing-Technologie, die sensible Daten während der Verarbeitung innerhalb einer geschützten CPU-Enklave isoliert und schützt. Programmiercodes werden verwendet, um sicherzustellen, dass nur autorisierte Benutzer auf Daten zugreifen können.
Schauen Sie sich die Hochleistungscomputer mit großen Mengen an Speicher und Datenprozessoren an, die Milliarden von Echtzeitberechnungen und Transaktionen verarbeiten. Mainframes werden für kommerzielle Datenbanken, Transaktionsserver und Anwendungen, die eine hohe Flexibilität erfordern, genutzt.
Die Virtualisierung ist die Grundlage des Cloud Computing und ein Prozess, der eine effizientere Nutzung von Computerhardware ermöglicht. Die Virtualisierung verwendet Software, um eine Abstraktionsebene über der Hardware zu erstellen, wodurch die Hardwarekomponenten eines einzelnen Computers geteilt werden können.
Verarbeitung natürlicher Sprache ist ein Teilbereich der KI, der Computerlinguistik – regelbasierte Modellierung der menschlichen Sprache – mit statistischen und maschinellen Lernmodellen kombiniert, damit Computer und digitale Geräte Text und Sprache erkennen, verstehen und generieren können.
Quantencomputing nutzt spezielle Technologien, einschließlich Computerhardware und Algorithmen, die die Vorteile von Quantenmechaniken nutzen, um komplexe Probleme zu lösen, die klassische Computer oder Supercomputer nicht oder nicht schnell genug lösen können.