Quantumzentriertes Supercomputing ist ein revolutionärer Ansatz in der Informatik, der Quantencomputing mit traditionellem Hochleistungscomputing (HPC) kombiniert, um ein Computersystem zu schaffen, das in der Lage ist, hochkomplexe reale Probleme zu lösen.
Ein quantenzentrierter Supercomputer ist eine Verbindung eines Quantencomputers mit einem klassischen Supercomputer, die Algorithmen zur Fehlerminderung und -korrektur verwendet, um in praktischen Laufzeiten Ergebnisse zu erzielen.
Im Zeitalter des Quantencomputings soll das quantenzentrierte Supercomputing den Forschern zu großen Durchbrüchen in den Bereichen Materialwissenschaften, maschinelles Lernen, generative KI, Hochenergiephysik und mehr verhelfen, möglicherweise noch vor groß angelegten vollständig Quantensystemen.
Ein vollständig realisierter quantenzentrierter Supercomputer nutzt eine fortschrittliche Middleware, um Quantenschaltungen mit klassischen Ressourcen zu integrieren. Quantum-zentrierte Supercomputer, die auf der IBM Quantum System Two®-Architektur basieren – die Bausteine des Quantum-zentrierten Supercomputings – kombinieren Quantum-Technologie mit traditionellen Supercomputern, um die Leistung beider Elemente zu ergänzen und zu verbessern.
1994 entdeckte der MIT-Mathematiker Peter Shor mithilfe eines hypothetischen Quantencomputers einen Algorithmus, der große Zahlen exponentiell schneller in Primfaktoren unterteilen kann als die besten klassischen Algorithmen. Zwei Jahre später entdeckte Lov Grover einen Quantenalgorithmus, der eine Datenbank schneller durchsuchen kann als ein klassischer Suchalgorithmus. Diese Entdeckungen haben das Interesse an Quantencomputing erheblich beschleunigt.
Shor und Grover haben zumindest theoretisch bewiesen, dass ein nützlicher Quantencomputer bestimmte komplexe Workloads schneller verarbeiten kann als klassische Methoden – Hunderttausende von Jahren schneller. Selbst die fortschrittlichsten Supercomputer der Welt, wie sie in hochkarätigen Datenzentren und Universitäten eingesetzt werden, sind einfach nicht in der Lage, große Quantum-Workflows schnell genug zu verarbeiten.
Quantenprozessoren wie IBM Quantum Heron sind nicht mehr nur Theorie, sondern haben die Machbarkeit des Quantencomputings bewiesen. Heutige Quantencomputer sind jedoch durch Hindernisse wie die Anzahl der Qubits, mit denen sie verarbeiten können, und Fehler, die in der Quantenhardware inhärent sind, begrenzt.
Quantumzentriertes Supercomputing kombiniert die Stärken von Quantum- und klassischem Computing, indem es die einzigartigen Eigenschaften von Qubits nutzt, um Berechnungen durchzuführen, die für klassische Systeme sonst nicht durchführbar sind. Dieser Ansatz zielt darauf ab, die Grenzen des klassischen Hochleistungsrechnens zu überwinden, indem Quantencomputer in bestehende Workflows eingebunden und so die Funktionen und Leistung von beiden Systemtypen verbessert werden.
Im Folgenden sind einige der Hauptunterschiede zwischen HPC und quantenzentriertem Supercomputing aufgeführt:
Traditioneller HPC:
Quantum-zentriertes Supercomputing:
Da das experimentelle Quantencomputing weiterhin rasant voranschreitet, gehen wir davon aus, dass quantenzentriertes Supercomputing eine entscheidende Brücke zur Erzielung eines Quantumvorteils sein wird – dem Meilenstein, anhand dessen Forscher messen, ob eine Quantenmaschine klassische Hardware zur Simulation eines Quantensystems oder andere klassische Methoden übertreffen kann Lösung eines praktischen Problems. Es wird jedoch nicht erwartet, dass Quantencomputing die klassische Datenverarbeitung vollständig ersetzen wird. Stattdessen kombinieren quantenzentrierte Supercomputer Quantencomputer und klassische Computer, wobei jeder Systemtyp zusammenarbeitet, um Berechnungen durchzuführen, die über das hinausgehen, was auf beiden Systemen allein möglich ist.
Weltweit haben bereits mehrere Supercomputer-Einrichtungen damit begonnen, Quantencomputing-Hardware zu integrieren, darunter der deutsche Jupiter, Fugaku (Japan) und das polnische PSNC. Im Rahmen der IBM Quantum Roadmap hofft IBM, bis 2033 quantenzentrierte Supercomputer mit Tausenden logischen Qubits zu bauen.
Im Gegensatz zu herkömmlichen Computern nutzen Quantumcomputer die grundlegenden Eigenschaften der Quantenphysik, um potenziell komplexe Probleme zu lösen. Die vier Grundprinzipien von Quantumcomputern lauten wie folgt:
Während klassische Computer auf Binärbits (Nullen und Einsen) angewiesen sind, um Daten zu speichern und zu verarbeiten, können Quantencomputer noch mehr Daten gleichzeitig kodieren, indem sie Quantenbits (Qubits) in Superposition verwenden.
Ein Qubit kann sich wie ein herkömmliches Bit verhalten und den Wert einer Null oder einer Eins speichern. Seine Stärke liegt jedoch in seiner Fähigkeit, Überlagerungen zu speichern: also eine gewichtete Kombination von Null und Eins gleichzeitig. In Kombination kann ein Satz von Qubits in Superposition mehr Informationen speichern als die gleiche Anzahl von Bits. Jedes Qubit kann jedoch am Ende der Berechnung nur ein einzelnes Bit an Informationen als Ausgabe ausgeben. Quantumalgorithmen speichern und verarbeiten Informationen auf eine Weise, die für klassische Computer nicht zugänglich ist, was zu Beschleunigungen bei bestimmten Problemen führen kann.
Die Steuerung von Qubits erfordert empfindliche Hardware, die sensibel auf Störungen reagiert und bei extrem kalten Temperaturen gehalten werden muss. Quantenforscher verwenden kryogene Kühlung, um Qubits bei Temperaturen zu halten, die kälter sind als die Leere des Weltraums.
Derzeit ist Quantenhardware teuer, groß und fehleranfällig. Während Forscher täglich daran arbeiten, die Herausforderungen bei der Entwicklung größerer Quantencomputer zu bewältigen, ist nicht zu erwarten, dass das Quantencomputing die traditionelle Datenverarbeitung in absehbarer Zeit oder möglicherweise jemals vollständig ersetzen wird. Das liegt daran, dass Quantencomputing am besten für bestimmte komplexe Probleme geeignet ist.
In wenigen Minuten kann ein quantum Computer ein Simulationsproblem lösen, für das ein herkömmlicher Supercomputer Hunderttausende von Jahren benötigen würde. Diese Leistungssteigerung, die als Quantumvorteil bekannt ist, wurde bisher nur theoretisch bewiesen. Quantencomputer von IBM haben jedoch bereits die Nützlichkeit unter Beweis gestellt, d. h. die Fähigkeit, Probleme in einem Umfang zu lösen, der über die klassische Brute-Force-Simulation hinausgeht.
Quantencomputing basiert auf den Prinzipien der Quantenmechanik, die beschreiben, wie sich subatomare Partikel anders verhalten als die Physik auf der Makroebene. Da die Quantenmechanik jedoch die grundlegenden Gesetze für unser gesamtes Universum liefert, ist auf einer sehr kleinen Ebene jedes System ein Quantensystem.
Aus diesem Grund kann man sagen, dass herkömmliche Computer zwar ebenfalls auf Quantensystemen basieren, jedoch die quantenmechanischen Eigenschaften bei ihren Berechnungen nicht voll ausnutzen. Quantumcomputer nutzen die Vorteile der Quantenmechanik besser aus, um bestimmte Berechnungen durchzuführen, die selbst Hochleistungscomputer mit hoher Leistung nicht bewältigen können.
Klassische Berechnungsmodelle verwenden Zeichenfolgen von Binärziffern (Bits), um alle Informationen in einen Binärcode aus Nullen und Einsen zu reduzieren. Mithilfe einfacher Logikgatter wie AND, OR, NO und NAND können wir diese Informationen verarbeiten, um fortgeschrittene Berechnungen durchzuführen. Jedes Logikgatter kann jedoch jeweils nur auf ein oder zwei Bits einwirken. Wir bestimmen den „Zustand“ eines klassischen Computers anhand der Zustände aller seiner Bits. Klassische Computer verwenden Transistoren und Halbleiter, um binäre Informationen zu speichern und zu verarbeiten.
Quantumcomputer verwenden eine spezielle Art von Quantumhardware, eine Quantumverarbeitungseinheit (QPU), um Daten auf unterschiedliche Weise zu speichern und zu verarbeiten. Klassische Computer verwenden Transistoren, um Bits von Informationen zu speichern, aber Quantencomputer verwenden Qubits, die typischerweise aus Quantenteilchen bestehen (jene, die sich wie die kleinsten bekannten Bausteine des physikalischen Universums verhalten). Im Gegensatz zu herkömmlichen Bits enthalten Qubits mehr als zwei Informationszustände.
Während sich ein digitaler Computer nur in einem Zustand befinden kann, können sich die Qubits eines Qantencomputers während einer Berechnung in vielen logischen Zuständen gleichzeitig befinden. Dieses Phänomen wird als Überlagerung bezeichnet – eine dritte Position, die Null, eine und alle Positionen dazwischen basierend auf einer Wahrscheinlichkeit darstellt. Am Ende der Berechnung nimmt jedes Qubit den Wert Null oder Eins mit einer Wahrscheinlichkeit an, die seinem Beitrag zur Superposition entspricht.
Verschiedene Arten von Qubits eignen sich besser für verschiedene Anwendungsfall und Systeme. IBM verwendet supraleitende Qubits, die für ihre Geschwindigkeit und präzise Steuerung beliebt sind. Qubits, die aus Photonen (einzelnen Lichtpartikeln) hergestellt sind, werden häufig in der Quantenkommunikation und Quantenkryptographie verwendet. Andere Arten von Qubits sind gefangene Ionen, neutrale Atome und einzelne Elektronen, die von kleinen Halbleitern gehalten werden, die als Quantenpunkte bekannt sind.
Im Herzen eines quantumzentrierten Supercomputers ist die Quantenverarbeitungseinheit (QPU). Die QPU von IBM umfasst die Hardware für die Eingabe und Ausgabe von Schaltungen, sowie einen mehrschichtigen Halbleiterchip, der mit supraleitenden Schaltungen geätzt ist. Es sind diese Schaltkreise, die Qubits enthalten, mit denen Berechnungen durchgeführt werden, sowie die Gates, die Operationen damit durchführen. Die Schaltkreise sind in eine Schicht mit den Qubits, eine Schicht mit Resonatoren zum Auslesen und mehrere Schichten für die Ausgabe und Eingabe unterteilt. Die QPU umfasst auch die Interconnects, Verstärkungen und Signal-Filterungskomponenten.
Der von IBM verwendete Typ von physischen Qubits besteht aus einem supraleitendenKondensator, der mit Komponenten, sogenannten Josephson-Kontakten, verkabelt ist, die sich wie verlustfreie, nichtlineare Induktivitäten verhalten. Aufgrund der supraleitenden Natur des Systems kann der Strom, der über die Josephson-Kontakte fließt, nur bestimmte Werte annehmen. Die Josephson-Verbindungen verteilen diese spezifischen Werte außerdem, sodass nur zwei dieser Werte zugänglich sind.
Das Qubit wird dann in den untersten zwei Werten des Stroms kodiert, die dann zu Null und Eins werden (oder als Überlagerung von Null und Eins). Programmierer ändern die Qubit-Zustände und koppeln Qubits mit Quanten-Anweisungen, die allgemein als Gates bezeichnet werden. Dabei handelt es sich um eine Reihe speziell hergestellter Mikrowellenwellenformen.
Damit die Qubits bei der erforderlichen Temperatur arbeiten, müssen einige der QPU-Komponenten in Kühlgeräten aufbewahrt werden, die sie mit flüssigem Helium kalt halten. Andere QPU-Komponenten benötigen klassische Computerhardware bei Raumtemperatur. Anschließend wird die QPU mit der Laufzeitinfrastruktur verbunden, die auch die Fehlerbegrenzung und Ergebnisverarbeitung übernimmt. Dabei handelt es sich um einen quantum-Computer.
Die Integration von quantum- und klassischen Systemen wird durch Middleware und Hybrid Cloud Lösungen erreicht, die eine nahtlose Interaktion zwischen den beiden ermöglichen. Dieser hybride Ansatz trägt dazu bei, dass Quantum-Verarbeitungseinheiten effektiv in Quantencomputern eingesetzt werden können, die mit bestehenden Frameworks verbunden sind, wodurch ihre Wirkung maximiert wird, ohne dass eine vollständige Überholung der aktuellen Infrastrukturen erforderlich ist.
Trotz der jüngsten Fortschritte ist die Kontrolle von Qubits eine große Herausforderung. Äußeres Rauschen und Übersprechen zwischen Steuersignalen zerstören die empfindlichen Quanteneigenschaften von Qubits, und die Kontrolle dieser Rauschquellen war entscheidend für die Entwicklung nützlicher quantum-zentrierter Supercomputer.
Neben Hardware-Verbesserungen haben Forscher die Möglichkeit demonstriert, mit einem gewissen Grad an Rauschen umzugehen, indem sie Algorithmen zur Fehlerminderung verwenden, die analysieren, wie Systemrauschen die Ausgabe verändert. Die Forscher verwenden diese Informationen, um ein Rauschmodell zu erstellen, und verwenden dann klassische Berechnungen, um ein rauschfreies Ergebnis auf der Grundlage der Vorhersagen des Modells zu erhalten. Quantumfehlerminderung ist Teil des kontinuierlichen Weges, der die heutige Quantenhardware zu den fehlertoleranten Quantencomputern von morgen führt.
Im folgenden Video erläutern die IBM Quantum-Forscher Andrew Eddins und Youngseok Kim die entscheidende Rolle, die Fehlerminderung spielen wird, um in naher Zukunft nützliches Quantencomputing zu erzielen.
Im Gegensatz zur Fehlerminderung, bei der die Nachbearbeitung Rauschen nach einer Berechnung entfernt, kann die Quantenfehlerkorrektur Rauschen in Echtzeit während der Verarbeitung entfernen, ohne dass zunächst ein spezielles Rauschmodell erstellt werden muss. Obwohl dies bis zu einem gewissen Punkt effektiv ist, ist die Fehlerminderung in ihrem Umfang begrenzt. Auch wenn die Komplexität von Quantenschaltungen zunimmt, bleibt die Fehlerkorrektur in großen Systemen effektiv.
Quantum-Fehlerkorrektur erfordert zahlreiche Ressourcen, wie z. B. mehr Qubits und mehr Gates in einer Schaltung. Beim Rechnen mit mehr Qubits sind viel mehr Qubits zur Fehlerkorrektur erforderlich. Bessere Hardware und bessere Fehlerkorrekturcodes bringen die Fehlerkorrektur näher an die Realität. Anfang des Jahres hat IBM eine neue Art von fehlerkorrigierendem Speicher veröffentlicht, der womöglich auf quantum Computern der nahen Zukunft implementiert werden kann.
Beim Circuit Knitting handelt es sich um eine Technik, bei der ein Quantencomputingproblem in mehrere Probleme zerlegt und diese dann auf verschiedenen Quantencomputingprozessoren parallel ausgeführt werden. Quantencomputer und klassische Computer kombinieren die Ergebnisse der einzelnen Schaltkreise präzise miteinander, um zu einem schlüssigen Ergebnis zu gelangen. Das Wirken von Schaltungen ermöglicht es Quantenforschern, Quantenschaltungen viel effizienter auszuführen, indem sie klassisches Rechnen mit Quantenverarbeitung verbinden.
Gängige Konzepte von „Quantencomputern“ sehen oft eine einzelne QPU vor, die Millionen von physischen Qubits verwendet, um Programme unabhängig auszuführen. „Stattdessen“, schreibt Jay Gambetta, VP of Quantum und IBM-Fellow, „stellen wir uns Computer vor, die mehrere QPUs enthalten und Quantenschaltungen parallel zu verteilten klassischen Computern ausführen.“ Eine andere Technik stützt sich für den größten Teil der Berechnung auf klassisches Rechnen und spart nur das meiste Quantum für den Quantenprozessor.
Um ausreichend große Maßstäbe zur Lösung von Problemen mit Quantencomputern zu erreichen, sind eine Fehlerkorrektur sowie größere QPUs oder mehrere verbundene QPUs erforderlich. Neben Qiskit, der Full-Stack-Quantencomputing-Software von IBM für die Ausführung von Quanten-Workloads, entwickelt IBM auch die Middleware, um präzises Schaltkreisstricken und die dynamische Bereitstellung von Computing-Ressourcen zu verwalten.
Quantumcomputer eignen sich hervorragend für die Lösung bestimmter komplexer Probleme und haben das Potenzial, die Verarbeitung großer Datensätze zu beschleunigen. Von der Entwicklung neuer Medikamente über die Optimierung der Lieferkette bis hin zu Materialwissenschaften und Herausforderungen im Zusammenhang mit dem Klimawandel könnte Quantencomputing der Schlüssel zu Durchbrüchen in mehreren Branchen sein.
Quantumcomputer, wie sie heute existieren, sind wissenschaftliche Werkzeuge, die für die Ausführung bestimmter Programme nützlich sind, die über die Brute-Force-Fähigkeit klassischer Simulationen hinausgehen – zumindest bei der Simulation bestimmter quantum Systeme. Auf absehbare Zeit wird das Quantencomputing jedoch zusammen mit dem modernen und zukünftigen klassischen Supercomputing von Nutzen sein. Als Reaktion darauf bereiten sich Quantenforscher auf eine Welt vor, in der klassische Supercomputer Quantenschaltungen zur Lösung von Problemen nutzen können.
Zu den wichtigsten Herausforderungen für das quantenzentrierte Supercomputing gehören die Weiterentwicklung der Middleware, die es klassischen und Quantencomputern die Kommunikation ermöglicht, sowie allgemeine Herausforderungen, mit denen Quantencomputer selbst konfrontiert sind. Bevor sie einen Quantumvorteil erzielen, haben Entwickler die folgenden wichtigen Hindernisse identifiziert, die es zu überwinden gilt.
Ein vollständig realisierter großer Quantumcomputer benötigt Millionen von physischen Qubits. Aufgrund praktischer Hardwarebeschränkungen ist die Skalierung einzelner Chips auf diese Werte jedoch eine untragbare Herausforderung. Als Lösung entwickelt IBM Interconnects der nächsten Generation, die quantum Informationen über mehrere Chips hinweg verschieben können. Diese Lösung bietet eine modulare Skalierbarkeit, um die erforderlichen Qubits zu erreichen, die zur Fehlerkorrektur benötigt werden. IBM plant, diese neuen Verbindungen – L-Paare und M-Koppel genannt – mit Proof-of-Concept-Chips namens Flamingo und Crossbill zu demonstrieren. Diese Koppler sind für die Skalierung von Chips verantwortlich. IBM plant, bis Ende 2026 C-Kommler mit einem Chip namens Kookaburra zu demonstrieren. Diese sind für die Unterstützung bei der Fehlerkorrektur verantwortlich.
Während Quantum-Prozessoren, die auf den im quantum computing verwendeten Qubits basieren, das Potenzial haben, bit-basierte Prozessoren massiv zu übertreffen, können aktuelle Quantum-Prozessoren nur wenige potenzielle Qubits unterstützen. Im Zuge der weiteren Forschung plant IBM, bis 2029 ein Quantensystem mit 200 logischen Qubits einzuführen, das 100 Millionen Quantengatter ausführen kann. Bis 2033 soll ein System mit 2.000 logischen Qubits erreicht werden, das 1 Milliarde Gates ausführen kann.
Qubits sind leistungsstark, aber auch sehr fehleranfällig und erfordern große Kühlsysteme, die Temperaturen erzeugen können, die unter denen des Weltraums liegen. Forscher entwickeln derzeit Methoden zur Skalierung von Qubits, Elektronik, Infrastruktur und Software, um Platzbedarf, Kosten und Energieverbrauch zu reduzieren.
Die Qubit-Kohärenz ist zwar kurz, aber unerlässlich für die Erzeugung genauer Quantendaten. Die Dekohärenz, der Prozess, bei dem Qubits nicht richtig funktionieren und ungenaue Ergebnisse liefern, ist eine große Hürde für jedes Quantum-System. Quantum-Fehlerkorrektur erfordert, dass wir Quanteninformationen in mehr Qubits kodieren, als wir sonst benötigen würden. Im Jahr 2024 kündigte IBM einen bahnbrechenden neuen Fehlerkorrekturcode an, der etwa zehnmal effizienter ist als frühere Methoden. Obwohl die Fehlerkorrektur kein gelöstes Problem ist, markiert dieser neue Code einen klaren Weg zum Betrieb von Quantenschaltungen mit einer Milliarde Logikgattern oder mehr.
Ein Quantumvorteil erfordert zwei Komponenten. Das erste sind praktikable Quantenschaltungen, und das zweite ein Mittel, um zu zeigen, dass diese Quantenschaltungen der beste Weg zur Lösung eines Quantenproblems gegenüber jeder anderen hochmodernen Methode sind. Die Entdeckung von Quantenalgorithmen wird die derzeitigen Quantentechnologien vom Quanten-Nutzen zum Quanten-Vorteil führen.
Der Kern der Entdeckung von Quantenalgorithmen beruht auf einem hochleistungsfähigen und stabilen Stack, um quantum Programme zu schreiben, zu optimieren und auszuführen. Qiskit von IBM ist die mit Abstand am weitesten verbreitete Quantensoftware der Welt. Es ist Python-basiert und besteht aus einem Open-Source-SDK und unterstützenden Tools und Diensten – nützlich für Ausführungen sowohl auf der Flotte von IBM supraleitender Quantencomputer als auch auf Systemen, die alternative Technologien verwenden, wie z. B. in Magnetfeldern gefangene Ionen oder Quantenanpassung.