Ist Quantencomputing nicht genau genug? IBMs „Error Mitigation“-Technologie soll das Problem lösen

Ist Quantencomputing nicht genau genug? IBMs „Error Mitigation“-Technologie soll das Problem lösen

Im Juni 2023 verwendeten IBM Quantum und seine Mitarbeiter die Methode der „Fehlerminderung“, um die Betriebsergebnisse komplexer Quantenschaltkreise auf einem 127-Qubit-Prozessor genau zu ermitteln. Viele Menschen glauben, dass dies ein weiterer Meilenstein auf dem Gebiet des Quantencomputings ist. Was also ist Fehlerminderung? Was hat IBM getan und was nicht?

Ende 2022 wurde ich von der Zeitschrift Physics eingeladen, ein Exklusivinterview mit Gambetta, Vizepräsident der Quantenabteilung von IBM, zu übersetzen. Damals war ich über einige Bemerkungen Gambettas schockiert. Einerseits nennt er einige Zahlen, darunter die Dekohärenzzeit, die seiner Aussage nach 100 Millisekunden erreicht habe und bald 300 Millisekunden erreichen werde. Ich bin immer noch der Meinung, dass der Reporter einen Fehler gemacht hat. und die Zwei-Bit-Gate-Fidelity, die 99,9 % erreicht hat und in 23 Jahren 99,99 % erreichen wird. Ich arbeite an Quantenhardware und diese beiden Zahlen reichen aus, um mich innehalten zu lassen, und der folgende Inhalt ist sogar noch erstaunlicher.

Erstens, sagte er, „wird es wichtiger sein, intelligentere Herangehensweisen zu verfolgen, als Kennzahlen anzuhäufen.“ Mit anderen Worten: Um künftig Vorteile durch Quantencomputer zu erzielen, reicht es nicht aus, technische Indikatoren wie Bitanzahl, Dekohärenzzeit, Gate-Fidelity usw. kontinuierlich zu verbessern. Man muss darüber nachdenken, wie man die Architektur erweitert und weiterentwickelt, neue Methoden zur Behebung der unvermeidlichen Fehler von Quantencomputern einführt usw.

Zweitens sagte er im Zusammenhang mit der Quantenfehlerkorrektur, dass an Methoden zur Fehlerminderung geforscht werde. Sie bauen eine große Zahl von Schaltungsbeispielen für repräsentative Fehlermodelle, erfassen die Evolutionsergebnisse dieser Schaltungen und untersuchen das fehlerhafte Verhalten des gesamten Quantensystems mit statistischen Methoden, um eine fehlerfreie Schätzung der Quantenschaltung zu erhalten. Wenn sich die Genauigkeit dieser fehlerfreien Schätzung weiterhin dem Wert 1 nähert, wäre das dann nicht gleichbedeutend mit der Erreichung einer Quantenfehlerkorrektur? Mit dieser Idee im Hinterkopf wird die Korrektur von Quantenfehlern nicht länger eine gewaltige Herausforderung wie ein Sprung über ein Drachentor sein, sondern zu einem schrittweisen Prozess werden, genau wie eine Bergwanderung: Auch wenn der Schritt klein ist, kann es sein, dass man bei Sonnenuntergang schon auf dem Gipfel des Berges steht, wenn man zurückblickt.

Ein halbes Jahr später (14. Juni 2023) veröffentlichte IBM in Nature ein Papier mit dem Titel „Proof of the utility of pre-fault-tolerant quantum computing“, das sofort große Resonanz hervorrief. Über 100 Quantenbits, keine Notwendigkeit für Quantenfehlerkorrektur, Übertreffen der klassischen Computertechnik, neuer Meilenstein – all diese Worte erregen die Aufmerksamkeit der Leser. Dies könnte ein weiterer Höhepunkt in der Entwicklung des Quantencomputings seit Googles „Quantenüberlegenheit“ sein. Nachdem ich die Zeitung aufmerksam gelesen hatte, erinnerte ich mich an einige Ansichten aus Gambettas Interview und war etwas konzentriert: Gambetta hatte die Ideen in der Zeitung bereits klar zum Ausdruck gebracht und ich hatte sie vor einem halben Jahr ins Chinesische übersetzt, um sie den einheimischen Lesern vorzustellen. Das Papier schockierte das gesamte Publikum. Alle setzten sich geschockt auf. Es stellt sich heraus, dass Quantencomputing folgendermaßen funktioniert …

Ich hoffe jedenfalls, dass ich dieses Werk mit meinem Fachwissen möglichst gelassen interpretieren kann. Die Forscher demonstrierten die zeitliche Entwicklung der Trotter-Expansion eines zweidimensionalen transversalen Feld-Ising-Modells auf einem 127-Bit-Quantenprozessor. Mithilfe der Methode zur Fehlerminderung durch rauschfreie Extrapolation können sie eine genaue rauschfreie Extrapolationsschätzung des Evolutionsergebnisses vornehmen. Die gesamte Schaltung umfasst 127 Quantenbits, bis zu 60 Schichten und insgesamt 2.880 CNOT-Gatter. Bei starker Verschränkung kann die klassische Tensornetz-Approximationsmethode keine korrekten Ergebnisse mehr liefern. Mit anderen Worten: Es geht über die Möglichkeiten der klassischen Brute-Force-Simulation hinaus.

Das Bild stammt von Tuchong.com

Der Artikel erläutert den Quantenvorteil: Der Quantenvorteil kann in zwei Schritten erreicht werden: Zunächst können auf vorhandenen Quantenhardwareanlagen genaue Berechnungen durchgeführt werden, die die Möglichkeiten klassischer Brute-Force-Simulationen übertreffen, und dann können auf dieser Grundlage wertvolle Probleme gefunden werden, um eine genaue Schätzung der mit dem Problem verbundenen Quantenschaltkreise zu erreichen. Mit der Arbeit an diesem Dokument wurde der erste Schritt abgeschlossen, strenggenommen wurde also kein Quantenvorteil erreicht.

Allerdings ist diese Arbeit im Vergleich zur „Quantenüberlegenheit“ von Google immer noch ein Fortschritt. Der Grund hierfür liegt nicht etwa darin, dass mehr Bits, eine größere Schaltungstiefe oder mehr Zwei-Bit-Gatter vorhanden wären, sondern darin, dass die von Google in diesem Jahr durchgeführte Zufallsauswahl der Schaltungen eine äußerst geringe Wiedergabetreue ergab. Dieses Mal kann die Arbeit von IBM durch Fehlerminderungsmethoden eine genaue, verzerrte Schätzung eines komplexen Quantenschaltkreises liefern. Dies lässt hohe Erwartungen an die Leistungsfähigkeit verrauschter Quantencomputer zu. Solange wir noch einen Schritt weiter gehen und den Evolutionsschaltkreis des diesmal verwendeten zweidimensionalen Ising-Modells mit transversalem Feld durch einen Quantenschaltkreis ersetzen, der sich auf ein wertvolles Problem bezieht – obwohl dieser Schritt immer noch schwierig ist – wird der Quantenvorteil tatsächlich etabliert sein.

Was also ist diese magische Methode zur Fehlerminderung, die Verfall in Magie verwandeln kann? Sie müssen wissen, dass bei einer Größenordnung von über 100 Bit und 60 Schaltkreisschichten die Wahrscheinlichkeit, korrekte Ergebnisse zu erhalten, selbst wenn die durchschnittliche Genauigkeit bei der Manipulation und beim Lesen über 99 % liegt, nahezu Null ist. IBM verwendete eine Methode namens „Zero Noise Extrapolation“. Konkret nutzt es ein bestimmtes Modell, um Systemfehler zu erkennen. Das hier verwendete Modell ist ein spärliches Pauli-Lindblad-Modell. Durch Anpassung der Parameter können unterschiedliche Rauschverstärkungen erreicht werden. Eine große Anzahl von Rauschlinieninstanzen unter unterschiedlichen Verstärkungen wird abgetastet und ihre erwarteten Werte werden berechnet. Darüber hinaus werden die erwarteten Werte bei unterschiedlichen Rauschverstärkungen verwendet, um die Verstärkung auf Null zu extrapolieren, d. h. die Erwartung, wenn kein Rauschen vorhanden ist. Auf diese Weise ist es gleichbedeutend mit der Schlussfolgerung des Ergebnisses unter fehlerfreien Bedingungen. Wer sich mit numerischen Berechnungen beschäftigt hat, weiß wahrscheinlich, dass die Extrapolation im Vergleich zur Interpolation oft unzuverlässig ist, insbesondere wenn sie weit vom wahren Wertpunkt entfernt ist. Zu diesem Zweck testete IBM sowohl Methoden der exponentiellen als auch der linearen Extrapolation und führte eine quantenklassische Vergleichsüberprüfung mit spezifischen Fällen durch, die klassisch simuliert werden können. Die Ergebnisse waren konsistent, was die Grundlage für IBMs Behauptung bildet, dass diese Methode genaue Berechnungsergebnisse liefern kann.

Darüber hinaus vergleicht das Paper auch die Laufzeit von Quantencomputern mit der Tensornetzwerkmethode. Einerseits kann das Tensornetzwerk bei tiefen Schaltkreisen keine genauen Erwartungswerte mehr liefern. Andererseits benötigt die Tensornetzwerkmethode bei der Ausführung zweier identischer Schaltkreise 8 Stunden bzw. 30 Stunden, um einen Datenpunkt zu erhalten, während die Quantenlaufzeit 4 Stunden bzw. 9,5 Stunden beträgt. Unter diesen Zeiten beträgt die tatsächliche Laufzeit auf dem Quantenprozessor nur 5 Minuten und 7 Sekunden, die durch eine Reduzierung der Quantenbit-Resetzeit noch deutlich reduziert werden kann. Mit anderen Worten: Bei der Betriebseffizienz von Quantencomputern besteht noch großes Verbesserungspotenzial.

Natürlich hat die Fehlerminderung ihren Preis. Durch die Zero-Noise-Extrapolation wurde der Sampling-Overhead im Vergleich zur zuvor vorgeschlagenen probabilistischen Fehlerbeseitigung erheblich reduziert und kann die Fehlerminderung von über 100 komplexen Quantenschaltkreisen bewältigen. Allerdings wächst dieser Aufwand immer noch exponentiell mit der Vergrößerung des Quantensystems. Es bleibt weiterhin eine Herausforderung, Fehler in Quantenprozessoren größeren Maßstabs in Zukunft effizient zu mindern. Die erfolgreiche Verifizierung dieser Methode ist wie ein Lichtstrahl im Zeitalter des lauten Quantencomputings. Es bleibt noch viel zu tun, um das Quantencomputing produktiv zu machen. Einerseits müssen wir die Leistungsfähigkeit der Quantenhardware weiter verbessern. Der Artikel erwähnt, dass die Wiedergabetreue von Zwei-Bit-Gattern um „Größenordnungen“ verbessert werden muss und auch die Laufgeschwindigkeit erheblich verbessert werden muss. Andererseits muss auch dringend untersucht werden, wie die Wirksamkeit von Algorithmen zur Rauschminderung oder -beseitigung, wie etwa heuristischen Quantenalgorithmen, die derzeit große Aufmerksamkeit erhalten, einschließlich quantenchemischer Berechnungen, Näherungsoptimierung usw., weiter überprüft werden kann.

Kehren wir zu Gambettas Interview zurück. Auf die Frage, wann das Quantencomputing das klassische Computing ablösen wird, sagte er etwas, das mich wirklich beeindruckt hat. Er sagte, anstatt zwischen klassischer und Quantentheorie zu unterscheiden, beide einander gegenüberzustellen und auf einen Moment zu warten, in dem die Quantentheorie die klassische besiegt, sei es besser, eine allgemeinere Perspektive einzunehmen und beide zu vereinen. Berechnung ist Berechnung. Die Realität ist, dass Quantencomputing viel Unterstützung durch klassische Computer erfordert. Die oben erwähnte Methode zur Fehlerminderung ist ein typisches Beispiel. Was wir wirklich anstreben, ist die Laufzeiteffizienz bei der Lösung komplexer Probleme. Die klassische Wissenschaft unterstützt die Quantenwissenschaft, und die Quantenwissenschaft wiederum unterstützt die klassische Wissenschaft. Die beiden sind eine ununterscheidbare Einheit. Wir müssen das Quantencomputing aus einer höheren Perspektive betrachten.

Dieser Artikel ist eine vom Science Popularization China Starry Sky Project unterstützte Arbeit

Autor: Jin Yirong

Gutachter: Xue Peng (Professor am Beijing Computational Science Research Center)

Produziert von: Chinesische Vereinigung für Wissenschaft und Technologie, Abteilung für Wissenschaftspopularisierung

Hersteller: China Science and Technology Press Co., Ltd., Beijing Zhongke Xinghe Culture Media Co., Ltd.

<<:  Kann Alkoholkonsum Nierenerkrankungen vorbeugen? Informieren wir uns zunächst über diese Gefahren! Wenn Sie gerne trinken, sollten Sie es sich nicht entgehen lassen!

>>:  Die KI hat den menschlichen Champion erneut besiegt! Diesmal geht es um Drohnenrennen

Artikel empfehlen

Welche Übungen können das Beinwachstum anregen?

Heutzutage lieben die Menschen Schönheit sehr. Im...

Was ist der beste Weg, um Bauch und Po zu verlieren?

Jeder liebt eine perfekte Figur, besonders im Som...

Was ist ein Krafttrainingsprogramm für den Oberkörper?

Bewegung ist in unserem Leben unverzichtbar, denn...

Welche abendliche Übung ist am besten zum Abnehmen?

Wenn Mädchen eine schlanke Figur haben wollen, dü...

Wie viel Bewegung ist nötig, um durch Laufen abzunehmen

In der heutigen Zeit ist Abnehmen ein heißes Them...

Welche Sportarten gibt es?

Sport ist in unserem Leben eigentlich ein ganz no...

UN-Tourismus: Welttourismusbarometer für September 2024

Der Bericht mit dem Titel „World Tourism Baromete...