Nach eigenen Angaben hat Google einen bedeutenden Meilenstein erreicht, um eine der grössten Hürden im Quantencomputing zu überwinden. Hartmut Neven, deutscher Informatiker und Leiter des
Quantum Artificial Intelligence Laboratory bei Google, erläuterte, dass mit dem neuen Spezialchip «Willow» und einer neuartigen Anwendungsstrategie die Weichen für die Entwicklung nutzbarer Quantencomputer gestellt sind.
In der
renommierten Fachzeitschrift «Nature» berichten Neven und sein Team, dass es erstmals gelungen ist, eine Quantenfehlerkorrektur mit Fehlerraten unter einem entscheidenden Schwellenwert zu realisieren. Diese Fehlerkorrektur spielt eine zentrale Rolle bei der Entwicklung skalierbarer und anwendbarer Quantencomputer.
Quantencomputer besitzen das Potenzial, bestimmte mathematische Probleme deutlich schneller zu lösen als herkömmliche Computer. Dies betrifft insbesondere Bereiche wie Materialforschung und maschinelles Lernen innerhalb der künstlichen Intelligenz. Die bisherigen Systeme scheitern jedoch häufig daran, weil sie entweder zu klein sind oder zu viele Fehler aufweisen, um einen echten Nutzen zu bieten. Ein zusätzliches Problem besteht darin, dass die Fehlerquote mit steigender Anzahl von Recheneinheiten (Qubits) zunimmt.
Um diese Herausforderungen zu meistern, hat das Google-Team mehrere fehleranfällige physikalische Qubits zu einem weniger anfälligen logischen Qubit kombiniert.
«Willow», der neue Quantenprozessor von Google. /


Im Rahmen dieser Methode kam der neu entwickelte Quantenprozessor «Willow» zum Einsatz.
Unabhängige Forscher würdigen Googles Bemühungen
Neven und sein Team betonen, dass mit der angewandten Methode und dem neuen Chip skalierbare, fehlerkorrigierte Quantencomputer möglich sind. Dennoch weisen die Forschenden darauf hin, dass die aktuellen Fehlerraten weiterhin nicht ausreichen, um einen praktischen Quantencomputer zu realisieren. Das Team geht davon aus, dass für zufriedenstellende Fehlerraten deutlich mehr physikalische Qubits erforderlich sind. Ausserdem könnte der vermehrte Einsatz zusätzlicher Qubits auch längere Rechenzeiten nach sich ziehen.
Markus Müller, Professor für theoretische Quantentechnologie an der RWTH Aachen, erklärte gegenüber dpa, dass es dem Google-Team experimentell gelungen sei, eine Quantenfehlerkorrektur erfolgreich unter den kritischen Fehlerschwellenwerten nachzuweisen und dabei eine grundsätzlich skalierbare Methode anzuwenden. «Die Arbeit erfüllt methodisch die hohen Standards des Forschungsfeldes.»
Michael Hartmann, Professor für theoretische Physik an der Friedrich-Alexander-Universität Erlangen-Nürnberg, lobte auf Anfrage ebenfalls die wissenschaftliche Qualität dieser Forschung. «Der präsentierte Ausblick ist durchaus gerechtfertigt.» Es sei jedoch wichtig festzuhalten, dass die Autoren darauf hinwiesen, dass ein fehlertolerantes Rechnen nur dann realisierbar ist, wenn es gelingt, die Ergebnisse auf signifikant grössere Qubit-Zahlen zu skalieren.
«Mit der gegenwärtigen Qualität der Qubits wird man zwischen 100.000 und einer Million Qubits benötigen, um umfangreiche, fehlertolerante Berechnungen durchzuführen, die für klassische
Supercomputer unerreichbar sind», erklärte Hartmann im Science Media Center (SMC). In dieser Arbeit werden Resultate eines Chips mit 105 Qubits vorgestellt. «Somit wird klar erkennbar, wie lang der Weg noch ist.»
Durch diese Schritt-für-Schritt-Ansätze revolutiert Google nicht nur das Quantencomputing, sondern eröffnet auch neue Möglichkeiten in der wissenschaftlichen Forschung und industriellen Anwendung.