Bisher gibt es nur kleine Quantencomputer im Labor, weil sie so sensibel sind. Der größte rechnet mit 14 Qubits. Für Anwendungen – etwa das Knacken komplexer Verschlüsselungen – bräuchte man aber einige Tausend. Physiker haben nun einen Ansatz für mehr Leistung.

Stuttgart - Für John Martinis sind Quantencomputer keine Laborspielerei mehr, mit der Physiker ihren virtuosen Umgang mit den Seltsamkeiten der Quantenwelt beweisen. Der Ernst der Technikentwicklung habe begonnen, sagte der Physiker von der University of California in Santa Barbara schon letztes Jahr beim Internetkonzern Google, der ihn mittlerweile in diesem Bemühen fördert. Die grundlegenden Hürden, diese neue Art von Computer zu bauen, seien überwunden, behauptet auch Tommaso Calarco vom Zentrum für Integrierte Quantenwissenschaft und -technologie in Ulm und Stuttgart. Der Rest sei Ingenieurarbeit.

 

Ihren Optimismus beziehen die Experten auch aus Fortschritten von Martinis Gruppe und der Forschungsabteilung des Computerriesen IBM. Beide Teams wollen Quantencomputer aus supraleitenden Schaltungen bauen. Diese lassen sich wie herkömmliche Computerchips mit Standardverfahren produzieren und gelten als tauglich für eine baldige Massenherstellung. Chips aus wenigen supraleitenden Komponenten, primitive Quantencomputer also, haben die Physiker schon gebaut.

Doch das Rezept, nach dem Computerchips für PCs oder Smartphones entstehen, nämlich die Bauelemente auf mikroskopische Maße zu schrumpfen und dann Milliarden von ihnen wie Legoblöcke zusammenzustecken, so dass sich ihre Rechenkraft summiert, sei beim Quantencomputer schwer umsetzbar, räumt Calarco ein.

Je größer der Quantencomputer, umso anfälliger ist er

Was ist das Problem? In der potenziellen Stärke von Quantencomputern liegt gleichzeitig ihre Schwäche. Sie verarbeiten Information simultan, die ein herkömmlicher Rechner nur in aufeinanderfolgenden Schritten abarbeiten kann. Quantenrechner könnten daher Verschlüsselungen im Handumdrehen knacken, gigantische Datenmengen blitzschnell durchforsten oder komplexe Optimierungsaufgaben, etwa in der Logistik, mit Leichtigkeit lösen.

Sie sollen das mittels sogenannter Qubits erreichen, Speicherzellen, die die beiden digitalen Werte „0“ und „1“ simultan aufnehmen können. Vergleichen lässt sich das mit einer Münze: Liegt sie auf einem Tisch, dann zeigt sie entweder Kopf oder Zahl. Das entspräche dem digitalen Bit, das jeweils nur einen von zwei Werten speichert. Das Qubit hingegen wäre eine Münze, die in der Luft schwebt. Sie könnte viel mehr Information als nur Kopf oder Zahl speichern, da sie verschiedenste Lagen im Raum einnehmen kann. Doch während die eine Münze stabil auf dem Tisch liegt, würde schon ein Lufthauch die Lage der schwebenden Münze verändern. Entsprechend empfindlich reagieren Qubits auf Umwelteinflüsse, etwa auf Stöße mit Luftpartikeln.

Für komplexe Rechnungen bräuchte man Computer mit Tausenden Qubits, die vielen Verarbeitungsschritten ausgesetzt wären. Überall könnten Störungen Rechenfehler verursachen. Daher haben Quantencomputer bisher höchstens 14 Qubits. Größere Rechner wollen Google, IBM sowie Forscher um Rainer Blatt von der Universität Innsbruck erreichen, indem sie Qubits quasi Selbstheilungskräfte verleihen. In einem klassischen Computer funktioniert diese Selbstheilung, indem jedes Bit dreifach vorhanden ist. Wenn eines der Bits einen abweichenden Wert enthält, wird es automatisch an den Wert der anderen beiden Bits angepasst – nach dem Mehrheitsprinzip also.

Die Qubits kontrollieren sich gegenseitig

Weil der gespeicherte Wert eines Qubits nicht ausgelesen werden kann, ohne die Rechnung zu stören – wieder eine Besonderheit der Quantenwelt –, lässt sich dieses Prinzip nicht eins zu eins auf Quantenrechner übertragen. Doch Physiker haben einen Trick, durch den sich die Qubits gegenseitig kontrollieren: Sie bringen sie miteinander in eine innige Verbindung, im Fachjargon „Verschränkung“ genannt. Für so eine verschränkte Gruppe lässt sich feststellen, ob alle noch den gleichen Wert besitzen oder nicht. Weil nur die Konformität der ganzen Gruppe getestet wird und nicht welches Qubit abweicht, stört diese Messung den Rechenprozess nicht.

Die Forscher schaffen nun ein Netzwerk aus solchen verschränkten Gruppen, in dem sie eventuelle Fehler leicht lokalisieren können. An den Schnittpunkten dieses Netzwerks sitzen diejenigen Qubits, die zum Rechnen benutzt werden. Wenn eines von ihnen falsch sein sollte, dann müssen die beiden verschränkten Gruppen uneinheitliche Werte melden, zu denen es gehört. Das falsche Qubit wird anhand der beiden inkonformen Gruppen erkannt und automatisch korrigiert. Dafür braucht jedes rechnende Qubit mehrere Kontroll-Qubits. John Martinis Team fand heraus, dass der Erfolg mit der Anzahl der Kontroll-Qubits steigt: Bei einem System aus neun Qubits verzögerte sich das Auftreten irreparabler Fehler um fast das Neunfache. Die Gruppen von IBM und Rainer Blatt schafften es zudem, Korrekturverfahren für zwei unterschiedliche Fehlerarten des Qubits umzusetzen. Damit stünden der Vergrößerung der Quantencomputer nur noch technische Hürden im Weg, heißt es an der Uni Innsbruck.

Die Herausforderungen hält Tommaso Calarco allerdings für „um Größenordnungen schwieriger“ als in der herkömmlichen Computertechnik. So müsse zum Beispiel die maschinelle Herstellung von supraleitenden Qubits noch viel präziser werden. „Die Schaltkreise für die Steuerung der Qubits müssen auf der Nanometerskala gefertigt werden“, sagt Calarco. „Denn sonst verursachen sie zu häufig Fehler.“ Wenn Fehler zu schnell aufeinanderfolgen, kann sie auch die Selbstheilungstechnik nicht mehr unterdrücken.

Rainer Blatt rechnet schon in fünf Jahren mit einem Quantencomputer mit 40 Qubits, der Simulationen von Molekülen ausführt, an denen selbst Supercomputer heute scheitern. Ein ausreichend großer Quantencomputer für das Brechen von Verschlüsselungen oder fürs Durchforsten von Daten wird aber noch auf sich warten lassen. Statt Tausend Qubits zu erreichen, setzen die Forscher vorerst darauf, ihre empfindlichen Rechner robust zu machen.