Quantencomputer gelten als Schlüsseltechnologie des 21. Jahrhunderts und sind auf der Hightech-Agenda der Bundesregierung nach künstlicher Intelligenz eingeordnet. Diese Technologie verspricht Lösungen für komplexe Probleme, die klassische Computer nicht bewältigen können, wie das Faktorisieren großer Zahlen. Die aktuellen Entwicklungen in diesem Bereich sind vielversprechend, jedoch auch herausfordernd, da Quantencomputer eine extrem fragile Technologie darstellen und sich als besonders anfällig gegenüber Umwelteinflüssen erweisen.
Ein internationales Forschungsteam, geleitet von Prof. Jens Eisert, hat in der Fachzeitschrift Nature Physics die Grenzen von Quantencomputern ohne Fehlerkorrektur untersucht. Sie fanden heraus, dass diese Systeme nur begrenzt komplexe Berechnungen durchführen können. Der Schwerpunkt liegt dabei auf der sogenannten Gatterfidelität, die die Qualität der Rechenoperationen beschreibt. Hohe Gatterfidelität ist entscheidend, um auch unter den bestehenden Einschränkungen große und praktisch relevante Rechnungen durchführen zu können. Diese Erkenntnisse liefern nicht nur theoretische Grenzen, sondern auch Orientierung für die zukünftige Entwicklung von Quantencomputern.
Die Herausforderungen der Quantenfehlerkorrektur
Die Forschung zu Quantencomputern bewegt sich an der Schnittstelle von theoretischer Physik und angewandter Mathematik. Eine der größten Herausforderungen besteht darin, Quanteninformation vor Fehlern durch Dekohärenz und Quantenrauschen zu schützen. Quantenfehlerkorrektur ist entscheidend für fehlertolerante Quantenberechnungen, da sie Störungen in der Quanteninformation, fehlerhafte Quantengatter und Messungen behebt. Quantencomputer sind aufgrund dieser Dekohärenz und anderer Ursachen besonders fehleranfällig.
Zur Handhabung der Empfindlichkeit werden zwei Strategien in Betracht gezogen: einerseits Fehlerkorrektur durch zusätzliche Qubits, was jedoch technisch anspruchsvoll ist, und andererseits das Arbeiten ohne Korrektur. Dies ermöglicht es, die Grenzen der fehleranfälligen Systeme auszuloten. Die DiVincenzo-Kriterien unterstreichen die Notwendigkeit der Quantenfehlerkorrektur für zuverlässige Berechnungen. Klassische Fehlerkorrektur basiert auf Redundanz, während das No-Cloning-Theorem besagt, dass Quanteninformation nicht kopiert werden kann, was eine Herausforderung für die Fehlerkorrektur darstellt.
Fortschritte in der Quanteninformatik
Über die Grundlagen der Quantenfehlerkorrektur hinaus wurden bedeutende Fortschritte erzielt, darunter die Entwicklung von Quantenfehlerkorrekturcodes. Peter Shor entwickelte 1995 einen Code, der Informationen von einem Qubit auf ein verschränktes System von neun Qubits überträgt und damit einen Meilenstein in der Quanteninformatik setzte. Der Shor-Code kombiniert Bit-Flip- und Sign-Flip-Codes und kann beliebige Fehler an einem einzelnen Qubit korrigieren. Seine Anwendung erfordert jedoch eine präzise Kontrolle von Qubits und komplexe Fehlermessungen.
Alternativen wie der Steane-Code, der mit nur 7 Qubits auskommt, und neuere Entdeckungen von Raymond Laflamme, der eine Klasse von 5-Qubit-Codes entwickelte, illustrieren die fortwährenden Bemühungen, die Skalierbarkeit der Quantenfehlerkorrektur zu verbessern. Topologische Quantencodes bieten eine weitere Perspektive für das Quantencomputing mit beliebiger Länge. Eine Schätzung von Emanuel Knill aus dem Jahr 2004 legt nahe, dass der Grenzwert für Fehlerkorrekturen bei 1–3 % liegen könnte.
Die Bedeutung des Standorts Berlin für Quantentechnologien wird durch die Beiträge verschiedener Institutionen wie der Sorbonne Université, der University of Chicago, dem Fraunhofer-Heinrich-Hertz-Institut, der Universität Lyon, dem Helmholtz-Zentrum Berlin und dem Massachusetts Institute of Technology deutlich. Ihr gemeinsames Engagement in der Forschung trägt zur Entwicklung dieser Hochtechnologie bei und könnte entscheidend für die zukünftige Rolle Deutschlands im internationalen Wettbewerb um Quantencomputer sein.



