Vor zehn Jahren wurde der erste potenziell nützliche Quantenalgorithmus geschrieben. Also ein Rechenverfahren, das sich auf einem Computer ausführen lässt, und zwar auf einem Quantencomputer. Nur gibt es leider bis heute keine Quantencomputer.

Der genannte Algorithmus, von Peter Shor entdeckt, eignet sich dafür, eine Zahl in ihre Primfaktoren zu zerlegen (zur Erinnerung: Jede natürliche, also ganze und positive Zahl ergibt sich aus der Multiplikation von Primzahlen). Er kann das in vergleichsweise kurzer Zeit. Genauer: Die Rechenzeit erhöht sich mit der Größe der zu zerlegenden Zahl, aber eben nur allmählich und nicht explosionsartig.

Für wen wäre das interessant? Für Codeknacker zum Beispiel. Gute Verschlüsselung kann heutzutage nicht gebrochen werden, weil sie mit sehr großen Zahlen operiert, die in Primfaktoren zerlegt werden müssen. Gäbe es jedoch Quantencomputer, dann wäre alles, was heute verschlüsselt wird, quasi sofort zugänglich.

Mit den exotischen Rechnern ließen sich auch riesige Datenmengen im Nu durchsuchen, weshalb auch Geheimdienste und Google liebend gerne so etwas hätten. Als eine amerikanische Firma behauptet hatte, Quantencomputer bauen zu können, klopften diverse Machtmonopole bei ihr an. Allerdings war die Ankündigung wohl verfrüht.

Heutige Computer beruhen auf dem Verhalten elektronischer Bauelemente, die zwischen zwei Spannungszuständen hin und her schalten. Die Zustände können als Null und Eins interpretiert werden. Quantencomputer beruhen ebenfalls auf dem Verhalten von Bauelementen, die sich zwischen zwei Zuständen entscheiden müssen – aber nicht sofort. Sie befinden sich sozusagen gleichzeitig in zwei einander überlagerten Zuständen, jeweils mit einer gewissen Wahrscheinlichkeit, und das solange, bis jemand kommt und misst: Erst dann nehmen sie den einen oder den anderen Zustand ein, sind also eindeutig Null oder Eins.

In der herkömmlichen Informatik werden mit Schaltelementen, die zu sogenannten Registern aneinandergereiht sind, beliebige Zahlen dargestellt: Jedes Element gilt dann als Bit, und ein vierstelliges Register könnte die Werte von 0000 bis 1111 einnehmen, was im Dezimalsystem den Zahlen 0 bis 15 entspricht.  Handelt es sich jedoch um Quantenelemente, Qubits genannt, nimmt jedes von ihnen beide Zustände ein, das Register stellt also sämtliche Zahlen von 0 bis 15 dar (jeweils mit einer bestimmten Wahrscheinlichkeit) – und mit diesen kann gleichzeitig gerechnet werden.

Ein Qubit kommt selten allein

Ein weiterer Dreh kommt hinzu. Ein Qubit mag ein Elektron sein, ein Photon, ein Atom oder etwas anderes, jedenfalls kommt es selten allein: Es kann mit anderen Qubits so verschränkt sein, dass sich die Wahrscheinlichkeiten ihrer Zustände wechselseitig beeinflussen. Sind genügend Qubits an diesem Spiel beteiligt, ergibt sich ein Riesenkomplex von aufeinander einwirkenden Nullen und Einsen, eine einzige große Rechnung, deren Ergebnis mit dem Messvorgang ausgelesen wird. Die zugrunde liegende Mathematik ist übrigens keine 200 Jahre alt ("Lineare Algebra"), also nach mathematischen Kriterien relativ rezent.

Immer wieder kommt in diesem Zusammenhang die kritisch gemeinte Frage auf, ob mit Quantencomputern das "binäre Schema" obsolet werde, also das Rechnen mit Null und Eins. Angefügt wird dann zuweilen, diese Auflösung der Welt in Ja oder Nein, Entweder-Oder sei reduktionistisch, dürr, armselig; sie werde der Wirklichkeit nicht gerecht, der Natur, dem Menschen, dem Geist oder wem auch immer.

Aber das ist mathematikblinder Quatsch. Erstens nämlich – und das beweist allein schon die Existenz von A/D-Wandlern (das sind Einheiten aus Hard- oder Software, die analoge Werte in digitale verwandeln und umgekehrt) – lässt sich mit genügend Nullen und Einsen jeder Zwischenton, jeder sanfte Verlauf, jede Grauzone nachbilden. So entstehen übrigens auch die sphärischen Synthie-Klänge der New Age Musik, die den geeigneten Soundtrack solcher Kritik am "binären Denken" darstellt.

Und zweitens ist auch mathematisch bewiesen, dass eine auf binärer Logik beruhende Rechenmaschine (für Experten: eine probabilistische Turing-Maschine) die gleichen Aufgaben wie jeder beliebig anders konstruierte Computer lösen kann, operiere er nun mit "Tribits" (0, 1, 2), mehrwertiger Logik, Differentialrechnung oder, wie Quantencomputer, mit linearer Algebra. Die Frage ist immer nur, welches Vorgehen leistungsfähiger ist. Wie gesagt: Es gibt gar keine Quantencomputer.