Die Logik hat kein Zuhause, ist überall und nirgends. Wer sie sucht, stößt auf Schriften, die nur der Eingeweihte versteht. Hin und wieder jedoch greift sie in die Geschichte ein – dann zeigt sie sich.

Etwa zwei Stunden von London entfernt liegt das Gelände namens Bletchley Park. Hier wurden mit logischen Methoden die Geheimcodes der Deutschen im Zweiten Weltkrieg geknackt. Weshalb England den U-Boot-Krieg gewinnen konnte, Hitler die Schlacht am Kursker Bogen verlor und die Invasion der Normandie gelang. Nicht auszudenken, was andernfalls geschehen wäre. Atombomben auf Berlin?

Bletchley Park ist heute ein Museum, betrieben mit Enthusiasmus und beschämenden Mitteln. Die teils baufälligen Baracken säumen den Weg zum Haupthaus, dessen pittoresk zusammengestoppelte Fassade mehr verspricht, als sie hält. Im »Ballsaal«, dem Vortragsraum, fällt im Winter zuweilen die Heizung aus, das Publikum lacht grimmig darüber. Aber leider regnet es auch durchs Dach.

Eine der Baracken fungiert als Archiv, hier wartet eine Division von Kartons, randvoll mit entschlüsselten Funksprüchen, auf Historiker. Nebenan ein liebevoll arrangiertes Sammelsurium von Churchill-Memorabilia. Doch Bletchley Park hat mehr zu bieten als Karteikarten oder den Kriegspremier als Teetopf, nämlich raumfüllende Apparate. Denn an diesem Ort ist die Logik Fabrik geworden.

Tag und Nacht rackerten sich hier Tausende Frauen und Männer ab, denen nach Schichtende die ölverschmierten Finger schmerzten. Ihre Augen brannten, weil nur in flackerndem Neonlicht gearbeitet wurde. Und die Ohren klingelten ihnen, denn sie bedienten mehr als 200 schrankwandgroße Maschinen, die unausgesetzt ratterten und rasselten.

Elektrische Logikmaschinen waren das, »Bomben« genannt. Mit deren Hilfe wurden von 1940 an die Funksprüche dekodiert, die der deutsche Verschlüsselungsapparat Enigma verfremdet hatte. Gegen das noch wirkungsvollere Kodiergerät Lorenz SZ wiederum trat im Jahr 1944 ein Trumm namens Colossus an. Das war der erste elektronische Computer der Welt. Gebaut hatte ihn Thomas Flowers, ein Ingenieur, seiner Zeit voraus. Doch als das Genie auf dem englischen Geheimgelände galt Alan Turing. Der erschien oft seltsam abwesend. Ihn nachlässig gekleidet zu nennen war eine Untertreibung. Seine Stimme kiekste Kapriolen, die Handschrift kroch kaum leserlich dahin. Aber Turings Geist strahlte punktgenaues Laserlicht aus und zerlegte die deutschen Funksprüche.

Statt »wahr« und »falsch« könnte man auch »grün« und »rot« sagen

Turing war Logiker. Er gehörte also zu jenen, die erforschen, wie man folgerichtig denkt. Logik ist etwas anderes als Rhetorik, die das Überzeugen untersucht. Oder als Psychologie, die das tatsächliche Denken betrachtet. Ebenso wenig handelt es sich um Philosophie. Denn für die Logik ist »Wahrheit« nur eine Kennung, eine Marke; sie könnte Sätze auch mit den Werten »grün« und »rot« belegen statt mit »wahr« und »falsch«, daraus würde für ihre Weise kein Unterschied entstehen.

Mathematik ist sie auch nicht, obwohl logische Manuskripte auf den ersten Blick wie mathematische aussehen. Den Unterschied haben vor gut 100 Jahren Benjamin Peirce und sein Sohn Charles miteinander ausdiskutiert. Der Senior war Mathematiker, der junge Peirce einer der wichtigsten Logiker der Geschichte. Beide stellten fest, dass ihre Interessen bezeichnend weit auseinanderlagen. Mathematiker, schrieb Charles Sanders Peirce später, ziehen zwingende Schlüsse, Logiker hingegen untersuchen das zwingende Schließen. Während der Mathematiker, beispielsweise, einen kurzen knackigen Beweis schön findet, seziert ihn der Logiker in seine atomaren Bestandteile, denn er will nicht nur erleben, dass der Beweis zwingend ist, sondern ganz genau zeigen, warum.

Damit sich in den Beweisgang keine Missverständnisse einschleichen, baut die Logik ihre Begriffsgebäude minutiös, Steinchen auf Steinchen. Im Idealfall so, dass sich die Sätze durch regelkonforme Umgruppierung von Symbolen aus einander erzeugen lassen, rein mechanisch, wie von Computern gesteuert. Weshalb die Logik zugleich die Basisdisziplin der Informatik ist (und Software auf Französisch logiciel heißt).

Die erste Blütezeit der Logik fand in der Antike statt. »Logik« kommt von logos, dem griechischen Begriff für das »Wort«. Die Frage, wie zwingende Schlüsse erzeugt werden können, war in der Diskussionskultur der Zeit Platons entstanden. Es dauerte dann aber noch etwa 30 Jahre, bis Aristoteles sein Organon verfasste, eine Sammlung und Diskussion von Schlussregeln – etwa: »Wenn jedes b ein c ist und jedes a ein b , dann ist jedes a ein c

Die nachfolgende Geschichte der Logik lässt sich als eine Verfeinerung dieses Organons beschreiben, die Jahrhunderte in Anspruch nahm. Logik wurde präziser, ziselierter, systematischer. Schließlich kam sie, nachdem die mittelalterlichen Scholastiker noch einmal ihre ordnende Hand angelegt hatten, zum Stillstand. Über das Schließen in natürlicher Sprache schien so ziemlich alles gesagt worden zu sein.

Eine Rädermaschine sollte die Heiden vom Christentum überzeugen

Doch im Werk des 1235 auf Mallorca geborenen Raimundus Lullus finden sich dann erste Spuren einer neuen, der modernen Logik. Der Mystiker hatte darüber nachgesonnen, wie sich Muslime zum Christentum bekehren ließen, und war ausgerechnet auf eine Maschine verfallen. Lullus vermutete, die Heiden könnten sich nicht recht vorstellen, wie viele großartige Eigenschaften der Christengott und sein Sohn besäßen, weshalb er ein Gerät erfand, das einem Ziffernschloss ähnelte. Nur dass dort, wo der heutige Radler Zahlen sieht, Symbole für göttliche Eigenschaften angebracht waren. Nun musste der Heide nur noch drehen und wurde der erstaunlichsten Kombinationen gewahr. Mit einer solchen Rädermaschine ließen sich natürlich auch Botschaften verschlüsseln, und genau nach diesem Prinzip taten es die Hitlerdeutschen später auch.

Angeblich wurde Lullus von Muslimen zu Tode gesteinigt. Er hinterließ seltsame Tabellen, die weitere Symbole kombinierten, darunter logische Zusammenhänge wie »Widerspruch« oder »Gleichheit«. Alles Wissen der Welt sollte so erzeugt werden, durch reine Symbolmanipulation also.

Derselbe Gedanke kam gut fünf Jahrhunderte später dem deutschen Gelehrten Gottfried Wilhelm Leibniz. Er dachte über eine Symbolsprache nach, in der sich aus ein paar Annahmen (Axiomen) »durch Umwandlung von Formeln nach gewissen vorgeschriebenen Gesetzen« sämtliches Wissen herleiten ließe. Und da die Symbole dieser Sprache auch Zahlen sein könnten, hoffte Leibniz, dass eines Tages, »wenn zwischen den Menschen Streit entsteht, man nur zu sagen braucht: ›Rechnen wir!‹« – das berühmteste Zitat des Frühaufklärers.

Doch immer noch war die Zeit nicht reif für die Formalisierung des Denkens. Vielleicht, weil es ein schwer zugängliches Konzept ist, weit vom Alltagsverstand entfernt. Und selbst da, wo es verständlich klingt, muss man schon genauer hinsehen.

In der Aussagenlogik beispielsweise, die sich mit gültigen Sätzen beschäftigt, existiert eine Verknüpfung namens »Implikation«: ab . Allerdings besagt dieser Ausdruck nur, dass b gilt, wenn a gegeben ist, mitnichten aber, dass zwischen beiden irgendein anderer Zusammenhang bestehe – von derlei außerlogischen Beziehungen wird abstrahiert. Infolgedessen ist auch der Satz Die Erde ist ein PlanetHamburg ist eine Stadt eine gültige Interpretation von ab . Selbst Die Erde ist eine ZitroneHamburg ist eine Stadt geht aussagenlogisch in Ordnung, denn ab umfasst sämtliche Fälle, in denen b gilt, also auch diejenigen, in denen a falsch ist. Wenn wir → als »folgt« lesen wollen, können wir also sagen: Logisch gesehen kann aus Falschem durchaus Richtiges folgen. Wie im echten Leben.

Mitte des 19. Jahrhunderts ging der Engländer George Boole daran, die Aussagenlogik durchzuformalisieren. Er zeigte unter anderem, dass Verknüpfungen wie »und« auch als Operationen gedeutet werden können, etwa als Multiplikation. Und statt »wahr« und «falsch« könne man auch »1« und »0« schreiben. Die »Boolesche Algebra« liegt der heutigen Digitaltechnik zugrunde, die 1 und 0 elektronisch als an und aus darstellt.

Mit Boole nahm die Forschung Fahrt auf. Einige Logiker überlegten, was der Mindestvorrat an Verknüpfungen sein müsste, um alle anderen definieren zu können; die Palme errang der bereits erwähnte Charles Sanders Peirce, der nachwies, dass sich sämtliche Verknüpfungen der Aussagenlogik aus einer einzigen herleiten lassen, nämlich aus »nicht – oder« (im gewöhnlichen Sprachgebrauch: »weder – noch«). Sie wird auch NOR genannt und bedeutet, dass aNORb wahr ist, wenn sowohl a als auch b falsch sind. Die vertraute und-Verknüpfung von a und b lässt sich auf diese Weise schreiben als (aNORa)NOR(bNORb). Elektronische NOR -Gatter finden sich in fast jedem Computerchip.

Andere Logiker fanden Begriffe, die es erlaubten, eine Vielzahl mathematischer Konzepte exakt zu definieren. Im frühen 20. Jahrhundert schließlich ging die Hoffnung um, es ließe sich die gesamte Mathematik logisch herleiten, genauer: Es könnten alle wahren mathematischen Sätze aus ein paar Axiomen und mit Hilfe einer begrenzten Zahl rein formaler Rechenregeln erzeugt werden.

Dann schlug der Blitz ein. Im Jahr 1931 wies der Österreicher Kurt Gödel nach, dass sich in der Sprache jedes einigermaßen komplexen formalen und widerspruchsfreien Systems Sätze bilden lassen, die zwar unbestreitbar wahr sind, aber aus den Axiomen ebendieses Systems nicht hergeleitet werden können. Eine epochale Entdeckung.

Auch Alan Turing war hingerissen. Um die Ableitbarkeit von Sätzen zu untersuchen, hatte sich der Brite ein Gedankenexperiment einfallen lassen, und zwar eine Maschine mit Schreib-/Lesekopf und Programmspeicher, die Zeichenfolgen je nach Programm umformt. Einen Computer! Gab’s damals nicht, außer in Turings Kopf. Man kann sich diese »Turing-Maschine« auch als einen Kasten denken: Oben wirft man eine Zeichenfolge hinein, unten kommt eine andere heraus. Sie ist also eine Herleitungsmaschine, eine Beweismaschine, eine Logikmaschine. Turing hatte der Logik Beine gemacht. Und gezeigt, dass seine Fantasiemaschine mit Hilfe geeigneter Programme alles herleiten könnte, was sich herleiten lässt.

Die Enigma hatte 158 Trillionen Schlüssel – Turing knackte sie trotzdem

Man könnte sie auch, überlegte Turing, so zu programmieren versuchen, dass sie ableitbare Sätze in eine 1 umformt und alle anderen in eine 0. Aber er bewies, dass es immer wieder Sätze geben muss, bei deren Überprüfung die Maschine niemals zum Stillstand kommen wird. Das Programm prüft und prüft, trifft aber keine Entscheidung. Anders gesagt: Es gibt Formalismen, in denen nicht für jede Behauptung mit Hilfe ein und desselben Computerprogramms bewiesen werden kann, dass sie ableitbar ist oder nicht, also dass sie wahr oder falsch ist.

Das war Turings Entdeckung aus dem Jahr 1936. Bald darauf konnte er in Bletchley Park seinen Stil, Logik maschinell zu verstehen, in der Praxis erproben: für die Attacke auf Deutschlands Verschlüsselungsmaschine Enigma. Deren Mechanismus ersetzte die Buchstaben eines Klartextes durch andere, und zwar nach einem veränderlichen Schlüssel. Um den zu bestimmen, nutzte die Enigma im Wesentlichen mehrere Walzen, nach dem Prinzip Lullus oder Fahrradschloss, in die jeweils 26 Drähte hinein- und wieder hinausführten; die Walzen ließen sich drehen, und mit den Stellungen veränderten sich auch ihre elektrischen Kontakte untereinander.

Der Soldat tippte auf einer Schreibmaschinentastatur einen Buchstaben und erzeugte einen Stromstoß, der durch die Walzen wanderte und schließlich eine von 26 Lampen aufleuchten ließ, von denen jede für einen Buchstaben stand. Es kamen noch ein paar weitere Tricks hinzu, sodass die Maschine 158.000.000.000.000.000.000 verschiedene Positionen einnehmen konnte, um Buchstaben miteinander zu vertauschen. 158 Trillionen Schlüssel! Und immer wieder bestimmten die Wehrmachtsfunker aus dieser Menge durchs Drehen an den Walzen einen neuen. Wie sollte man so ein System knacken?

Die Analyse einiger Enigma-Funksprüche, erleichtert durch Bedienungsfehler deutscher Soldaten, hatte einen wunden Punkt offenbart, nämlich dass an entscheidender Stelle des Geräts die logische Beziehung ab eingebaut war. Also nicht nur ab, sondern auch umgekehrt ba . Die Symmetriebeziehung ab bedeutet aber, dass ein unrichtiges a immer ein unrichtiges b nach sich zieht. Anders als im Fall ab folgt diesmal aus Falschem also stets Falsches. Das war Turings Chance.

Er verfiel auf die Idee, bestimmte Annahmen über die kodierten Funksprüche zu prüfen, diese Annahmen aber nicht zu verwerfen, sobald sie sich als irrig erwiesen hatten, sondern aus ihnen vielmehr mit maschineller Hilfe massenhaft weitere Annahmen abzuleiten – lauter falsche natürlich. Zu diesem Zweck konstruierte Turing seine »Bomben«, in denen rotierende Lullus-Walzen, vereinfacht gesagt, unablässig ungültige Fälle erzeugten, damit diejenigen übrigblieben, die möglicherweise Sinn ergaben.

Der Erfolg war überwältigend. Dank Turings Logik sank die Zahl der von deutschen U-Booten vernichteten britischen Schiffe schlagartig.

Bis sie 1941 ebenso dramatisch wieder stieg. Die Deutschen besaßen jetzt die neue Verschlüsselungsmaschine, die Lorenz SZ, die wieder mit Walzen, aber nach anderen Prinzipien arbeitete. Bis nach dem Krieg hatten die Engländer keine Ahnung, wie das tückische Räderwerk wohl aussehen mochte – aber ihre Logiker konnten seine Funktionsweise analysieren, und die Elektronenröhren von zehn Colossus-Computern knackten schließlich auch diesen Code, mit Hilfe Boolescher Logik. Bald darauf eruierten sie Deutschlands Vorbereitungen auf die Invasion der Alliierten, was die Planung des D-Day entscheidend beeinflusste.

Nach Kriegsende wurden sämtliche Spuren in Bletchley Park beseitigt, und Alan Turing wandte sich gänzlich den Computern zu. Einen langen Weg war die Logik nun gegangen: In der Klassik hatte sie die Regeln des zwingenden Argumentierens erschöpfend behandelt; in der Moderne die Grenzen des formalisierten Schließens entdeckt; schließlich das Schlussfolgern zum Programmieren umgewandelt. War’s das?

Nach wie vor existiert die angewandte Logik. Sie ist Hilfs- und Grundlagendisziplin der Informatik, der Sprachwissenschaft, der Philosophie und natürlich vor allem der Mathematik, deren Fundamente logisch bearbeitet werden. Zum anderen entwickelt sich die Logik als eigenständige Wissenschaft munter weiter. Sie entwirft formale Systeme, die eine Interpretation zulassen, in der auch zeitliche Begriffe wie »jetzt«, »bald« oder »später« verwendet werden: »Temporallogik«. Oder solche, die mit Wahrscheinlichkeitsbegriffen umgehen oder mit Unschärfen: »Modallogik« oder »Fuzzy-Logik«. Oder solche, die Widersprüche oder bloße Möglichkeiten zulassen: »parakonsistente« und »kontrafaktuale« Logiken. Und etliche mehr, manche von ihnen reine Gedankenexperimente, andere für Informatiker oder Ingenieure interessant.

Der Philosoph und Logiker Ludwig Wittgenstein (1889 bis 1951) schrieb, dass die Menschen viele verschiedene »Sprachspiele« übten. Er wandte sich damit gegen die Vorstellung, Sprache und Denken seien nur mit Logik zu begreifen.

Doch kann das Sprachspiel der Logik als das allgemeinste Verhältnis zwischen den Menschen gelten. Sie ist rein abstrakt; sie sieht ab von Ideologie und Religion, Nationalität und Hautfarbe, Geschlecht und Alter und Klassenlage und Leitkultur oder Migrationshintergrund und Zeitalter und Ort und überhaupt von allem, was den Teilnehmer am Überzeugungsprozess spezifisch anfärbt.

Die Regeln der logischen Vernunft sind eben universell. Wie die Menschenrechte. Und dass diese heute in Europa gelten, ist nicht zuletzt der Logik zu verdanken.

Literatur zum Thema:

Rolf Hochhuth: Alan Turing
Erzählung; Rowohlt 1998; 200 S., 12,90 €

Douglas R. Hofstadter: Gödel, Escher, Bach
Klett-Cotta 2006; 896 S., 35,– €

Alfred Tarski: Einführung in die mathematische Logik
Vandenhoeck & Ruprecht 1977; 285 S., 21,90 €

Diesen Artikel finden Sie als Audiodatei im Premiumbereich unter www.zeit.de/audio