Wenn die Person im Hirnscanner an ein Foto oder Gemälde denkt, dessen Code bereits in der Datenbank gespeichert ist, können die Forscher das Motiv fast immer richtig erraten. Denn die Hirnareale für das Sehen oder Hören sind besonders groß und damit gut zu vermessen. Doch je abstrakter die Gedanken, desto schwieriger sind die entsprechenden Gehirnsignale zu interpretieren. Emotionen oder Absichten lassen sich nicht so einfach zuordnen wie Bilder, und sprachliche Gedanken können die Forscher mit einem Kernspin überhaupt nicht auslesen. Das hat auch mit einer entscheidenden Schwäche der Methode zu tun: Die Messung hängt vom Blutfluss ab, und der ist verhältnismäßig träge. Beim Sprechen ändern sich die Aktivitätsmuster im Gehirn jedoch so schnell, dass die Kernspinmessung nicht hinterherkommt.

Eine weitaus schnellere Möglichkeit besteht darin, die Hirnströme eines Menschen auszulesen, also die elektrischen Impulse, die beim Feuern der Neuronen entstehen. Sie liefern eine Art Liveaufnahme des Denkens. Die Bremer Informatikerin Tanja Schultz wagt sich mit dieser Methode an die Königsdisziplin des Gedankenlesens: Sprache erkennen.

Tanja Schultz ist es gemeinsam mit amerikanischen Neurowissenschaftlern vor Kurzem erstmals gelungen, vollständige Sätze aus den Hirnströmen zu rekonstruieren. Dafür sollten die Probanden Texte laut vorlesen: Auszüge aus der legendären Antrittsrede von John F. Kennedy oder Kinderreime. Elektroden zeichneten währenddessen die Aktivitätsmuster der Großhirnrinde auf. Aus den Signalen erstellten die Forscher eine Art Lautbibliothek für jede Person. Dabei ordneten sie jedem Laut ein bestimmtes neuronales Signal zu. Wurden die Texte später noch einmal vorgelesen, konnten sie anhand der Hirnsignale die richtigen Texte erkennen. Eine Weltpremiere.

Und jetzt das Kleingedruckte: Die Probanden waren Epilepsiepatienten, denen man ein Sensorennetz unter der Schädeldecke, also direkt auf die Großhirnrinde, implantiert hatte. Dort sind die Signale viel stärker als außerhalb des Schädels. Ein solches Verfahren ist freilich nur zulässig bei Menschen, deren Schädel ohnehin aus medizinischen Gründen geöffnet werden muss. Durch das laute Vorlesen feuerten außerdem auch jene Neuronen, die für Hören und Mundbewegung zuständig sind, was die Aktivitätsmuster noch einmal deutlicher machte. Tanja Schultz sagt: "Der nächste Schritt wäre, Sätze zu decodieren, die sich jemand nur vorstellt und nicht laut vorliest." Es wäre ein Riesenschritt.

Die spannende Frage ist, ob sich Signale dieser Art auch von außerhalb des Schädels entschlüsseln lassen. Zwar kann man Hirnströme mithilfe einer EEG-Haube auch an der Kopfhaut auslesen (die Abkürzung steht für Elektroenzephalografie, abgleitet von encephalon für Gehirn und gráphein für schreiben). Ein EEG kann das Gehirn aber nicht so genau durchleuchten wie invasive Methoden oder ein Hirnscanner, denn der Schädelknochen dämpft die Signale wie eine Lärmschutzwand.

Tanja Schultz ist dennoch optimistisch, dass die Technik eines Tages weit genug fortgeschritten sein wird, um gedachte Sätze auszulesen. Profitieren würden davon Menschen, die vollständig gelähmt sind und aus eigener Kraft nicht mehr sprechen können. Sie könnten auf diese Weise mit ihren Angehörigen oder Pflegern kommunizieren. Schultz geht davon aus, dass sie das noch erleben wird. Sie ist jetzt 51 Jahre alt. Aber sie betont: "All das funktioniert nur bei kooperativen Personen, die verstanden werden möchten. Es geht hier nicht darum, dass Gedanken, die im Kopf herumschwirren, von irgendwelchen Geräten abgefangen und decodiert werden können."

So gesehen, scheint es unmöglich, Menschen gegen ihren Willen Geheimnisse zu entreißen. Sowohl mit der fMRT-Technik als auch mit der EEG-Haube müssen die Versuchspersonen mitunter stundenlang unter Anleitung der Wissenschaftler trainieren, um die Datenbank ihrer eigenen Aktivitätsmuster zu füllen. Allerdings ist nicht ausgeschlossen, dass es eines Tages doch so etwas wie einen universellen Gedankendecoder geben kann. Die Forscher, die in Kyoto an einer Gedankensteuerung für Haushaltsgeräte arbeiten, durchforsten mit Big-Data-Algorithmen bereits öffentliche Datenbanken mit Hunderten von Hirnscans, um eben doch Gemeinsamkeiten unter den Denkmustern zu finden. Immerhin können sie schon erkennen, ob das Gehirn mit einer sprachlichen, emotionalen, motorischen, sozialen oder einer anderen Tätigkeit beschäftigt ist.

Die Hirnforscher stecken in einem Dilemma. Sie möchten auf keinen Fall als skrupellose Neurospione erscheinen, die den Menschen ihre Gedanken klauen wollen. Sie möchten, wie Tanja Schultz, gelähmten Menschen helfen. Oder, wie John-Dylan Haynes, die Mechanismen des Denkens verstehen. Allerdings interessiert sich auch das Militär längst für die Neurotechnik. Die Forschungseinrichtung Darpa des US-Militärs finanziert die Entwicklung von Gehirn-Computer-Schnittstellen seit Jahren. Geheimdienstmitarbeiter sollen damit die Unmengen an Spionagefotos zügiger analysieren, Soldaten Gefahrensituationen schneller erkennen können. Und John-Dylan Haynes hatte schon mal Kontakt zu jemandem, der im Auftrag der britischen Regierung Terroristen aufspürt. Er sagt: "In solchen Momenten macht man es sich dann nicht mehr so leicht, mit diesen Techniken umzugehen."