Telefonieren zwei Gehirne – Seite 1

Am 28. März 2014 sitzt ein Mann im gelben T-Shirt in der indischen Küstenstadt Thiruvananthapuram vor einem Bildschirm und versucht, eine Nachricht nach Europa zu übermitteln, an einen Empfänger in Straßburg. Keiner der beiden soll dabei sprechen oder auch nur einen Finger bewegen. Die Forscher, die das Experiment aufgebaut haben, wollen den ersten Beweis einer Gehirn-zu-Gehirn-Kommunikation antreten, sie wollen Gedanken aus dem einen Gehirn herauslesen und in das andere hineinschreiben. Von Telepathie wird später die Rede sein.

Der Mann in Indien trägt eine Haube mit acht Elektroden auf dem Kopf. Er sieht etwas seltsam aus, wie ein verkabelter Wasserballspieler, aber er soll ja keinen Schönheitswettbewerb gewinnen, sondern eine Botschaft senden, genauer gesagt: ein Wort, codiert in einer Bitfolge aus Nullen und Einsen. Will der Mann eine 1 schicken, soll er sich vorstellen, er bewege die Hände. Will er eine 0 schicken, soll er sich vorstellen, er bewege die Füße. Die Elektroden in der Haube registrieren dafür die Signale des Motorkortex, eines Gehirnareals gleich unter der Schädeldecke. Per E-Mail schickt ein Rechner die Bitfolge nach Europa. Es ist wie Morsen mit Gedanken.

In Straßburg sitzt zur selben Zeit ein Mann in einem Labor, die Augen verdeckt von einer Schlafmaske. Ein Roboterarm bugsiert eine Magnetspule an seinen Hinterkopf, dort befindet sich das Sehzentrum des Gehirns. Kommt eine 1 aus Indien, reizt ein magnetischer Impuls das Sehzentrum, der Mann nimmt einen Lichtblitz wahr. Kommt eine 0, wird ein anderer Magnetimpuls abgefeuert, es bleibt dunkel. Nach 70 Minuten hat der Mann 140 Bits aus Thiruvananthapuram empfangen und die Nachricht von einem Computer entschlüsseln lassen. Zum ersten Mal haben Menschen ein Wort von Gehirn zu Gehirn übertragen, ohne zu sprechen: "Hola".

Unter Gedankenübertragung stellt man sich gemeinhin etwas anderes vor, als 70 Minuten lang an Hände oder Füße zu denken, um auf Spanisch Hallo zu sagen. Aber hat das Zeitalter der Telefonie nicht ähnlich bescheiden angefangen, wenn auch etwas unterhaltsamer? "Das Pferd frisst keinen Gurkensalat", dieser Satz wird am 26. Oktober 1861 vor einem Frankfurter Hörsaal in ein Trichtermikrofon gesprochen, in Strom umgewandelt, in den Hörsaal übertragen und dort vom Erfinder des Telefons, Johann Philipp Reis, vor staunendem Publikum fast fehlerfrei wiederholt. Hätte Reis zu träumen gewagt, dass die Menschen 150 Jahre später beim Spazierengehen telefonieren können, ohne Kabel und über Kontinente hinweg? Wird die Geschichte des Gedankenlesens und der Gedankenübertragung eine ähnliche Fortsetzung haben wie die des Telefons? Werden wir also auf das "Hola" aus Thiruvananthapuram irgendwann zurückblicken wie heute auf das Pferd und den Gurkensalat?

Dieser Text stammt aus dem Magazin ZEIT WISSEN Nr. 5/2015, das online oder am Kiosk erhältlich ist.

Die französischen und spanischen Forscher, die das Gedankenmorsen organisiert haben, neigen jedenfalls nicht zu Bescheidenheit. "Wir reden lieber von Geist-zu-Geist-Kommunikation als von Gehirn-zu-Gehirn-Kommunikation", schreiben sie in ihrer Veröffentlichung, "weil sowohl das Senden als auch das Empfangen der Nachricht eine bewusste Aktivität der Teilnehmer erfordert." Es ist eine kühne, vielleicht eine unverschämte Behauptung.

Gehirn oder Geist, das ist kein kleiner Unterschied. Wer Gehirne erforscht, registriert Neuronenaktivität, Durchblutung, Sauerstoffgehalt. Wer den Geist versteht, liest Gedanken. Er blickt dem Menschen ins Ich. Gehirn und Geist sind irgendwie miteinander verknüpft. Wie lässt sich diese Verbindung entschlüsseln? Das ist die Frage, um die sich derzeit alles dreht.

Wissenschaftler in aller Welt arbeiten daran. Sie legen Freiwillige in Hirnscanner, setzen ihnen Elektrodenhauben auf oder legen Sensoren unter die Schädeldecke von Patienten. Aus den Gehirndaten eines Menschen wollen sie ableiten, welche Absichten er hegt, welche Gefühle er empfindet, welche Bilder, Melodien oder gar Wörter ihm durch den Kopf gehen.

Kommunikation per Gedanken – Fortschritt oder Albtraum?

Für die einen ist diese Forschung ein Segen. Vollständig gelähmte Menschen vermögen dank neuartiger Gehirn-Maschine-Schnittstellen mit ihren Angehörigen und Pflegern zu kommunizieren. In Kyoto baut der Hirnforscher Shin Ishii ein Modellhaus, dessen Bewohner ihre Haushaltsgeräte mithilfe von Gehirnströmen fernsteuern sollen. Spielehersteller vermarkten Games mit Neurofeedback als das nächste große Ding.

Für die anderen sind die Visionen der Neurotechnik ein Albtraum. Dave Eggers’ Roman The Circle beschreibt eine hypertransparente Gesellschaft, in der jede Bewegung, jede Freundschaft, jedes Wort durch den Apple-Google-Facebook-ähnlichen Superkonzern The Circle öffentlich gemacht wird. In der letzten Szene liegt eine der Protagonistinnen im Koma auf der Intensivstation. Ein Monitor zeigt ihre Hirnströme, aber niemand versteht die Signale. Es sind die letzten Daten, die der Konzern noch nicht entschlüsseln kann. Ein Skandal! The Circle muss das ändern.

Wie gern würde man hin und wieder in die Köpfe der anderen hineinschauen. Wissen, was sie wirklich denken, ob sie etwas verschweigen oder lügen, ob sie unsere Gefühle erwidern, wer sie wirklich sind. In dem Film Strange Days von Kathryn Bigelow lassen sich die Erlebnisse eines Menschen per Gehirn-Computer-Schnittstelle sogar aufzeichnen und auf andere Gehirne übertragen. Die Bewusstseinsströme werden auf dem Schwarzmarkt gehandelt wie eine Art Seelenporno: Man dringt in die Erlebniswelt fremder Leute beim Sex ein, spürt den Adrenalinkick eines Gangsters, beobachtet die Welt durch die Augen eines Sterbenden. In den neunziger Jahren, als der Film gedreht wurde, war das krasse Science-Fiction. Wer heute die Nachrichten aus der Hirnforschung verfolgt, ertappt sich schon mal bei der Frage, wann die App dazu kommt.

Gedankenlesen wird zur seriösen Wissenschaft. Aber man muss bei jeder neuen Sensationsmeldung genau hinschauen, was die Experimente wirklich gezeigt haben. Liest da jemand einfach zwei motorische Signale aus, um binäre Zeichen durch die Welt zu schicken? Funktioniert die Methode nur, wenn man vorher den Schädel öffnet? Musste der Held der Forschung zunächst stundenlang im Hirnscanner trainieren?

In der Nähe des Berliner Hauptbahnhofs, auf dem Gelände des Universitätsklinikums Charité, befindet sich eines der Hauptquartiere der Gedankenleser, obwohl die Forscher sich natürlich niemals so nennen würden. Hier späht John-Dylan Haynes mithilfe großer Magnetröhren in die Gehirne von Freiwilligen, hier zeigen sich die neuen Möglichkeiten, aber auch die großen Hürden der Neurotechnik. Funktionelle Magnetresonanztomografie (fMRT) heißt Haynes’ Lieblingsmethode, gern auch Hirnscan genannt. Damit können die Forscher in unterschiedlichen Experimenten bereits feststellen, ob eine Versuchsperson gerade an einen Hund oder an eine Katze denkt, ob sie ein bestimmtes Produkt gern kaufen würde oder eher nicht, ob ein Proband vorgegebene Zahlen lieber addieren oder subtrahieren möchte, ob jemand einen Ort schon einmal gesehen hat. "Wenn ich bestimmte Dinge denke, schlägt sich das in bestimmten Hirnprozessen nieder", sagt Haynes. "Es gibt Bewusstseinsinhalte, und es gibt Hirnprozesse, und die haben offenbar systematisch etwas miteinander zu tun." Das eine ist Geist, das andere Gehirn. Mithilfe mathematischer Verfahren versucht man, sie zu verknüpfen.

Der Philosoph Ludwig Wittgenstein war davon überzeugt, dass der Mensch nur in Worten denken könne. "Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt", schrieb er vor hundert Jahren. John-Dylan Haynes ist ein pragmatischer Naturwissenschaftler, er bevorzugt eine andere Definition. Gedanken seien "alle Dinge, die wir bewusst erleben", sagt er. "Das können einfachste Empfindungen sein, Gefühle oder Bilder, Erinnerungen und auch komplexe satzartige Strukturen."

Ein Hirnscanner misst zunächst nur Durchblutungsänderungen im Gehirn. Wo mehr Blut fließt, so das Prinzip, verbraucht das Gehirn mehr Energie, und dort sind die Nervenzellen – die Neuronen – gerade besonders aktiv. Die Aufnahmen zeigen die Aktivität in Volumenelementen von der Größe eines Reiskorns – Mediziner sprechen von Voxeln. "Diese Bilder werden oft missverstanden", sagt Haynes. "Sie sind keine Fotografien des Gehirns, sie zeigen nicht, wo Gedanken sind, sie zeigen zunächst einmal nur, wo etwas passiert." Erst mithilfe von Lernalgorithmen lassen sich aus den Aktivitätsmustern einzelner Gehirne sinnvolle Interpretationen ableiten. Wie ein Fingerabdruck zu einer ganz bestimmten Person gehöre, so habe auch jeder Gedanke ein spezifisches Aktivitätsmuster im Gehirn. Allerdings: Jedes Gehirn denkt anders.

Gedanken sind biografisch gefärbt und entsprechend unterschiedlich codiert. "Wenn ich an einen Hund denke, passiert in meinem Gehirn etwas anderes als in Ihrem", sagt Haynes. Ein Hund – das ist für manche ein flauschiger Gefährte und ein treuer Freund aus Kindertagen. Anderen kommt dagegen lautes Bellen in den Sinn oder die Erinnerung an einen schmerzhaften Biss. Es gibt kein universelles Gedankenmuster für den Hund. Und auch nicht für ein Fahrrad oder die Mona Lisa. Deshalb muss der Computer immer erst lernen, mit welchem Aktivitätsmuster ein bestimmter Gedanke im Gehirn einer individuellen Person codiert ist. Die Versuchspersonen in Haynes’ Kernspintomografen denken gewissermaßen auf Probe. Für jede von ihnen erstellen die Forscher eine Datenbank. Mit einem Mustervergleich können sie später rekonstruieren, woran jemand denkt.

Lassen sich Signale dieser Art auch von außerhalb des Schädels entschlüsseln?

Wenn die Person im Hirnscanner an ein Foto oder Gemälde denkt, dessen Code bereits in der Datenbank gespeichert ist, können die Forscher das Motiv fast immer richtig erraten. Denn die Hirnareale für das Sehen oder Hören sind besonders groß und damit gut zu vermessen. Doch je abstrakter die Gedanken, desto schwieriger sind die entsprechenden Gehirnsignale zu interpretieren. Emotionen oder Absichten lassen sich nicht so einfach zuordnen wie Bilder, und sprachliche Gedanken können die Forscher mit einem Kernspin überhaupt nicht auslesen. Das hat auch mit einer entscheidenden Schwäche der Methode zu tun: Die Messung hängt vom Blutfluss ab, und der ist verhältnismäßig träge. Beim Sprechen ändern sich die Aktivitätsmuster im Gehirn jedoch so schnell, dass die Kernspinmessung nicht hinterherkommt.

Eine weitaus schnellere Möglichkeit besteht darin, die Hirnströme eines Menschen auszulesen, also die elektrischen Impulse, die beim Feuern der Neuronen entstehen. Sie liefern eine Art Liveaufnahme des Denkens. Die Bremer Informatikerin Tanja Schultz wagt sich mit dieser Methode an die Königsdisziplin des Gedankenlesens: Sprache erkennen.

Tanja Schultz ist es gemeinsam mit amerikanischen Neurowissenschaftlern vor Kurzem erstmals gelungen, vollständige Sätze aus den Hirnströmen zu rekonstruieren. Dafür sollten die Probanden Texte laut vorlesen: Auszüge aus der legendären Antrittsrede von John F. Kennedy oder Kinderreime. Elektroden zeichneten währenddessen die Aktivitätsmuster der Großhirnrinde auf. Aus den Signalen erstellten die Forscher eine Art Lautbibliothek für jede Person. Dabei ordneten sie jedem Laut ein bestimmtes neuronales Signal zu. Wurden die Texte später noch einmal vorgelesen, konnten sie anhand der Hirnsignale die richtigen Texte erkennen. Eine Weltpremiere.

Und jetzt das Kleingedruckte: Die Probanden waren Epilepsiepatienten, denen man ein Sensorennetz unter der Schädeldecke, also direkt auf die Großhirnrinde, implantiert hatte. Dort sind die Signale viel stärker als außerhalb des Schädels. Ein solches Verfahren ist freilich nur zulässig bei Menschen, deren Schädel ohnehin aus medizinischen Gründen geöffnet werden muss. Durch das laute Vorlesen feuerten außerdem auch jene Neuronen, die für Hören und Mundbewegung zuständig sind, was die Aktivitätsmuster noch einmal deutlicher machte. Tanja Schultz sagt: "Der nächste Schritt wäre, Sätze zu decodieren, die sich jemand nur vorstellt und nicht laut vorliest." Es wäre ein Riesenschritt.

Die spannende Frage ist, ob sich Signale dieser Art auch von außerhalb des Schädels entschlüsseln lassen. Zwar kann man Hirnströme mithilfe einer EEG-Haube auch an der Kopfhaut auslesen (die Abkürzung steht für Elektroenzephalografie, abgleitet von encephalon für Gehirn und gráphein für schreiben). Ein EEG kann das Gehirn aber nicht so genau durchleuchten wie invasive Methoden oder ein Hirnscanner, denn der Schädelknochen dämpft die Signale wie eine Lärmschutzwand.

Tanja Schultz ist dennoch optimistisch, dass die Technik eines Tages weit genug fortgeschritten sein wird, um gedachte Sätze auszulesen. Profitieren würden davon Menschen, die vollständig gelähmt sind und aus eigener Kraft nicht mehr sprechen können. Sie könnten auf diese Weise mit ihren Angehörigen oder Pflegern kommunizieren. Schultz geht davon aus, dass sie das noch erleben wird. Sie ist jetzt 51 Jahre alt. Aber sie betont: "All das funktioniert nur bei kooperativen Personen, die verstanden werden möchten. Es geht hier nicht darum, dass Gedanken, die im Kopf herumschwirren, von irgendwelchen Geräten abgefangen und decodiert werden können."

So gesehen, scheint es unmöglich, Menschen gegen ihren Willen Geheimnisse zu entreißen. Sowohl mit der fMRT-Technik als auch mit der EEG-Haube müssen die Versuchspersonen mitunter stundenlang unter Anleitung der Wissenschaftler trainieren, um die Datenbank ihrer eigenen Aktivitätsmuster zu füllen. Allerdings ist nicht ausgeschlossen, dass es eines Tages doch so etwas wie einen universellen Gedankendecoder geben kann. Die Forscher, die in Kyoto an einer Gedankensteuerung für Haushaltsgeräte arbeiten, durchforsten mit Big-Data-Algorithmen bereits öffentliche Datenbanken mit Hunderten von Hirnscans, um eben doch Gemeinsamkeiten unter den Denkmustern zu finden. Immerhin können sie schon erkennen, ob das Gehirn mit einer sprachlichen, emotionalen, motorischen, sozialen oder einer anderen Tätigkeit beschäftigt ist.

Die Hirnforscher stecken in einem Dilemma. Sie möchten auf keinen Fall als skrupellose Neurospione erscheinen, die den Menschen ihre Gedanken klauen wollen. Sie möchten, wie Tanja Schultz, gelähmten Menschen helfen. Oder, wie John-Dylan Haynes, die Mechanismen des Denkens verstehen. Allerdings interessiert sich auch das Militär längst für die Neurotechnik. Die Forschungseinrichtung Darpa des US-Militärs finanziert die Entwicklung von Gehirn-Computer-Schnittstellen seit Jahren. Geheimdienstmitarbeiter sollen damit die Unmengen an Spionagefotos zügiger analysieren, Soldaten Gefahrensituationen schneller erkennen können. Und John-Dylan Haynes hatte schon mal Kontakt zu jemandem, der im Auftrag der britischen Regierung Terroristen aufspürt. Er sagt: "In solchen Momenten macht man es sich dann nicht mehr so leicht, mit diesen Techniken umzugehen."

Werden Maschinen unsere Absichten schneller erkennen als wir selbst?

Was von dem, was in den Laboren möglich ist, soll tatsächlich im Alltag Realität werden? Diese Frage treibt auch Haynes’ Kollegen Benjamin Blankertz um. Er ist Professor an der Technischen Universität Berlin und forscht ebenso wie Haynes im Bernstein-Netzwerk Computational Neuroscience. Doch während Haynes 15 Tonnen schwere Tomografen braucht, um seinen Probanden ins Gehirn zu spähen, experimentiert Blankertz mit EEG-Hauben, die man einfach aufsetzen kann. Seine Forschungsgruppe kann damit abschätzen, ob jemand gleich seinen linken oder rechten Arm bewegen wird. Oder welches Manöver ein Autofahrer vorhat.

Will der Fahrer auf die Bremse treten, verraten seine Hirnströme diese Absicht – schon 130 Millisekunden bevor er das Pedal tritt. In dieser Zeit fährt ein Auto bei hundert Stundenkilometern knapp vier Meter weit. Blankertz hat das Experiment in Zusammenarbeit mit Daimler gemacht, es ist ein Spezialfall des Gedankenlesens: Absichten erkennen. Zur Verkürzung der Reaktionszeit könnte man die Absicht, zu bremsen, theoretisch direkt aus dem EEG-Signal an die Bordelektronik weiterleiten. Autofahrer müssten dafür neben dem Anschnallgurt eine EEG-Haube tragen, aber das ist das kleinere Problem.

Was passiert, wenn ein Autofahrer am Ende doch nicht stark bremsen möchte, weil die Straße vielleicht nass ist und er sich im letzten Moment für ein Ausweichmanöver entschließt? Lässt sich die Absicht noch zurücknehmen, wenn der Computer sie erst einmal abgefangen hat? Es geht hier nicht nur um Verkehrssicherheit. Es geht um Freiheit. Wer wäre noch der Herr im eigenen Haus, wenn Maschinen unsere Absichten schneller erkennen als wir selbst? In einem anderen Experiment haben Blankertz und Haynes festgestellt, dass Menschen ihre motorischen Absichten bis zu einem relativ späten Zeitpunkt noch ändern können. Ein Bereitschaftssignal im Gehirn bedeutet demnach nicht zwangsläufig, dass der Mensch eine geplante Bewegung auch umsetzt. Er hat die Freiheit, sich noch umzuentscheiden. Eine Absichtenlesemaschine würde ihm diese Freiheit aber womöglich nehmen, wenn sie seine frühen Hirnsignale augenblicklich in die Tat umsetzte. Sie würde dann vorschnell handeln. Vielleicht keine gute Idee bei Autofahrern. Und es gibt noch ein Problem, und das betrifft uns alle.

Vor drei Jahren fegte ein Mediensturm über Ivan Martinovic hinweg, und die Journalisten verglichen seine Arbeit mit "Gehirn-Hacken". Anschließend bekam er einige E-Mails von Verschwörungstheoretikern. Dabei hat er nur das gemacht, was sein Job als Cyber-Security-Professor ist: nach Sicherheitslücken Ausschau halten. Diesmal halt im Gehirn.

Von seinem Büro im Cyber Security Centre aus blickt Martinovic auf das Naturkundemuseum Oxfords. In dem Museum steht unübersehbar die Bedrohung von gestern: ein Skelett des Riesendinosauriers Tyrannosaurus Rex. Die Bedrohung von heute ist unsichtbar. Sie versteckt sich in Software und Apps, und vielleicht werden demnächst auch Gehirnwellen angezapft. Martinovic wurde darauf aufmerksam, als er nach seiner Promotion an die Universität von Kalifornien in Berkeley ging. Da waren auf einmal diese EEG-Gadgets für Computerspiele im Umlauf. Für dreihundert Dollar konnte man sich ein kleines Gestell anschaffen, das die Gehirnströme misst. Mit Gedankenkraft ins Spiel eingreifen, das war die Idee.

Ivan Martinovic hat sich darauf spezialisiert, die Welt nach threat models abzusuchen, nach Bedrohungsszenarien. Als er das EEG-Spielzeug sah, war das threat model offensichtlich: Die Geräte lesen Gehirnströme aus und stellen die Rohdaten beliebigen Apps zur Verfügung. Martinovic findet das nicht verwerflich. Warum sollte man Computerspiele nicht auch mit Gehirnwellen steuern? Er fragt sich nur, ob Gauner eine App programmieren können, mit der sie heimlich sensible Informationen aus dem EEG fischen könnten.

Die Forscher besorgten eines der Amateur-EEGs mit 14 Elektroden. Dann setzten sie die Haube 30 Studenten auf und zeigten ihnen auf dem Bildschirm ein Zahlenfeld mit den Ziffern 0 bis 9, wie man es am Geldautomaten sieht. Die Zahlen blinkten abwechselnd auf. Die Aufgabe lautete: Konzentrieren Sie sich auf die erste Ziffer Ihrer PIN. Während die Studenten auf die Monitore starrten, fahndeten die Forscher im Datenrauschen nach Auffälligkeiten. Und sie wurden fündig.

Jeweils knapp eine Drittelsekunde nachdem die richtige PIN-Ziffer aufblinkte, registrierte das EEG einen winzigen Impuls. Hirnforscher kennen diese Reaktion als P300-Impuls (P steht für eine positive elektrische Spannung, 300 für 300 Millisekunden). Das Signal zeigt eine Veränderung der Aufmerksamkeit und tritt dann auf, wenn man in einer gleichförmigen Reihe von Tönen, Zeichen oder Fotos plötzlich etwas entdeckt, das für einen selbst relevant ist. Überraschend ist, dass das schwache Signal auch mit einem billigen EEG-Gerät detektiert werden kann. Die Forscher in Oxford mussten dafür die PIN-Ziffern einfach mehrmals aufblinken lassen und die schwachen Signale addieren.

Auf diese Weise konnten sie für 20 Prozent der Teilnehmer die erste PIN-Ziffer auf Anhieb korrekt erraten. Noch bessere Ergebnisse erzielten sie, als sie mit blinkenden Ausschnitten von Stadtplänen herausfinden wollten, in welchem Stadtteil jemand wohnt. Und den Geburtsmonat der Studenten tippten sie in 60 Prozent der Fälle auf Anhieb richtig. Das reicht nicht für große Gaunereien. Doch für die Gedankenleser sind solche Daten eine kleine Sensation.

Sicher, welcher Trottel konzentriert sich freiwillig auf seine Geheimzahl, wenn er eine EEG-Haube trägt und eine App ihn dazu auffordert? "Es ist keine Attacke, die uns morgen beschäftigen wird", sagt Ivan Martinovic, "aber Betrüger sind einfallsreich." Sie könnten versuchen, Spähangriffe als spielerische Aufgaben zu tarnen. Er ist überzeugt: "Dies ist nur der Anfang."

Wer in diesen Tagen mit Neurowissenschaftlern spricht, hört das oft: Dies ist nur der Anfang. Aber wenn dies nur der Anfang ist, wer schreibt dann die Fortsetzung? "Anwälte, vor allem Strafverteidiger", sagt Reinhard Merkel, Mitglied des Deutschen Ethikrats und Juraprofessor an der Universität Hamburg. "Ich bin sicher, dass wir die Neurotechnik bald in deutschen Gerichtsverfahren sehen werden."

Wie sicher sind Hirnscans und EEG-Messungen?

In Indien wurde 2008 erstmals jemand auf der Basis eines EEG-Tests verurteilt. Das Gericht sah es als erwiesen an, dass die Angeklagte ihren Verlobten vergiftet hatte. Man hatte ihr unterschiedliche Aussagen zum möglichen Tathergang vorgespielt ("Ich habe Arsen gekauft", "Ich habe Udit angerufen", "Ich habe ihm mit Arsen vergiftete Süßigkeiten gegeben"). Die dabei gemessenen Hirnsignale seien nur durch Erfahrungswissen zu erklären, behaupteten die Gutachter: Die Angeklagte müsse die Situationen tatsächlich erlebt haben. Das Gericht verurteilte die Frau zu lebenslänglicher Haft. "Ein skandalöses Urteil", meint Reinhard Merkel, "dafür ist diese Technik bei Weitem nicht zuverlässig genug. Das Gehirn hat kein 'Lügenareal'." Die bunten Bilder der Neurotechnik täuschten Richtern und Geschworenen eine wissenschaftliche Genauigkeit vor, von der die Methoden weit entfernt seien. Kritiker reden vom Weihnachtsbaum-Effekt, weil die Richter vom Glitzerkram eingelullt würden.

In Berlin konnte John-Dylan Haynes zwar nachweisen, dass man anhand der Hirnaktivität durchaus erkennen kann, ob ein Mensch an einem bestimmten Ort schon einmal gewesen ist oder einen Gegenstand schon einmal gesehen hat. Aber: "Die Trefferquote war keineswegs so hoch, dass man die Signale als zweifelsfreies Beweismittel nutzen könnte." Und was genau sagt ein solches Signal eigentlich aus? Vielleicht war der Verdächtige am Tatort, aber nicht zum Tatzeitpunkt, sondern am Tag davor. Vielleicht erkennt er einen Gegenstand bloß deshalb wieder, weil viele Menschen ihn besitzen. Für einen ersten Versuch bat Haynes seine Mitarbeiter, Fotos ihrer privaten Wohnungen mitzubringen, um das Wiedererkennen zu testen. Das Unterfangen scheiterte daran, dass die Mehrheit sich bei Ikea eingerichtet hatte – ihre Wohnungen sahen verblüffend ähnlich aus.

"Die Lücke zur Anwendbarkeit ist riesig", sagt Haynes. Außerdem lässt sich die Neurotechnik austricksen, wenn die Angeklagten nicht kooperieren. Wer auf der Zunge kaut, am Bildschirm die falschen Objekte fixiert oder sich an aufrüttelnde Ereignisse erinnert, kann die unterschiedlichen Neuroverfahren sabotieren.

Reinhard Merkel hält es dennoch für legitim, dass Anwälte Hirnscans oder EEG-Messungen nutzten, um Indizien für die Glaubwürdigkeit ihrer Mandanten zu sammeln. "Überführen kann man einen Beschuldigten damit nicht." Aber die Verteidigung brauche ihn ja nur zu entlasten. "Dafür muss sie auch Methoden mit schwacher Evidenz heranziehen dürfen. Und die Technik entwickelt sich ja weiter." Merkel drängt darauf, dass Juristen sich mit den Methoden der Hirnforscher vertraut machten.

Neue Technologien überkommen die Welt nicht wie Naturkatastrophen. Sie sind kein Schicksal, dem man sich ergeben muss. Sie haben Vor- und Nachteile, über die sich zu streiten lohnt: Braucht es Grenzen? Verbote? Regeln? Davon hängt ab, ob Neurotechnik in Zukunft in einer Reihe mit Atomkraft und Fracking stehen wird oder eher in der gefühlten Nachbarschaft von Smartphones und Solarstrom.

Wissenschaftler des Fraunhofer-Instituts ISI fordern vorsichtshalber einen besseren Datenschutz. "Es scheint offensichtlich, dass Neurodaten – insbesondere solche zu Gedanken und Gefühlen – von sehr privater Beschaffenheit sind und daher als ›sensibel‹ betrachtet werden müssen", schrieben sie Anfang Juni in der Süddeutschen Zeitung . "Die Liste der sensiblen Daten ist jedoch sehr exklusiv, und Neurodaten gehören bislang noch nicht dazu. Nach derzeit geltendem Recht unterliegen Neurodaten den gleichen Vorschriften wie Schuhgrößenmessungen."

Kein Zweifel, eine Gesellschaft, in der alle Gedanken öffentlich sind, wäre brutal. Aber da ist noch eine andere, positive Utopie: Verbinde Gedanken, Gefühle und Gehirne miteinander, ohne sie in Sprache zu übersetzen. Werde Teil einer Feedbackschleife. Besuche ein Konzert von David Rosenboom.

An einem Montag im Juni steht David Rosenboom in der Konzerthalle von Plymouth an der britischen Südküste und sucht ein Ladegerät für zwei EEG-Stirnbänder. In drei Stunden beginnt sein Konzert, dies ist die Generalprobe. Rosenboom ist der Pionier der Gehirnmusik. Seit 40 Jahren versucht er, Gedanken, Gefühle und Musik miteinander zu verschmelzen. Er trägt ein Armband mit Holzperlen und ein grünes Hawaiihemd, dazu eine bunt gewebte Tasche aus Peru, vielleicht Reverenzen an seine Hippiezeit, jedenfalls hat er schon John Lennon und Yoko Ono verkabelt und ihre Gehirnströme in Sphärenklänge verwandelt. Andere nahmen LSD, um ihr Bewusstsein zu erforschen, Rosenboom nahm Strom. In einer seiner Performances sollten sich Zuhörer elektrische Impulse durch den Schädel schicken. Es gab damals noch nicht so viele Ethikkommissionen.

Museen in aller Welt haben ihm Retrospektiven gewidmet, aber Rosenboom ist noch nicht fertig. Nicht jetzt, da all diese neuen Gehirn-Computer-Schnittstellen auf den Markt kommen. In Plymouth findet an diesem Tag die erste Konferenz für Musik-Gehirn-Computer-Schnittstellen statt, und Rosenboom ist der Stargast. Er wurde aus Los Angeles eingeflogen, wo er als Professor am California Institute of Arts unterrichtet. Nun sitzt er vor einem Laptop, einem Synthesizer und einem 55-Zoll-Bildschirm und erklärt zwei Studenten, was er mit den beiden an diesem Abend vorhat. Die beiden studieren experimentelle Musik in Plymouth und sind Experimenten gegenüber nicht abgeneigt: Michael promoviert über Gesänge von Buckelwalen, Nurii sucht nach einer Idee, Phänomene der Astrophysik in Musik zu übersetzen. Sie legen die EEG-Bänder an und schließen die Augen. "Ich erwarte nicht, dass ihr irgendetwas kontrolliert", sagt Rosenboom. "Entspannt euch, und hört zu. Es ist okay, wenn ihr die Augen aufmacht, aber blinzelt so wenig wie möglich." Blinzeln stört die Elektronik. "Just let it be", sagt Rosenboom.

Nach der Generalprobe kommt ein Lokalreporter vom Fernsehen. "When does the noise start?", fragt er. Wann beginnt der Krach? Um 19 Uhr gibt David Rosenboom vor dem Publikum eine kurze Erklärung ab. "Michael und Nurii haben dieses Stück noch nie aufgeführt", sagt er. Die beiden Studenten würden einfach nur zuhören, während der Computer ihre Gehirnwellen registriere. Änderungen in der Frequenz der Gehirnwellen beeinflussten die Tonhöhen des Synthesizers, außerdem ändere sich die Musik, wenn die Gehirnströme von Michael und Nurii gleichzeitig Änderungen aufwiesen. Dann geht es los, leise, anschwellend, laut, leise. Was aus den Lautsprechern kommt, klingt ein bisschen wie Walgesang in einer Tropfsteinhöhle, aber das ist natürlich subjektiv. Die Fachleute für Gehirn-Computer-Musik-Schnittstellen lauschen andächtig und spenden nach 30 Minuten tosenden Applaus. Die Begeisterung ist ansteckend, aber auch beruhigend. Wenn das die Gedanken von Michael und Nurii waren, braucht man sich vor den Geheimdiensten vorerst nicht zu fürchten.