Dass persönliche Daten eine begehrte Ware sind, hat sich herumgesprochen. Schon Teenager wissen heute, dass man mit dem großzügigen Teilen von Bildern oder Postings im Netz eher zurückhaltend sein sollte. Kurz: Das Thema Datensicherheit ist in den Köpfen angekommen. Doch wie steht es mit der Sicherheit der Daten aus unseren Köpfen? Anders gefragt: Wie gut sind Informationen über unsere Hirnaktivität geschützt, die etwa bei neuronalen Untersuchungen oder Techniken zum Gedankenlesen erhoben werden?

Noch klingt diese Frage wie ferne Zukunftsmusik. Auch wenn gern über das "Gedankenlesen" spekuliert wird (ZEIT Nr. 47/17), so muss man ehrlicherweise sagen: Von einem echten "Lesen" der Gedanken ist die Wissenschaft so weit entfernt wie derzeit die Borussia aus Dortmund vom Gewinn der Champions League. Doch was nicht ist, kann ja noch werden.

Klar ist, dass sich die Neurotechnik deutlich zielstrebiger entwickelt als der BVB. Rund 100 Millionen Euro jährlich investieren Firmen wie Elon Musks Start-up Neuralink in Techniken, die Hirnaktivität entziffern und verarbeiten sollen. Auch das US-Militär interessiert sich sehr für "Brain-Computer-Interfaces". Diese ermöglichen bereits heute gelähmten Menschen, nur mithilfe ihrer Gedanken zu kommunizieren. Ergänzt um die Fortschritte der künstlichen Intelligenz (KI), dürften solche Systeme künftig einen Boom erleben.

"Wir sind auf dem Weg in eine Welt, in der es möglich sein wird, die mentalen Prozesse von Menschen zu decodieren und direkt ihre Hirnfunktionen zu beeinflussen", warnt deshalb eine Gruppe besorgter Hirnforscher, Mediziner, Ethiker und KI-Ingenieure. In der Fachzeitschrift Nature mahnten sie kürzlich dringend mehr Problembewusstsein an. Für den Umgang mit den sensibelsten Daten überhaupt – unseren Gedanken – seien die existierenden ethischen Richtlinien vielfach ungenügend.

So müsse etwa sichergestellt werden, dass jeder Bürger die Kontrolle über seine Hirndaten behalten könne, fordern die Forscher. Geräte zur Erfassung der Hirnaktivität müssten vom Werk aus so eingestellt sein, dass eine Weitergabe der Daten verhindert werde. Wer meine, sein neuronales Funkeln mit aller Welt teilen zu wollen, solle sich explizit dafür entscheiden. Zudem müssten gezielte Manipulationen der Hirnaktivität verboten werden. Die militärische Forschung in diesem Bereich sei streng zu kontrollieren, die allgemeinen Menschenrechte könnten um einen Passus zum Thema "Neurorechte" erweitert werden.

Alles sinnvoll, kein Zweifel. Ebenso ist zu wünschen, dass Neuroingenieure bitte gleich die ethischen Folgen ihres eigenen Tuns bedenken. Zugleich aber sollte man es mit der Furcht vor der großflächigen Neurospionage nicht übertreiben. Ihre sensibelsten Daten haben viele Menschen längst nicht mehr im Kopf, sondern im Smartphone gespeichert. Wer das knacken kann, weiß heute mehr als jeder Gedankenleser.