Dabei verlässt sie sich jedoch nicht auf ihr musisch geschultes Gehör, sondern auf eine Computersoftware, die Deep Speech Pattern Analysis. Diese verwandelt akustische Informationen in farbige Grafiken – und kann charakteristische Muster in den Stimmen der Patienten sichtbar machen. Zusammen mit dem Psychiater Michael Colla und dem Mathematiker Jörg Langner, der das Programm entwickelte, erforscht die Psychologin den Nutzen der Technik als Diagnoseinstrument bei der Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung ADHS und der Depression. Die Besonderheit des Verfahrens erklärt sie am Beispiel ADHS: "Die Patienten sprechen häufig lebendiger und unrhythmischer als gesunde Probanden." Zuhörer erlebten diese Sprechweise als aufregend, aber auch anstrengend. Was der Mensch hört, sei jedoch nur die Makroebene. "Die Deep Speech Pattern Analysis misst gleichzeitig auch die mikrostrukturelle Ebene des Sprechens", sagt Langner. Sie legt gewissermaßen eine Lupe an. In dieser Nahaufnahme stieß Langner auf einen bemerkenswerten Befund: "Auf der Mikroebene weisen ADHS-Patienten eine deutlich unflexiblere, starrere Lautbildung auf, als die hörbare Sprache nahelegt." Schon bei einem einzelnen a könne man eine eingeschränkte Schwankungsbreite in bestimmten Frequenzbereichen erkennen.

Mithilfe der neuartigen Analysetechnik ließe sich ADHS objektiver diagnostizieren und der Verlauf der Krankheit sichtbar und messbar machen, davon ist Langner überzeugt. In einer Pilotstudie an rund 300 Kindern und Jugendlichen erkannte die Software mit über neunzigprozentiger Treffsicherheit die Schüler mit ADHS.

Großen Nutzen versprechen sich Forscher auch vom Einsatz solcher Stimmanalysen bei Depression. "Depression ist eine Erkrankung des gesamten Körpers und nicht nur eine Störung der Stimmung", sagt der Psychiater Michael Colla. "Sie beeinträchtigt auch die Motorik." Depressive Personen bewegen sich kraftloser und haben eine eingeschränkte Mimik und Gestik, was sich auch auf die komplexen Bewegungen der winzigen Kehlkopfmuskeln auswirkt. "Je kleiner Muskeln sind, desto eher werden sie von subtilen Faktoren beeinflusst, die man nicht willentlich steuern kann", sagt Colla.

Die vorläufigen Ergebnisse der Berliner Forscher zeigen ein eindeutiges Muster: "Die Sprechmelodie ist bei Depressiven deutlich monotoner, sie tendiert dazu, sich um denselben Ton herum zu bewegen", sagt Langner. Statt farblicher Diagramme zeichnet das Computerprogramm beim Melodiespektrum von Depressiven ein nahezu farbloses Bild.

Mehrere Forschergruppen sind inzwischen auf der Suche nach charakteristischen Merkmalen in den Stimmen von Depressiven. Ein Wettbewerb ruft Wissenschaftler auf der ganzen Welt dazu auf, Algorithmen akustischer Depressionssignale einzureichen – jetzt spüren auch Informatiker und Ingenieure dem Schmerz der Seele nach.

Daina Langner hofft nicht nur auf ein Instrument zur Unterstützung der Diagnose. Ein visuelles Feedback in Form farblicher Diagramme wäre auch ein Gewinn für die Therapie. "Anhand der Diagramme könnte ich Patienten zeigen, wie sehr sie sich durch die Therapie schon verändert haben. Man sieht auf dem Papier ja richtig, wie da wieder Leben in den Menschen hineinkommt." Andersherum ließe sich ein so objektives Messverfahren nicht täuschen, wenn ein Patient nur behauptete, es ginge ihm besser.

Noch ist all das Zukunftsmusik, doch Ideen für Anwendungen gibt es einige. Forscher des Massachusetts Institute of Technology (MIT) und der University of Oxford arbeiten etwa an einer Stimmdiagnose für Parkinson. Auch der Einsatz zur Diagnose der Lähmungserkrankung Amyotrophe Lateralsklerose (ALS) wäre denkbar. "Die Beweglichkeit der Stimmlippen liefert ein sensibles Maß für das Fortschreiten von ALS", sagt Colla. Bisher müssten Patienten einen Schlauch mit einer kleinen Kamera schlucken, damit der Arzt das Flattern der Stimmlippen optisch beurteilen könne. "Die Diagnose anhand des Stimmklangs wäre wohl genauer und obendrein angenehmer für die Patienten", sagt Colla.

Auch das Leben gesunder Menschen würden solche Technologien verändern, prophezeit Jarek Krajewski, Professor für Experimentelle Wirtschaftspsychologie an der Universität Wuppertal. Auch er ist ein Stimmensammler. In seiner Datenbank finden sich etwa Hörproben von Führungskräften, die seine Mitarbeiter bei Vorträgen aufgezeichnet haben. Krajewski entwickelt Algorithmen, mit denen er anhand kurzer Audioaufnahmen vorhersagen kann, ob ein Sprecher auf andere charismatisch und selbstsicher wirkt. "Das kann man mathematisch sehr schön darstellen", sagt er. Eine auffällige Betonung, ein feines Zittern, eine leichte Spannung im Sprechtrakt – kein Signal entgehe dem Computerprogramm. Möglicherweise, so Krajewski, könnten Menschen künftig mit einer Software testen, ob sie stimmlich das Zeug zur Führungskraft haben. Auch die Bewerberauswahl ließe sich so objektiver machen.

Knallharte maschinelle Auslese also. Zum Glück sieht Krajewski auch fürsorgliche Mensch-Maschine-Anwendungen. "In Zukunft werden wir Haushaltsgeräte, Computer und Autos immer häufiger über eine Sprachsteuerung bedienen. Die Stimme wird somit allgegenwärtig sein", sagt der Psychologe. "Das wird den Maschinen die Gelegenheit geben, mehr über ihre Nutzer zu erfahren." Der Fahrerassistent im Auto könnte den Fahrer zur Pause mahnen, sobald er Anzeichen von Müdigkeit in dessen Stimme vernimmt. Der Herd könnte heiße Milch mit Honig empfehlen, wenn sein Besitzer heiser klingt. Kühlschränke könnten warme Worte sprechen, wenn sie einen traurigen Unterton registrieren. "Die Signale unserer Stimme ermöglichen es den Maschinen, empathischer zu werden", sagt Krajewski, "wie ein Mitbewohner oder Freund."

Die Quellenangaben zu diesem Artikel aus dem ZEIT-Wissen-Magazin finden Sie hier.