Der Klang der Seele – Seite 1

Worte können lügen. Walter Sendlmeier hat daher gelernt, ihre Bedeutung auszublenden, wenn jemand spricht. In seinem Beruf darf man sich nicht von der Semantik ablenken lassen. Ob Politiker Reden schwingen oder seine Studenten Vorträge halten: Den Professor interessiert manchmal weniger, was eine Person sagt, als vielmehr, wie sie es sagt. Sendlmeier ist Sprechwirkungsforscher an der TU Berlin. Er geht der Frage nach, was Stimme und Sprechweise über einen Menschen verraten. Für ihn steht fest: Nicht die Augen sind der Spiegel der Seele, es ist die Stimme.

Wie ein Mensch spricht, gibt Hinweise auf sein Alter, sein Geschlecht und seine Herkunft. Gleichzeitig erlaubt es einen Blick in sein Innerstes. Emotionen wie Ärger, Freude oder Furcht werden durch subtile Vorgänge in den Kehlkopfmuskeln für andere hörbar. Auch auf die Persönlichkeit eines Menschen kann man so schließen. Und sogar psychische und körperliche Erkrankungen schlagen sich in Stimme und Sprechweise nieder.

Ärzte, Psychologen und Informatiker arbeiten bereits an automatisierten Analyseverfahren, um die Informationen aus der Stimme systematisch zu nutzen. Erkrankungen wie Parkinson ließen sich so womöglich früher erkennen, die Schwere einer Depression oder Aufmerksamkeitsstörung leichter messen. Vielleicht werden eines Tages sogar Haushaltsgeräte Stimmung und Persönlichkeit ihrer Besitzer an deren Stimme erkennen – und darauf reagieren.

Auf der Welt gibt es wohl keine zwei Menschen, die genau gleich sprechen. Die Stimme ist ein kompliziertes Phänomen, geprägt durch physische Faktoren wie Hormone, die Größe des Kehlkopfes und seiner Muskeln, aber auch durch das Umfeld, in dem jemand aufwächst, ja, sogar die Zeit, in der er lebt.

Ob ein Mensch eine hohe oder tiefe Stimme hat, hängt von der Größe der Stimmlippen ab. Je kürzer und dünner diese feinen Muskelstränge im Kehlkopf sind, desto häufiger schwingen sie pro Sekunde und desto höher ist die erzeugte Frequenz. Insofern ist die Stimme körperlich bedingt, Männer sprechen daher in der Regel tiefer als Frauen. Allerdings werde die biologische Vorgabe überschätzt, sagt Sendlmeier. "Wir haben enorme Spielräume, die Frequenz, mit der die Stimmlippen schwingen, zu verändern." Schon die allgemeine Körperspannung wirkt auf die vielen kleinen Muskeln, die am Entstehen der Laute beteiligt sind. "Frauen wie Verona Pooth sprechen vermutlich nicht deshalb so hoch, weil sie kürzere Stimmlippen haben. Sie reden wahrscheinlich mit einer höheren Muskelspannung." 

Eine solche Klein-Mädchen-Stimme signalisiere: Ich suche einen Beschützer. Das muss jedoch nicht unbedingt Absicht sein. Womöglich hat eine Frau, die so spricht, dies schlicht von ihrer Mutter übernommen.

Tiefere Frauenstimmen sind eine Folge der Emanzipation, so Forscher

Weil die feinen Stimm- und Artikulationsmuskeln sich so leicht beeinflussen lassen, schlagen sich unzählige Faktoren im Stimmklang nieder, von plötzlichen Emotionen bis zu gesellschaftlichen Entwicklungen. Letzteres lässt sich ebenfalls an der weiblichen Tonlage demonstrieren. Stimmlich gesehen, vollzieht sich in Mitteleuropa ein Kulturwandel. Die Stimmen der Frauen haben sich in den vergangenen Jahrzehnten im Schnitt um eine Terz, also um zwei bis drei Halbtöne, gesenkt. Eine Folge der Emanzipation, vermuten Soziologen. Eine Piepsstimme sei nicht vereinbar mit dem Selbstbild moderner Frauen. Forscher fanden sogar Unterschiede zwischen einzelnen Ländern, die sich dahingehend interpretieren lassen: So sind etwa die Stimmen von Norwegerinnen tiefer als die der Britinnen oder Italienerinnen. Das sei möglicherweise auch damit zu erklären, sagt Sendlmeier, dass die Emanzipation in Skandinavien weiter fortgeschritten sei.

Der Vorteil einer tiefen Stimme ist zumindest bei Männern gut belegt. Eine Studie des kanadischen Psychologen David Feinberg etwa deutet darauf hin, dass Politiker mit tieferen Stimmen bessere Wahlchancen haben. Feinberg nutzte für sein Experiment manipulierte Tonbandaufnahmen früherer US-Präsidenten sowie Stimmproben unbekannter Testsprecher und spielte sie Probanden vor. Sprecher mit tieferen Stimmen wirkten auf die Versuchspersonen unter anderem dominanter, attraktiver, kompetenter und vertrauenswürdiger. Bei der Frage: "Wen würden Sie wählen?", wurden sie häufiger favorisiert.

Ob die Stimme tatsächlich verlässliche Hinweise auf Führungsqualitäten geben kann, ist ungewiss. Die Forscher beginnen erst zu ergründen, was die Stimme wirklich über einen Menschen verrät. Eines ist völlig klar: Sie offenbart höchst Intimes – Gefühle. Wer spricht, kann kaum verheimlichen, wie es ihm geht. So konnte Walter Sendlmeier in Analysen zeigen, dass etwa bei Ärger die Stimmlippen schneller aneinanderklatschen, sodass der Stimmton impulsartiger erzeugt wird. Dadurch sammelt sich mehr Energie in den höheren Obertönen – die Stimme klingt kräftig und leicht aggressiv. Bei Trauer dagegen schließen die Stimmlippen langsamer und weich, sodass sich die Energie im unteren Klangspektrum konzentriert – die Stimme klingt gedämpft und dunkel.

Auf ähnliche Weise manifestieren sich Persönlichkeitseigenschaften, etwa ob ein Mensch eher ängstlich oder gelassen ist, anderen gegenüber verschlossen oder offenherzig. In einem Experiment ließ Walter Sendlmeier eine Gruppe von Probanden standardisierte Fragebögen ausfüllen, um ihre eigene Persönlichkeit einzuschätzen. Dann sollten sie eine Fabel von Äsop vorlesen, den Vokal a halten und spontan etwas erzählen. Der Forscher nahm alles auf Tonband auf, und eine zweite Gruppe musste später anhand dieser kurzen Tonproben die Persönlichkeit der Sprecher einschätzen. Und das gelang erstaunlich gut. "Wir haben mit Überraschung festgestellt, wie hoch die Korrelation war", sagt Sendlmeier. Für Extraversion und Neurotizismus war sie jeweils signifikant. Personen, die eher nervös, angespannt und emotional instabil sind, sprechen auch mit einer weniger stabilen Stimme. So kann die Frequenz, mit der die Stimmlippen schwingen, bei ihnen von einem Schwingungszyklus zum nächsten erheblich variieren. Ebenso abrupt schwankt auch die Lautstärke. Stimmen emotional instabiler Menschen klingen zudem oft höher und brüchiger. Auch ob jemand eher extrovertiert oder introvertiert ist, kann man, Sendlmeier zufolge, hören: Extrovertierte sprechen meist lauter und schneller, variieren die Satzmelodie stärker und betonen deutlicher als Introvertierte.

Nur schenkten wir solchen Signalen zu wenig Aufmerksamkeit, sagt Sendlmeier. Zu sehr verließen sich die meisten Menschen auf den äußeren Eindruck, bildeten sich etwa anhand von Kleidung und Frisuren Urteile über andere. "Wir sind augenlastig." Und somit zwangsläufig etwas oberflächlich. Die visuellen Medien verstärkten dies noch. "Gerade bei wichtigen Fragen wie Personalentscheidungen oder zu Beginn einer Beziehung sollten wir mehr auf die feinen Lautsignale achten", rät der Stimmforscher. In seinen Seminaren an der Universität bittet er die Studenten häufig, die Augen zu schließen, wenn Kommilitonen Vorträge halten. Sie sollen lernen, genau hinzuhören.

Fortschritte im Zuhören machen derzeit auch Computer. Längst können sie gesprochene Befehle ausführen. Eines Tages werden sie sich womöglich sogar über die Stimme in Menschen einfühlen können und Dinge heraushören, die dem menschlichen Ohr verborgen bleiben. Mediziner und Psychologen erproben bereits computergestützte Stimm-Analyseverfahren für die Diagnose von Erkrankungen. Ein solches Projekt läuft etwa am Experimental and Clinical Research Center (ECRC) der Charité in Zusammenarbeit mit der Humboldt-Universität in Berlin. Zu den Verantwortlichen gehört die Psychologin Daina Langner. Langner war früher Geigerin, spielte für eine Weile sogar im Deutschen Symphonie-Orchester. Heute, nach ihrem zusätzlichen Psychologiestudium, hat sie dem Orchester den Rücken gekehrt, doch der Sprache der Musik ist sie treu geblieben. Anhand von Parametern wie Klangfarbe, Rhythmus, Melodie und Lautstärkegestaltung erstellt sie charakteristische Stimmprofile von Menschen mit psychischen Störungen.

Stimmanalyse als Hilfe bei der Behandlung von Depressionen

Dabei verlässt sie sich jedoch nicht auf ihr musisch geschultes Gehör, sondern auf eine Computersoftware, die Deep Speech Pattern Analysis. Diese verwandelt akustische Informationen in farbige Grafiken – und kann charakteristische Muster in den Stimmen der Patienten sichtbar machen. Zusammen mit dem Psychiater Michael Colla und dem Mathematiker Jörg Langner, der das Programm entwickelte, erforscht die Psychologin den Nutzen der Technik als Diagnoseinstrument bei der Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung ADHS und der Depression. Die Besonderheit des Verfahrens erklärt sie am Beispiel ADHS: "Die Patienten sprechen häufig lebendiger und unrhythmischer als gesunde Probanden." Zuhörer erlebten diese Sprechweise als aufregend, aber auch anstrengend. Was der Mensch hört, sei jedoch nur die Makroebene. "Die Deep Speech Pattern Analysis misst gleichzeitig auch die mikrostrukturelle Ebene des Sprechens", sagt Langner. Sie legt gewissermaßen eine Lupe an. In dieser Nahaufnahme stieß Langner auf einen bemerkenswerten Befund: "Auf der Mikroebene weisen ADHS-Patienten eine deutlich unflexiblere, starrere Lautbildung auf, als die hörbare Sprache nahelegt." Schon bei einem einzelnen a könne man eine eingeschränkte Schwankungsbreite in bestimmten Frequenzbereichen erkennen.

Mithilfe der neuartigen Analysetechnik ließe sich ADHS objektiver diagnostizieren und der Verlauf der Krankheit sichtbar und messbar machen, davon ist Langner überzeugt. In einer Pilotstudie an rund 300 Kindern und Jugendlichen erkannte die Software mit über neunzigprozentiger Treffsicherheit die Schüler mit ADHS.

Großen Nutzen versprechen sich Forscher auch vom Einsatz solcher Stimmanalysen bei Depression. "Depression ist eine Erkrankung des gesamten Körpers und nicht nur eine Störung der Stimmung", sagt der Psychiater Michael Colla. "Sie beeinträchtigt auch die Motorik." Depressive Personen bewegen sich kraftloser und haben eine eingeschränkte Mimik und Gestik, was sich auch auf die komplexen Bewegungen der winzigen Kehlkopfmuskeln auswirkt. "Je kleiner Muskeln sind, desto eher werden sie von subtilen Faktoren beeinflusst, die man nicht willentlich steuern kann", sagt Colla.

Die vorläufigen Ergebnisse der Berliner Forscher zeigen ein eindeutiges Muster: "Die Sprechmelodie ist bei Depressiven deutlich monotoner, sie tendiert dazu, sich um denselben Ton herum zu bewegen", sagt Langner. Statt farblicher Diagramme zeichnet das Computerprogramm beim Melodiespektrum von Depressiven ein nahezu farbloses Bild.

Mehrere Forschergruppen sind inzwischen auf der Suche nach charakteristischen Merkmalen in den Stimmen von Depressiven. Ein Wettbewerb ruft Wissenschaftler auf der ganzen Welt dazu auf, Algorithmen akustischer Depressionssignale einzureichen – jetzt spüren auch Informatiker und Ingenieure dem Schmerz der Seele nach.

Daina Langner hofft nicht nur auf ein Instrument zur Unterstützung der Diagnose. Ein visuelles Feedback in Form farblicher Diagramme wäre auch ein Gewinn für die Therapie. "Anhand der Diagramme könnte ich Patienten zeigen, wie sehr sie sich durch die Therapie schon verändert haben. Man sieht auf dem Papier ja richtig, wie da wieder Leben in den Menschen hineinkommt." Andersherum ließe sich ein so objektives Messverfahren nicht täuschen, wenn ein Patient nur behauptete, es ginge ihm besser.

Noch ist all das Zukunftsmusik, doch Ideen für Anwendungen gibt es einige. Forscher des Massachusetts Institute of Technology (MIT) und der University of Oxford arbeiten etwa an einer Stimmdiagnose für Parkinson. Auch der Einsatz zur Diagnose der Lähmungserkrankung Amyotrophe Lateralsklerose (ALS) wäre denkbar. "Die Beweglichkeit der Stimmlippen liefert ein sensibles Maß für das Fortschreiten von ALS", sagt Colla. Bisher müssten Patienten einen Schlauch mit einer kleinen Kamera schlucken, damit der Arzt das Flattern der Stimmlippen optisch beurteilen könne. "Die Diagnose anhand des Stimmklangs wäre wohl genauer und obendrein angenehmer für die Patienten", sagt Colla.

Auch das Leben gesunder Menschen würden solche Technologien verändern, prophezeit Jarek Krajewski, Professor für Experimentelle Wirtschaftspsychologie an der Universität Wuppertal. Auch er ist ein Stimmensammler. In seiner Datenbank finden sich etwa Hörproben von Führungskräften, die seine Mitarbeiter bei Vorträgen aufgezeichnet haben. Krajewski entwickelt Algorithmen, mit denen er anhand kurzer Audioaufnahmen vorhersagen kann, ob ein Sprecher auf andere charismatisch und selbstsicher wirkt. "Das kann man mathematisch sehr schön darstellen", sagt er. Eine auffällige Betonung, ein feines Zittern, eine leichte Spannung im Sprechtrakt – kein Signal entgehe dem Computerprogramm. Möglicherweise, so Krajewski, könnten Menschen künftig mit einer Software testen, ob sie stimmlich das Zeug zur Führungskraft haben. Auch die Bewerberauswahl ließe sich so objektiver machen.

Knallharte maschinelle Auslese also. Zum Glück sieht Krajewski auch fürsorgliche Mensch-Maschine-Anwendungen. "In Zukunft werden wir Haushaltsgeräte, Computer und Autos immer häufiger über eine Sprachsteuerung bedienen. Die Stimme wird somit allgegenwärtig sein", sagt der Psychologe. "Das wird den Maschinen die Gelegenheit geben, mehr über ihre Nutzer zu erfahren." Der Fahrerassistent im Auto könnte den Fahrer zur Pause mahnen, sobald er Anzeichen von Müdigkeit in dessen Stimme vernimmt. Der Herd könnte heiße Milch mit Honig empfehlen, wenn sein Besitzer heiser klingt. Kühlschränke könnten warme Worte sprechen, wenn sie einen traurigen Unterton registrieren. "Die Signale unserer Stimme ermöglichen es den Maschinen, empathischer zu werden", sagt Krajewski, "wie ein Mitbewohner oder Freund."

Die Quellenangaben zu diesem Artikel aus dem ZEIT-Wissen-Magazin finden Sie hier.