Bis zur Bundestagswahl schreiben fünf Experten über Prognosen, Versprechen und Kampagnen. Und ein Fisch prognostiziert den nächsten Kanzler. Alle Informationen über die Serie finden Sie hier.

Weitere Informationen über #D17

In meinen letzten Beiträgen habe ich viel Kritik an der Prognoseindustrie formuliert. Sie entpolitisiert und macht selbst Stimmung und das mit nur sehr ungenauen Stichprobenergebnissen.

Schon aus statistischen Gründen müssen die Forscher bei 1.000 Befragten einen Fehlerkorridor von drei Prozentpunkten in beide Richtungen einrechnen – wie sie selbst einräumen. Eine Partei, die auf 40 Prozent geschätzt wird, kann in Wahrheit also auch bei 37 oder 43 Prozent liegen. Und mit einem Restrisiko von fünf Prozent kann es noch weniger oder mehr sein.

Sie, die Leser, waren skeptisch angesichts meiner Beiträge. Schließlich, so argumentierten einige, lägen doch die veröffentlichten Ergebnisse der großen Wahlforschungsinstitute enger beisammen als die oben beschriebenen Schwankungsbereiche. Oft wirken die veröffentlichten Ergebnisse der Institute eher wie ein solider Trend als eine Aneinanderreihung zufällig schwankender Werte.

Das Missverständnis lässt sich aufklären. Meine Aussagen bezogen sich nämlich auf die gemessenen Daten – auch Rohdaten genannt. Damit sind jene Daten gemeint, die das pure Befragungsergebnis widerspiegeln, die die Meinungsforscher ermitteln – und zwar bevor die Ergebnisse geglättet werden. Bei diesen Daten sind die Schwankungen weitaus größer. Manchmal betragen sie acht Prozentpunkte innerhalb weniger Wochen. Die Institute glätten diese anschließend, indem sie in manchen Wochen einige Prozentpunkte draufschlagen, manchmal Prozentpunkte abziehen. Die Frage lautet: Wie machen die Meinungsforscher das? Und vor allem: Warum?

Diese Frage zu beantworten, ist nicht einfach. Nur eines der großen Forschungsinstitute – die Forschungsgruppe Wahlen – öffnet die ermittelten Rohdaten für die Öffentlichkeit. Die anderen Institute operieren auch mit solchen Daten, sie verstecken sie nur besser. Das hat einen guten Grund: Würden die Demoskopen die Zufallsschwankungen, die durch relativ kleine Stichproben in ihren Rohdaten entstehen, veröffentlichen, würde sich das Publikum schnell von den Zahlen abwenden. Ein Absturz von acht Prozent in den Umfragen  – obwohl de facto politisch nichts passiert ist – lässt sich eben schwer erklären. Es gäbe starke Zweifel an den Fähigkeiten der Schätzer. Das wäre eine Gefahr für die ganze Wahlforschungsbranche.

Deshalb die Glättungen. Sie finden nach geheimen Kochrezepten statt, die sich von Institut zu Institut unterscheiden und die wenig transparent sind. Politologisch betrachtet sind einige dieser Anpassungen sogar sinnvoll.  Wähler der äußersten Rechten geben ihre Wahlabsicht bei Umfragen zum Beispiel nicht immer zu. Eine Korrektur der gemessenen Werte erscheint da sinnvoll. Regierungsparteien wiederum beschließen zur Mitte ihrer Wahlperiode oft harte Maßnahmen für die Bürger, in der Hoffnung, dass die bei der nächsten Wahl wieder vergessen sind. In dieser Zeit wenden sich auch Stammwähler bei Umfragen von ihnen ab. Ein paar Jahre und ein paar Vorwahlgeschenke später bleiben sie ihrer Partei an der Wahlurne dann doch treu. Für solche Prozesse gibt es Erfahrungswerte, die von den Forschern in ihre Wahlprognosen eingerechnet werden müssen. Alles andere wäre fahrlässig.