Die Daten der Meinungsforscher müssen besser werden.

Das Meinungsbild der Bevölkerung sollte uns die Mühe wert sein.

Seit ein paar Jahren gibt es neue Spieler auf dem Markt der Meinungsdaten, die ein sehr mulmiges Gefühl bereiten.  Besorgniserregend dabei ist vor allem, wie wirtschaftlich professionell manche dieser Institute auftreten und mit pseudo-wissenschaftlichen Slogans die Qualität ihrer Daten herbeireden, aber tatsächlich alle bestehenden Zertifizierungen für die Qualität von Datenerhebungen (z.B. ISO und ESOMAR Standards) ablehnen.  Angegebener Grund: Sie möchten ihr Betriebsgeheimnis nicht verraten.

Nun ja, bei Zauberern habe ich dafür Verständnis, dass sie ihre Tricks nicht preisgeben möchten. Leider ist die Berufsbezeichnung hier aber nicht Zauberer, sondern Meinungsforscher und diese sogenannten Forscher versprechen „bevölkerungsrepräsentative Ergebnisse in Echtzeit“, wie von Zauberhand. 

Schade ist auch, dass renommierte Tages- und Wochenzeitungen diesen Versprechungen und dem darin enthaltenen Tech-Talk von Algorithmen Glauben und damit auch viel Geld schenken.  Bei Medienvertretern wie dem Spiegel, der sich gerade erst von herbeigezauberten Artikeln im Fall Claas Relotius erholt, würde man sich eine vorsichtigere Herangehensweise wünschen.  Aber der Spiegel ist nicht die einzige Zeitung, die sich verzaubern lässt.  Allein bei einem dieser Institute findet man heute auf der „Live“ Webseite neben dem Spiegel auch die Welt, Sächsische Zeitung, T-Online, Monda, Mediengruppe Thüringen und den Fokus als Auftraggeber der Meinungsumfragen.

Lassen sich die Zeitungen aus Unwissenheit an der Nase herumführen?  Vielleicht.  Entsprechend sollte man gerade in Zeiten von Digitalisierung, Big Data und Data Science eine tiefgreifende Methodenausbildung in den Wirtschafts- und Sozialwissenschaften, aber vor allem auch im Journalismus, aufs Programm rufen.  Aber nicht alle Fehler können unter dem Deckmantel der Unwissenheit freigesprochen werden.  So beschleicht die kritische Leserin diverser Zeitungen der Eindruck, Ziel der vielen bunten Statistiken sei nicht die Informierung der Bevölkerung, sondern vielmehr eine billige Unterhaltung der Massen.  Das mag ein valides Ziel sein, doch sollte man dann auch das pseudo-wissenschaftliche Palaver über Repräsentativität und statistische Fehler außen vor lassen.  Andernfalls drängt sich doch der Eindruck absichtlicher Täuschung durch die Datenanbieter auf.

An Unwissenheit dürfte es auch spätestens nach der jüngsten frei verfügbaren Veröffentlichung „A Review of Conceptual Approaches and Empirical Evidence on Probability and Nonprobability Sample Survey Research“1 im renommierten Journal of Survey Statistics and Methodology nicht liegen.  Dieser Beitrag schlug laut Dr. Cathleen Stützer, stellvertretende Vorsitzende der Deutschen Gesellschaft für Online-Forschung, ein „wie eine Bombe“.  Denn er zeigt in eingängiger Sprache die Unzulänglichkeiten vieler dieser „nonprobability Online Panels“ (Anm.: die englische Bezeichnung für derartige Datenerhebungen).  Vor allem aber reicht der Artikel ausführliche Transparenz-Guidelines dar und konstatiert: „The lack of information available from some online panel vendors can unfortunately make it impossible for researchers to comply with their own codes or certifications.“  Die Tatsache, dass der Beitrag innerhalb nur einer Woche an die Spitze der meistgelesenen Beiträge der Zeitschrift kletterte, lässt vermuten, dass er den Nerv getroffen hat.

Ach wie schön wäre doch eine Welt, in der die Datenproduzenten und Zeitungen ein wirkliches Interesse an den Einstellungen der Bürger haben und in der nicht der wirtschaftliche Ertrag fantastischer Datenzauberkünste das Meinungsbild bestimmt!

Da bleibt mir nur noch die Schlussfolgerung: Wer intransparent ist, dem glaubt man nicht, und wenn er auch die Wahrheit spricht.

 

Prof. Dr. Annelies Blom

Professorin für Politikwissenschaft, Data Science

Universität Mannheim

 

1 https://academic.oup.com/jssam/advance-article/doi/10.1093/jssam/smz041/5699631?searchresult=1

Back