Eine Figur aus dem Antikensaal. Über ihrem Mund ist Klebeband per Fotomontage eingefügt. Daneben steht in schwarzer Schrift: In aller Munde. Demokratieforschung an der Uni Mannheim.

Forschung mit X-Faktor

Erstens kommt es anders, und zweitens als man denkt: Diese Erfahrung machte das Team um Prof. Dr. Heiko Paulheim, das sich in seinem Forschungs­projekt ursprünglich mit der Regulierung von Hate Speech auf Twitter (heute X) beschäftigen wollte. Nun analysieren sie die Verbreitung prorussischer Narrative – mangels Forschungs­daten dank Elon Musk.

„Hinterher ist man immer schlauer – das ist das Kernelement von Forschung“, fasst Prof. Dr. Heiko Paulheim zusammen und lacht. Denn als der Inhaber des Lehr­stuhls für Data Science an der Universität Mannheim mit seinem Forschungs­team Anfang 2022 das Projekt „Datengestützte Analyse von Hate Speech und die Aus­wirkungen der Regulierung in Deutschland“ entwickelt hat, war der Plan noch ein anderer. Das vierköpfige Team wollte unter­suchen, wie sich Hate Speech in den sozialen Medien verbreitet und ob Regulierungs­maßnahmen wie das Netzwerkdurchsetzungs­gesetz (NetzDG) dazu beitragen, diese Verbreitung einzudämmen. Insbesondere interessierte sie, wie Plattformbetreiber*innen der Pflicht nachkommen, Hassinhalte zu löschen, und inwieweit es sich bei den gelöschten Inhalten tatsächlich um Hass-Postings handelt. Im Fokus: Twitter.

Doch dann folgte am 27. Oktober 2022, ziemlich genau einen Monat nach Bewilligung des Projekts, die Über­nahme der Social-Media-Plattform durch den US-amerikanischen Unter­nehmer Elon Musk. „Unser Projekt ist im Januar 2023 gestartet. Ein paar Monate später hat X, wie Twitter mittlerweile heißt, allen Wissenschaft­ler*innen den Zugang zu essenziellen Forschungs­daten entzogen“, erklärt Paulheim. Zuvor sei es möglich gewesen, als Forscher*in alle notwendigen Daten kostenfrei von der Plattform zur Verfügung gestellt zu bekommen. „Mittlerweile gibt es zwar wieder einen begrenzten Zugang, aber nur zu astronomischen Preisen. Forschung mit aktuellen Daten von X ist für uns daher nicht wirklich möglich.“

Für den Informatiker und seine drei Kolleginnen – Katharina Ludwig von der Universität Mannheim, Dr. Raphaela Andres vom ZEW – Leibniz-Zentrum für Europäische Wirtschafts­forschung und Dr. Olga Slivko von der Erasmus-Universität Rotterdam – war daher klar: Das Projekt ist nicht wie geplant umsetzbar. Auch die Analyse der von X gelöschten Inhalte kann mangels Daten nicht durchgeführt werden. „Glücklicherweise hatte die Plattform aber zuvor angekündigt, den Forschungs­zugang beenden zu wollen. Also haben wir uns Daten her­unter­geladen, solange es noch ging“, sagt Paulheim.

Acht Dollar pro Haken

Eine weitere Maßnahme in Musks ersten Monaten nach dem Kauf von X war eine Änderung in der „Blue-Check-Policy“, also der Vergabe von blauen Haken. „Während der Haken zuvor Accounts vorbehalten war, die vom Unter­nehmen verifiziert wurden, kann sie seit März 2023 jede*r käuflich erwerben. Das Interessante daran: Beiträge von verifizierten Accounts haben eine höhere Reichweite als die von nicht-verifizierten“, so der Forscher. Für sein Team stellte sich daher die Frage: Können Propaganda-Accounts das ausnutzen?

Gut beobachten lasse sich dies anhand aktueller gesellschaft­licher Entwicklungen wie dem Angriffskrieg Russlands auf die Ukraine, fährt Paulheim fort. „Monatlich acht Dollar pro Account sind für die russischen Akteur*innen nicht viel Geld – da liegt der Verdacht nahe, dass diese Änderung der Plattform für die eigenen politischen Ziele genutzt wird.“ Der Datensatz der vier Forschenden umfasst rund acht Millionen Beiträge zum Krieg, weshalb sie sich in ihrer Analyse nun darauf konzentrieren.

Social-Media-Analyse mit KI

„Um unsere Hypothese zu überprüfen, haben wir eine Künstliche Intelligenz trainiert, prorussische und proukrainische Beiträge zu unter­scheiden“, erläutert der Informatiker. „Zum einen haben wir sie mit Posts von Accounts gefüttert, die eindeutig der russischen oder ukrainischen Seite zuzuordnen sind. Zum anderen nutzen wir die Schreibweise bestimmter Ortsnamen als Indikator: Kiev ist beispielsweise die russische Schreibweise, Ukrainer*innen nennen ihre Hauptstadt Kyiv.“

Das Resultat ist ein laut Paulheim gut funktionierendes KI-Modell, das Beiträge auf X anhand eines bestimmten Merkmals – wie prorussische und proukrainische Narrative – analysieren sowie vor und nach einem bestimmten Zeitpunkt – wie der Änderung in der „Blue-Check-Policy“ – vergleichen kann. Und wie lautet nun das Ergebnis ihrer Unter­suchung? „Die Anzahl an Beiträgen mit prorussischen Narrativen sowie deren Reposts ist tatsächlich signifikant gestiegen. Daher gehen wir davon aus, dass russische Akteur*innen gezielt blaue Haken kaufen, um ihre Botschaften zu verbreiten“, resümiert der Forscher. „Die Plattform spielt ihnen mit der Änderung also unmittelbar in die Hände.“

Ganz ohne Einschränkungen gelte diese Annahme aber nicht: „Unser Datensatz stammt aus einer sehr chaotischen Phase kurz nach Musks Über­nahme, in der vieles an der Plattform geändert wurde. Es ist daher schwer, unsere Er­kenntnisse nur auf eine Ursache zurückzuführen“, gibt Paulheim zu. Im weiteren Projektverlauf möchten sich die Forschenden daher auch anschauen, welchen Anteil die prorussischen Accounts auf X haben und über welche Wege sich ihre Beiträge verbreiten.

Die Entwicklung des KI-Modells war für das Forschungs­team ein wichtiger Bestandteil des Projekts, da es nun für verschiedene Zwecke, auch in künftigen Forschungs­vorhaben, eingesetzt werden kann. „Jetzt haben wir ein Werkzeug in der Hand, das wir beispielsweise auch für Analysen zum Thema Hate Speech nutzen können, sollten wir doch einmal an die entsprechenden Daten kommen.“ Zudem haben Paulheim und seine drei Kolleginnen einen weiteren Datensatz zum Thema Klimawandel vorliegen, den sie ebenfalls mit dem Modell unter­suchen möchten.

Gefahr für die Meinungs­bildung?

Wie relevant solche Analysen heutzutage sind, unter­streicht der Mannheimer Forscher anhand eines Beispiels. „Vor einigen Jahrzehnten haben die meisten Menschen eine Tageszeitung abonniert und abends die Tagesschau geguckt – das waren ihre Informations­quellen.“ Durch die sozialen Medien habe sich das geändert: „Insbesondere die Meinungs­bildung der jüngeren Generationen wird maßgeblich von den Inhalten beeinflusst, die sie online sehen“, erklärt er. „Umso wichtiger ist es, deren Verbreitungs­wege nachzuvollziehen und den Einfluss der Plattformen darauf zu unter­suchen.“

Dass sein eigentliches Forschungs­vorhaben durch den Entzug des Datenzugangs so ausgebremst wurde, löst bei Paulheim ein ungutes Gefühl aus: „Wir Wissenschaft­ler*innen haben das Privileg, mit Daten zu Forschungs­zwecken viel mehr machen zu dürfen, als es zu anderen Zwecken erlaubt wäre. Wenn aber einzelne Personen ihren Einfluss ausnutzen, um Forschung nach ihrem Willen einzuschränken, kann das zum Problem werden – nicht nur für die Wissenschaft, sondern auch für unsere Gesellschaft.“

Text: Jessica Scholich / August 2025

Das Forschungs­projekt wird von der Deutschen Stiftung Friedensforschung mit 158.000 Euro gefördert. Es läuft seit dem 1. Januar 2023 und endet voraussichtlich am 31. März 2026. Die Leitung liegt bei Prof. Dr. Heiko Paulheim, Professor für Data Science an der Universität Mannheim.