Forschung mit X-Faktor
Erstens kommt es anders, und zweitens als man denkt: Diese Erfahrung machte das Team um Prof. Dr. Heiko Paulheim, das sich in seinem Forschungsprojekt ursprünglich mit der Regulierung von Hate Speech auf Twitter (heute X) beschäftigen wollte. Nun analysieren sie die Verbreitung prorussischer Narrative – mangels Forschungsdaten dank Elon Musk.

„Hinterher ist man immer schlauer – das ist das Kernelement von Forschung“, fasst Prof. Dr. Heiko Paulheim zusammen und lacht. Denn als der Inhaber des Lehrstuhls für Data Science an der Universität Mannheim mit seinem Forschungsteam Anfang 2022 das Projekt „Datengestützte Analyse von Hate Speech und die Auswirkungen der Regulierung in Deutschland“ entwickelt hat, war der Plan noch ein anderer. Das vierköpfige Team wollte untersuchen, wie sich Hate Speech in den sozialen Medien verbreitet und ob Regulierungsmaßnahmen wie das Netzwerkdurchsetzungsgesetz (NetzDG) dazu beitragen, diese Verbreitung einzudämmen. Insbesondere interessierte sie, wie Plattformbetreiber*innen der Pflicht nachkommen, Hassinhalte zu löschen, und inwieweit es sich bei den gelöschten Inhalten tatsächlich um Hass-Postings handelt. Im Fokus: Twitter.
Doch dann folgte am 27. Oktober 2022, ziemlich genau einen Monat nach Bewilligung des Projekts, die Übernahme der Social-Media-Plattform durch den US-amerikanischen Unternehmer Elon Musk. „Unser Projekt ist im Januar 2023 gestartet. Ein paar Monate später hat X, wie Twitter mittlerweile heißt, allen Wissenschaftler*innen den Zugang zu essenziellen Forschungsdaten entzogen“, erklärt Paulheim. Zuvor sei es möglich gewesen, als Forscher*in alle notwendigen Daten kostenfrei von der Plattform zur Verfügung gestellt zu bekommen. „Mittlerweile gibt es zwar wieder einen begrenzten Zugang, aber nur zu astronomischen Preisen. Forschung mit aktuellen Daten von X ist für uns daher nicht wirklich möglich.“
Für den Informatiker und seine drei Kolleginnen – Katharina Ludwig von der Universität Mannheim, Dr. Raphaela Andres vom ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung und Dr. Olga Slivko von der Erasmus-Universität Rotterdam – war daher klar: Das Projekt ist nicht wie geplant umsetzbar. Auch die Analyse der von X gelöschten Inhalte kann mangels Daten nicht durchgeführt werden. „Glücklicherweise hatte die Plattform aber zuvor angekündigt, den Forschungszugang beenden zu wollen. Also haben wir uns Daten heruntergeladen, solange es noch ging“, sagt Paulheim.
Acht Dollar pro Haken
Eine weitere Maßnahme in Musks ersten Monaten nach dem Kauf von X war eine Änderung in der „Blue-Check-Policy“, also der Vergabe von blauen Haken. „Während der Haken zuvor Accounts vorbehalten war, die vom Unternehmen verifiziert wurden, kann sie seit März 2023 jede*r käuflich erwerben. Das Interessante daran: Beiträge von verifizierten Accounts haben eine höhere Reichweite als die von nicht-verifizierten“, so der Forscher. Für sein Team stellte sich daher die Frage: Können Propaganda-Accounts das ausnutzen?
Gut beobachten lasse sich dies anhand aktueller gesellschaftlicher Entwicklungen wie dem Angriffskrieg Russlands auf die Ukraine, fährt Paulheim fort. „Monatlich acht Dollar pro Account sind für die russischen Akteur*innen nicht viel Geld – da liegt der Verdacht nahe, dass diese Änderung der Plattform für die eigenen politischen Ziele genutzt wird.“ Der Datensatz der vier Forschenden umfasst rund acht Millionen Beiträge zum Krieg, weshalb sie sich in ihrer Analyse nun darauf konzentrieren.

Social-Media-Analyse mit KI
„Um unsere Hypothese zu überprüfen, haben wir eine Künstliche Intelligenz trainiert, prorussische und proukrainische Beiträge zu unterscheiden“, erläutert der Informatiker. „Zum einen haben wir sie mit Posts von Accounts gefüttert, die eindeutig der russischen oder ukrainischen Seite zuzuordnen sind. Zum anderen nutzen wir die Schreibweise bestimmter Ortsnamen als Indikator: Kiev ist beispielsweise die russische Schreibweise, Ukrainer*innen nennen ihre Hauptstadt Kyiv.“
Das Resultat ist ein laut Paulheim gut funktionierendes KI-Modell, das Beiträge auf X anhand eines bestimmten Merkmals – wie prorussische und proukrainische Narrative – analysieren sowie vor und nach einem bestimmten Zeitpunkt – wie der Änderung in der „Blue-Check-Policy“ – vergleichen kann. Und wie lautet nun das Ergebnis ihrer Untersuchung? „Die Anzahl an Beiträgen mit prorussischen Narrativen sowie deren Reposts ist tatsächlich signifikant gestiegen. Daher gehen wir davon aus, dass russische Akteur*innen gezielt blaue Haken kaufen, um ihre Botschaften zu verbreiten“, resümiert der Forscher. „Die Plattform spielt ihnen mit der Änderung also unmittelbar in die Hände.“
Ganz ohne Einschränkungen gelte diese Annahme aber nicht: „Unser Datensatz stammt aus einer sehr chaotischen Phase kurz nach Musks Übernahme, in der vieles an der Plattform geändert wurde. Es ist daher schwer, unsere Erkenntnisse nur auf eine Ursache zurückzuführen“, gibt Paulheim zu. Im weiteren Projektverlauf möchten sich die Forschenden daher auch anschauen, welchen Anteil die prorussischen Accounts auf X haben und über welche Wege sich ihre Beiträge verbreiten.
Die Entwicklung des KI-Modells war für das Forschungsteam ein wichtiger Bestandteil des Projekts, da es nun für verschiedene Zwecke, auch in künftigen Forschungsvorhaben, eingesetzt werden kann. „Jetzt haben wir ein Werkzeug in der Hand, das wir beispielsweise auch für Analysen zum Thema Hate Speech nutzen können, sollten wir doch einmal an die entsprechenden Daten kommen.“ Zudem haben Paulheim und seine drei Kolleginnen einen weiteren Datensatz zum Thema Klimawandel vorliegen, den sie ebenfalls mit dem Modell untersuchen möchten.
Gefahr für die Meinungsbildung?
Wie relevant solche Analysen heutzutage sind, unterstreicht der Mannheimer Forscher anhand eines Beispiels. „Vor einigen Jahrzehnten haben die meisten Menschen eine Tageszeitung abonniert und abends die Tagesschau geguckt – das waren ihre Informationsquellen.“ Durch die sozialen Medien habe sich das geändert: „Insbesondere die Meinungsbildung der jüngeren Generationen wird maßgeblich von den Inhalten beeinflusst, die sie online sehen“, erklärt er. „Umso wichtiger ist es, deren Verbreitungswege nachzuvollziehen und den Einfluss der Plattformen darauf zu untersuchen.“
Dass sein eigentliches Forschungsvorhaben durch den Entzug des Datenzugangs so ausgebremst wurde, löst bei Paulheim ein ungutes Gefühl aus: „Wir Wissenschaftler*innen haben das Privileg, mit Daten zu Forschungszwecken viel mehr machen zu dürfen, als es zu anderen Zwecken erlaubt wäre. Wenn aber einzelne Personen ihren Einfluss ausnutzen, um Forschung nach ihrem Willen einzuschränken, kann das zum Problem werden – nicht nur für die Wissenschaft, sondern auch für unsere Gesellschaft.“
Text: Jessica Scholich / August 2025
Das Forschungsprojekt wird von der Deutschen Stiftung Friedensforschung mit 158.000 Euro gefördert. Es läuft seit dem 1. Januar 2023 und endet voraussichtlich am 31. März 2026. Die Leitung liegt bei Prof. Dr. Heiko Paulheim, Professor für Data Science an der Universität Mannheim.