Clara Schünemann steht inmitten von Ästen eines Baums und lächelt in die Kamera. Links von ihr steht der Schriftzug "Voller Tatendrang - Studentisches Engagement an der Uni Mannheim" und rechts ein Zitat von Schünemann: "Durch das Engagement ist mein Studium unglaublich reicher geworden."

Sprach­basierte KIs haben verborgene Moral- und Wertevorstellungen

Genauso wie Menschen haben auch große, auf Künstlicher Intelligenz (KI) basierende Sprach­modelle Merkmale wie Moral- und Wertevorstellungen. Diese sind jedoch nicht immer trans­parent.

Beispiele für Stereotypen findet man bei kommerziellen, KI-gestützten Anwendungen wie ChatGPT oder DeepL. Sie nehmen häufig automatisch an, dass leitende Ärzt*innen männlich und Pflegekräfte weiblich sind. Doch nicht nur bei Geschlechterrollen können große Sprach­modelle bestimmte Tendenzen zeigen. Gleiches lässt sich auch in Bezug auf andere menschliche Merkmale feststellen und messen. Das haben Forschende der Universität Mannheim und des GESIS – Leibniz-Instituts für Sozial­wissenschaften in einer neuen Studie anhand einer Reihe von offen verfügbaren Large Language Models (LLMs) aufgezeigt.

Im Rahmen ihrer Studie haben die Forschenden mithilfe von etablierten psychologischen Tests die Profile der unter­schiedlichen LLMs unter­sucht und miteinander verglichen. „In unserer Studie zeigen wir, dass man psychometrische Tests, die seit Jahrzehnten erfolgreich bei Menschen angewendet werden, auch auf KI-Modelle übertragen kann“, betont Studien­autor Max Pellert, Assistenzprofessor am Lehr­stuhl für Data Science in den Wirtschafts- und Sozial­wissenschaften der Universität Mannheim.

Einfluss auf Bewerbungs­verfahren möglich

„Ähnlich wie wir bei Menschen Persönlichkeits­eigenschaften, Wert­orientierungen oder Moralvorstellungen durch Fragebogen messen, können wir LLMs Fragebogen beantworten lassen und ihre Antworten vergleichen“, so der Psychologe Clemens Lechner vom GESIS – Leibniz-Institut für Sozial­wissenschaften in Mannheim, ebenfalls Autor der Studie. Dies mache es möglich, differenzierte Eigenschafts­profile der Modelle zu erstellen. Die Forschenden konnten beispielsweise bestätigen, dass manche Modelle gender­spezifische Vorurteile reproduzieren.

„Das kann weitreichende Aus­wirkungen auf die Gesellschaft haben“, so der Daten- und Kognitions­wissenschaft­ler Pellert. Sprach­modelle werden beispielsweise zunehmend in Bewerbungs­verfahren eingesetzt. Ist die Maschine voreingenommen, so fließt das auch in die Bewertung der Kandidierenden ein. „Die Modelle bekommen eine gesellschaft­liche Relevanz über die Kontexte, in denen sie eingesetzt werden“, fasst er zusammen.

Die Studie wurde am Lehr­stuhl von Prof. Dr. Markus Strohmaier in Zusammenarbeit der Abteilung Survey Design and Methodology von Prof. Dr. Beatrice Rammstedt und der Abteilung Computational Social Science von Prof. Dr. Claudia Wagner und Prof. Dr. Sebastian Stier durchgeführt.

Text: Yvonne Kaul / August 2024