Studie zeigt: Sprach­basierte KIs haben verborgene Moral- und Wertevorstellungen

Genauso wie Menschen haben auch große, auf Künstlicher Intelligenz (KI) basierende Sprach­modelle Merkmale wie Moral- und Wertevorstellungen. Diese sind jedoch nicht immer transparent. Forschende der Universität Mannheim und des GESIS – Leibniz-Instituts für Sozial­wissenschaften haben nun untersucht, wie man die Eigenschaften der Sprach­modelle sichtbar machen kann und welche Folgen diese Voreingenommenheit für die Gesellschaft haben könnte.

Beispiele für Stereotypen findet man bei kommerziellen KI-gestützten Anwendungen wie ChatGPT oder deepl, die häufig automatisch annehmen, dass leitende Ärzt*innen männlich und Pflegekräfte weiblich sind. Doch nicht nur bei Geschlechterrollen können große Sprach­modelle (Large Language Models, LLMs) bestimmte Tendenzen zeigen. Gleiches lässt sich auch in Bezug auf andere menschliche Merkmale feststellen und messen. Das haben Forschende der Universität Mannheim und des GESIS – Leibniz-Instituts für Sozial­wissenschaften in einer neuen Studie anhand einer Reihe von offen verfügbaren LLMs aufgezeigt. Zudem haben sie mithilfe von etablierten psychologischen Tests die Profile der unterschiedlichen LLMs untersucht und miteinander verglichen. Die Forschenden konnten bestätigen, dass manche Modelle gender­spezifische Vorurteile reproduzieren. So werden beispielsweise Sprach­modelle zunehmend in Bewerbungs­verfahren eingesetzt. Ist die Maschine voreingenommen, so fließt das auch in die Bewertung der Kandidierenden ein.

Die Studie wurde am Lehr­stuhl für Data Science in den Wirtschafts- und Sozial­wissenschaften von Prof. Dr. Markus Strohmaier in Zusammenarbeit der Abteilung Survey Design und Methodology von Prof. Dr. Beatrice Rammstedt durchgeführt und ist im renommierten Fach­journal “Perspectives on Psychological Science” erschienen. Beide Forschende sind auch am GESIS – Leibniz-Institut für Sozial­wissenschaften beschäftigt.

zur Pressemitteilung

Zurück