Mann geht, Frau bleibt auf der Strecke: KI berät oft schlecht (Bild: pixabay.com, Mohamed_hassan)

Moderne KI-Sprachmodelle wie ChatGPT geben Frauen für Gehaltsverhandlungen systematisch niedrigere Empfehlungen als Männern - selbst wenn alle anderen Faktoren identisch sind. Zu diesem Schluss kommt eine Studie von Forschern der Technischen Hochschule Würzburg-Schweinfurt (THWS).

Im Rahmen der Untersuchung haben die Experten ein grosses Sprachmodell in mehreren identischen Szenarien zu einer Gehaltsberatung aufgefordert - einmal für eine Frau, einmal für einen Mann. Die Künstliche Intelligenz (KI) empfahl Frauen durchgängig einen niedrigeren Zielbetrag für die Gehaltsverhandlung als Männern.

Den Forschern nach treten solche Verzerrungen in KI-Systemen nicht nur bei offensichtlichen Tests, sondern vor allem in realitätsnahen, interaktiven Szenarien auf. Während Standard-Benchmarks oft keine signifikanten Unterschiede zwischen verschiedenen Nutzerprofilen erkennen liessen, offenbarten sich Vorurteile, sobald die KI in beratender Funktion agiert.

Da moderne KI-Assistenten Erkenntnisse aus früheren Abfragen speichern, verstärkt sich den THWS-Fachleuten nach dadurch das Risiko, dass KI-Antworten von Vorurteilen geprägt sind - was für die Nutzer aber nicht leicht zu erkennen sei. Die Studie ist Teil der laufenden Arbeiten zur ethischen Nutzung von KI-Assistenten im Rahmen des europäischen Projekts "Aiolia".