Bias in Artificial Intelligence

ChatGPT danach gefragt, ob es gebiased ist, antwortet das AI (Artificial Intelligence) Tool am 8.4.2024: “Like many AI models, ChatGPT can be susceptible to biases. Bias can arise in various ways, such as how the training data was collected, or the inherent biases present in the texts used to train the model.”

Bias in KI-Tools lassen sich also durch die Daten erklären, die zur Entwicklung dieser Maschinen verwendet werden. Diese Daten sind häufig nicht repräsentativ und basieren auf Meinungen und Einstellungen von Mehrheitsgruppen. So gibt EIGE für das Jahr 2022 europaweit einen Anteil an IT- Spezialistinnen von 18,9% an. Selbstredend sind dann häufig stereotype Vorstellungen gegenüber bestimmten Geschlechtern, Ethnien oder sozialen Gruppen in den Trainingsdaten vorhanden, was dazu führt, dass KI-Modelle in deren großen Breitenwirkung diese reproduzieren und verstärken.

Die Daten wiederum, mit denen z.B. ChatGPT trainiert wurde, stammen primär aus Internetquellen wie Wikipedia, die Enzyklopädie, die sich bereits seit ihrer Gründung durch einen deutlich geringeren Frauen- als Männeranteil auszeichnet. Für das Jahr 2018 wird auch hier ein großes Missverhältnis der Geschlechter festgestellt, wenn es darum geht, wer die Beiträge schreibt: Der Community Insights Report spricht von 90% Männern, 9% Frauen und von 1% andere Personen.

Das ist mittlerweile nichts Neues. Aber diese Bias zu vermeiden, stellt ein durchaus komplexes Unterfangen dar.

Gegen den Bias in AI können verschiedene Maßnahmen ergriffen werden, wie die Datensätze in der Entwicklung vielfältiger und diverser aufzusetzen, Verzerrungen schon in dieser Phase zu erkennen, Algorithmen im Nachhinein anzupassen oder die Entwicklungsteams vielfältiger zu besetzen. Vielfach – ganz besonders wenn das Stärken der allgemeinen Bevölkerung im Fokus steht – muss es aber auch darum gehen, diese Entwicklungen zu reflektieren: Durch die Schaffung von Transparenz und Erklärbarkeit in AI-Systemen können Nutzer*innen besser verstehen, wie Entscheidungen getroffen werden, und potenzielle Verzerrungen identifizieren. Es ist wichtig, dies im Hinterkopf zu behalten und Informationen, die bereitgestellt werden, kritisch zu prüfen und gegebenenfalls andere Quellen zu konsultieren. Dass sich da bereits etwas tut, zeigt die freundliche Anregung von Chat GPT: “If you notice any potential biases in my responses, please feel free to point them out, and I’ll do my best to address them.”

Gender Bias & Stereotype

Es handelt sich dabei um geschlechtsbezogene Zuschreibungen und geschlechtliche Verzerrungseffekte.

Stereotype geben Struktur, sie sind grundsätzlich hilfreich, sich in der Welt zurechtzufinden, indem sie Unsicherheiten reduzieren und Orientierung geben. Es sind unbewusste, vereinfachende Vorstellungen, welche die Wahrnehmungen einer Person bestimmen und so zu einer schnellen Einschätzung verhelfen. So wichtig diese in einer komplexen Welt auch sind, bergen Stereotype die Gefahr, dass es zu Zuschreibungen bestimmter Eigenschaften an Personen und -gruppen kommt, die mit dominanten gesellschaftlichen Bewertungen verbunden sind und so Hierarchie und Machtverhältnisse darstellen und gleichzeitig verfestigen.

Die Geschlechterstereotype „Männer sind an Technik interessiert, wenig kommunikativ, wenig empathisch, mathematisch begabt, zielstrebig, entscheidungsfreudig, …“ stehen in Differenz zu „Frauen sind technisch nicht interessiert, kommunikativ, empathisch, mathematisch nicht begabt, teamorientiert, sozial …“. Völlig außer Acht gelassen werden in diesen Diskussionen Menschen, die sich in ihrer Vielfalt nicht in derartige Dichotomien einordnen lassen. Obgleich die aktuelle Forschung Erklärungen vorweist und widerspricht, sind diese „natürlich gegebenen“ Vereinfachungen mit allen ihren individuellen beruflichen, gesellschaftlichen und ökonomischen Konsequenzen sehr hartnäckig und weit verbreitet.

Damit sind wir beim Gender-Bias, der durch das Aufgreifen dieser Geschlechter-Stereotype systematische Verzerrungseffekte im Handeln bedingt. Es geht um eine unbewusste Beeinflussung von Wahrnehmung und Entscheidungen durch derart dichotome, positive oder negative Bewertungen einer Person. Im beruflichen Kontext geht es hier beispielsweise darum, wie Lebensläufe bewertet werden, wie Entscheidungen über eine Aufnahme ins Unternehmen getroffen werden, wie über Karriereentwicklungen entschieden wird oder wie Gehaltssprünge argumentiert werden. Dass es hier trotz der rechtlichen Gleichstellung im Bundes- und Gleichbehandlungsgesetz noch einiges an Reflexionsarbeit braucht, zeigt jedenfalls der Gender-Pay-Gap, in Österreich im Jahr 2020 bei 18,9 % (gerechnet über Bruttoverdienste von Männern und Frauen) liegt und somit weit entfernt ist von Durchschnitt der EU-Länder mit 13 %. Der bereinigte (Berücksichtigung von Teilzeitarbeit, Branche, Bildungsstand oder Berufserfahrung) Gender-Pay-Gap liegt in Österreich immer noch auf 12,7 % zeigen die Daten der Statistik Austria aus 2020.

Mehr dazu erfahren Sie in unseren Workshops