Bias in Artificial Intelligence
Maschinelles Lernen - über den Begriff Artificial Intelligence (AI) verhandelt - tritt gerade in ein neues Zeitalter ein. Dieses Foto beispielsweise wurde von einem AI Bildgenerator erstellt. Aber welche Fallen kann es da geben?
ChatGPT danach gefragt, ob es gebiased ist, antwortet das AI (Artificial Intelligence) Tool am 8.4.2024: “Like many AI models, ChatGPT can be susceptible to biases. Bias can arise in various ways, such as how the training data was collected, or the inherent biases present in the texts used to train the model.”
Bias in KI-Tools lassen sich also durch die Daten erklären, die zur Entwicklung dieser Maschinen verwendet werden. Diese Daten sind häufig nicht repräsentativ und basieren auf Meinungen und Einstellungen von Mehrheitsgruppen. So gibt EIGE für das Jahr 2022 europaweit einen Anteil an IT- Spezialistinnen von 18,9% an. Selbstredend sind dann häufig stereotype Vorstellungen gegenüber bestimmten Geschlechtern, Ethnien oder sozialen Gruppen in den Trainingsdaten vorhanden, was dazu führt, dass KI-Modelle in deren großen Breitenwirkung diese reproduzieren und verstärken.
Die Daten wiederum, mit denen z.B. ChatGPT trainiert wurde, stammen primär aus Internetquellen wie Wikipedia, die Enzyklopädie, die sich bereits seit ihrer Gründung durch einen deutlich geringeren Frauen- als Männeranteil auszeichnet. Für das Jahr 2018 wird auch hier ein großes Missverhältnis der Geschlechter festgestellt, wenn es darum geht, wer die Beiträge schreibt: Der Community Insights Report spricht von 90% Männern, 9% Frauen und von 1% andere Personen.
Das ist mittlerweile nichts Neues. Aber diese Bias zu vermeiden, stellt ein durchaus komplexes Unterfangen dar.
Gegen den Bias in AI können verschiedene Maßnahmen ergriffen werden, wie die Datensätze in der Entwicklung vielfältiger und diverser aufzusetzen, Verzerrungen schon in dieser Phase zu erkennen, Algorithmen im Nachhinein anzupassen oder die Entwicklungsteams vielfältiger zu besetzen. Vielfach – ganz besonders wenn das Stärken der allgemeinen Bevölkerung im Fokus steht – muss es aber auch darum gehen, diese Entwicklungen zu reflektieren: Durch die Schaffung von Transparenz und Erklärbarkeit in AI-Systemen können Nutzer*innen besser verstehen, wie Entscheidungen getroffen werden, und potenzielle Verzerrungen identifizieren. Es ist wichtig, dies im Hinterkopf zu behalten und Informationen, die bereitgestellt werden, kritisch zu prüfen und gegebenenfalls andere Quellen zu konsultieren. Dass sich da bereits etwas tut, zeigt die freundliche Anregung von Chat GPT: “If you notice any potential biases in my responses, please feel free to point them out, and I’ll do my best to address them.”
Lesen Sie weiter
Joy, Buolamwini, & Gebru,Timnit, (2018). Gender Shades: Intersectional Disparities in Commercial Gender Classification. Proceedings if Machine Learning Research 81, 1-5.https://www.media.mit.edu/publications/gender-shades-intersectional-accuracy-disparities-in-commercial-gender-classification/
Sun, Tony, Andrew Gaut, Shirlyn Tang, Yuxin Huang, Mai ElSherief, Jieyu Zhao, Diba Mirza, Elizabeth Belding, Kai-Wei Chang, William Wang (2019). Mitigating Gender Bias in Natural Language Processing: Literature Review.https://www.researchgate.net/publication/333971854_Mitigating_Gender_Bias_in_Natural_Language_Processing_Literature_Review