Title: Gender, Künstliche Intelligenz und Robotik: Wie Künstliche Intelligenz und Roboter Gender Stereotype und Gender Biases weiterführen
Language: Deutsch
Authors: Strobl, Ruth 
Qualification level: Diploma
Advisor: Köszegi, Sabine Theresia 
Issue Date: 2021
Number of Pages: 126
Qualification level: Diploma
Abstract: 
Diese Arbeit befasst sich mit der Frage wie Gender Stereotype und Gender Biases durch Systeme Künstlicher Intelligenz und (humanoide) Roboter weitergeführt werden. Algorithmen und Anwendungen, die diese nutzen, sind in unserer Welt sehr weit verbreitet. Gender Bias, also die systematische Diskriminierung von Personen aufgrund ihres Geschlechts, wurde in der Vergangenheit schon in diversen algorithmischen Anwendungen festgestellt. Diese führen zur Verfestigung oder gar Verstärkung bereits bestehender sozialer Ungleichheiten, die sowohl aus ethischer Sicht nicht wünschenswert als auch aus rechtlicher Sicht verboten sind. Bias tritt in algorithmischen Systemen auf drei Ebenen auf: auf jener der Eingangsdaten, im Algorithmus (bzw. im Design) selbst und im Nutzungskontext. Anhand von konkreten Beispielen wird unter Zuhilfenahme der feministischen Technikforschung gezeigt, dass Gender Bias auf allen drei Ebenen auftritt und dass die genannten Anwendungen zur Weiterführung von Geschlechterstereotypen beitragen. Zuletzt werden Strategien aufgezeigt und in Hinblick auf die Kategorie Gender analysiert, um das Weiterführen von Gender Stereotypen und Gender Biases zu vermeiden.

This thesis discusses how gender stereotypes and gender biases are perpetuated or even reinforced by artificial intelligence and (humanoid) robotics. Nowadays, algorithms and applications using them are very common in our society. As has already been shown by many researchers, algorithms often exhibit gender bias, which is defined as the systematic discrimination of people based on their gender. These gender biases stabilize and exacerbate existing social inequalities. This is on the one hand undesirable from an ethical point of view and on the other hand problematic from a legal perspective since discrimination in relation to gender is prohibited by law in the European Union. Bias in algorithmic systems has been shown to occur on three dimensions: in the input data, in the algorithm (or design) itself and in the context of use. Using concrete examples and the perspective of feminist technoscience, this thesis shows that gender bias occurs in all three dimensions and that all applications analyzed perpetuate gender stereotypes. Finally, strategies to apply the gender dimension and their ability to de-gender technological artifacts in order to avoid perpetuating (or even reinforcing) gender stereotypes and gender biases are analyzed.
Keywords: Gender; Robotik; KI
Gender; Robotik; KI
URI: https://doi.org/10.34726/hss.2021.79583
http://hdl.handle.net/20.500.12708/18050
DOI: 10.34726/hss.2021.79583
Library ID: AC16254607
Organisation: E330 - Institut für Managementwissenschaften 
Publication Type: Thesis
Hochschulschrift
Appears in Collections:Thesis

Files in this item:


Page view(s)

26
checked on Aug 4, 2021

Download(s)

31
checked on Aug 4, 2021

Google ScholarTM

Check


Items in reposiTUm are protected by copyright, with all rights reserved, unless otherwise indicated.