<div class="csl-bib-body">
<div class="csl-entry">Strobl, R. (2021). <i>Gender, Künstliche Intelligenz und Robotik: Wie Künstliche Intelligenz und Roboter Gender Stereotype und Gender Biases weiterführen</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2021.79583</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2021.79583
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/18050
-
dc.description.abstract
Diese Arbeit befasst sich mit der Frage wie Gender Stereotype und Gender Biases durch Systeme Künstlicher Intelligenz und (humanoide) Roboter weitergeführt werden. Algorithmen und Anwendungen, die diese nutzen, sind in unserer Welt sehr weit verbreitet. Gender Bias, also die systematische Diskriminierung von Personen aufgrund ihres Geschlechts, wurde in der Vergangenheit schon in diversen algorithmischen Anwendungen festgestellt. Diese führen zur Verfestigung oder gar Verstärkung bereits bestehender sozialer Ungleichheiten, die sowohl aus ethischer Sicht nicht wünschenswert als auch aus rechtlicher Sicht verboten sind. Bias tritt in algorithmischen Systemen auf drei Ebenen auf: auf jener der Eingangsdaten, im Algorithmus (bzw. im Design) selbst und im Nutzungskontext. Anhand von konkreten Beispielen wird unter Zuhilfenahme der feministischen Technikforschung gezeigt, dass Gender Bias auf allen drei Ebenen auftritt und dass die genannten Anwendungen zur Weiterführung von Geschlechterstereotypen beitragen. Zuletzt werden Strategien aufgezeigt und in Hinblick auf die Kategorie Gender analysiert, um das Weiterführen von Gender Stereotypen und Gender Biases zu vermeiden.
de
dc.description.abstract
This thesis discusses how gender stereotypes and gender biases are perpetuated or even reinforced by artificial intelligence and (humanoid) robotics. Nowadays, algorithms and applications using them are very common in our society. As has already been shown by many researchers, algorithms often exhibit gender bias, which is defined as the systematic discrimination of people based on their gender. These gender biases stabilize and exacerbate existing social inequalities. This is on the one hand undesirable from an ethical point of view and on the other hand problematic from a legal perspective since discrimination in relation to gender is prohibited by law in the European Union. Bias in algorithmic systems has been shown to occur on three dimensions: in the input data, in the algorithm (or design) itself and in the context of use. Using concrete examples and the perspective of feminist technoscience, this thesis shows that gender bias occurs in all three dimensions and that all applications analyzed perpetuate gender stereotypes. Finally, strategies to apply the gender dimension and their ability to de-gender technological artifacts in order to avoid perpetuating (or even reinforcing) gender stereotypes and gender biases are analyzed.
en
dc.language
Deutsch
-
dc.language.iso
de
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Gender
de
dc.subject
Robotik
de
dc.subject
KI
de
dc.subject
Gender
en
dc.subject
Robotik
en
dc.subject
KI
en
dc.title
Gender, Künstliche Intelligenz und Robotik: Wie Künstliche Intelligenz und Roboter Gender Stereotype und Gender Biases weiterführen