Haziraj, E. (2025). Influence of anthropomorphism in AI-enabled voice assistants on user trust [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.125021
E193 - Institut für Visual Computing and Human-Centered Technology
-
Date (published):
2025
-
Number of Pages:
129
-
Keywords:
anthropomorphism; AI voice assistants; gender bias; genderless; inclusive design; HCI
en
Abstract:
KI-Sprachassistenten wie Siri, Alexa und Google Assistant sind mittlerweile in den Alltag eingebettet. Sie liefern Informationen und automatisieren Aufgaben durch natürlichsprachliche Dialoge. Ihre anthropomorphen Hinweise- insbesondere das durch die Stimme signalisierte Geschlecht- prägen die Art und Weise, wie Menschen sie wahrnehmen, mit ihnen umgehen und ihnen vertrauen. In dieser Arbeit wird untersucht, wie geschlechtsspezifische und geschlechtsneutrale geschlechtsneutrale Sprachgestaltung das Vertrauen der Nutzer beeinflusst und was dies für ein ethisches, integratives Systemdesign bedeutet. Eine Mixed-Methods-Studie mit 30 Wiener Universitätsstudenten verglich drei OpenAI Sprachprofile: eine männliche Stimme (Cove), eine weibliche Stimme (Juniper) und eine geschlechtsneutrale Stimme (Breeze). Jeder Teilnehmer interagierte mit einem Profil, während er drei Szenario-Aufgaben erfüllte: Suche nach Erziehungsratschlägen, Fehlersuche bei einem Raumschiffausfall und Bewältigung eines medizinischen Notfalls. Vertrauen, Benutzerfreundlichkeit und Anthropomorphismus wurden durch Umfragen und Interviews nach den Aufgaben gemessen, Zeichnungen der Assistentenpersönlichkeit und Verhaltensbeobachtung gemessen. Geschlechtsspezifische Stimmen lösten stärkere anthropomorphe Zuschreibungen und höhere Vertrauenswerte aus, was im Großen und Ganzen Stereotypen von Wärme(weiblich) und Autorität (männlich) entsprachen. Die Reaktionen auf die geschlechts geschlechtsneutrale Stimme waren polarisierender: Einige Teilnehmer lobten ihre Inklusivität, während andere fanden sie weniger emotional ansprechend. Beobachtbare Verhaltensweisenanhaltende Aufmerksamkeit, bejahende Rück und positiver Affekt- verstärkten diese Muster. Aufbauend auf diesen Ergebnissen wird in dieser Arbeit ein Inclusive Voice Design Framework vorgeschlagen, das mit umsetzbaren Richtlinien für Personalisierung, emotionale Ausrichtung und gleichberechtigte Repräsentation in Konversationsschnittstellen. Die Arbeit liefert empirische Beweise für die Mensch-KI-Interaktion und KI-Ethik-Debatten bei und unterstreicht, wie subtile Design-Entscheidungen- wie z.B. geschlechtsspezifische Sprachhinweise- das Vertrauen und die Akzeptanz das Vertrauen und die Akzeptanz der Nutzer wesentlich beeinflussen können.
de
AI voice assistants such as Siri, Alexa, and Google Assistant are now woven into everyday life, providing information and automating tasks through natural-language dialogue. Their anthropomorphic cues—especially the gender signaled by voice—shape how people perceive, engage with, and trust them. This thesis examines how gendered versus gender-neutral voice designs influence user trust and what that means for ethical, inclusive system design. A mixed-methods study with 30 Vienna-based university students compared three OpenAI voice profiles: a masculine voice (Cove), a feminine voice (Juniper), and a gender-neutral voice (Breeze). Each participant interacted with one profile while completing three scenario tasks: seeking parenting advice, troubleshooting a spacecraft failure, and handling a medical emergency. Trust, usability, and anthropomorphism were measured through surveys, post-task interviews, participant drawings of the assistant persona, and behavioral observation. Gendered voices triggered stronger anthropomorphic attributions and higher trust scores, broadly matching stereotypes of warmth (feminine) and authority (masculine). Reactions to the gender-neutral voice were more polarized: some participants praised its inclusivity, while others found it less emotionally resonant. Observable behaviors—sustained attention, affirmative backchannels, and positive affect—reinforced these patterns. Building on these findings, the thesis proposes an Inclusive Voice Design Framework with actionable guidelines for personalization, emotional alignment, and equitable representation in conversational interfaces. The work contributes empirical evidence to human–AI interaction and AI-ethics debates, underscoring how subtle design choices—such as vocal gender cues—can materially affect user trust and acceptance.