Sabie, A.-C. (2023). Employing social robots in a privacy sensitive context: A case study on an open-source diary assistant [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.108026
E193 - Institut für Visual Computing and Human-Centered Technology
-
Date (published):
2023
-
Number of Pages:
82
-
Keywords:
Mensch-Roboter Interaktion; Privatsphäre; Vertrauen; soziale Roboter; Design für Vertrauen
de
human-robot interaction; privacy; trust; social robots; designing for trust
en
Abstract:
Soziale Roboter werden schon seit langem eingesetzt, aber es gibt immer noch Hürden, wenn es darum geht, solchen Geräten zu vertrauen und intime Daten mit ihnen zu teilen. Dies ist zum Teil auf allgemeine Datenschutzbedenken zurückzuführen, kann aber auch von den Interaktionen mit dem Roboter und den Erwartungen der Menschen an ihn abhängen. Die Forschung zeigt, dass diese Faktoren einen großen Einfluss auf die Art und Weise haben, wie ein Roboter in verschiedenen Kontexten genutzt wird bzw. mit ihm interagiert. In dieser Diplomarbeit wurde die Frage nach dem Vertrauen der Menschen in persönliche soziale Roboter anhand eines roboterbasierten Tagebuchs in einem häuslichen Kontext untersucht. Der stationäre QBo-Roboter war mit einer Sprache-zu-Text-API ausgestattet, die Eingaben in englischer Sprache erkannte und sie lokal in Textdateien mit dem Datum des jeweiligen Tages speicherte. Die erste Version der Tagebuchimplementierung auf dem Roboter wurde von einem Interaktionsexperten evaluiert und entsprechend seinen Empfehlungen überarbeitet. Dazu gehörte, dass mehrere Interaktionsmethoden mit dem Roboter angeboten wurden, dass er abwechselnd Fragen stellte und dass die BenutzerInnen darüber informiert wurden, wie ihre Daten gespeichert und analysiert wurden. Danach wurden vier Personen mit unterschiedlichem Hintergrund gebeten, vier bis fünf Tage lang täglich Einträge vorzunehmen. Alle Teilnehmer*innen mussten vor und nach der Studie eine Reihe von Interviews und den Godspeed-Fragebogen (ein standardisierter Fragebogen zur Benutzererfahrung in der Mensch-Roboter-Interaktion) ausfüllen. Die Tagebucheinträge wurden in Verbindung mit den Selbstauskünften aus den Interviews und Fragebögen ausgewertet. Die Auswertung ergab, dass die TeilnehmerInnen den Roboter in ihren persönlichen Kontext einbezogen und keine Bedenken hinsichtlich der Privatsphäre hatten, da sie mit der Forscherin vertraut waren und wussten, wie ihre Daten gespeichert wurden. Sie zeigten auch eine unterschiedlich starke emotionale Bindung an den Roboter, die sich in der Art und Weise widerspiegelte, wie sie mit ihm und über ihn sprachen, sowie in der Art und Weise, wie sie ihn benutzten, wobei sie das Verhalten des Roboters manchmal an ihre eigenen Vorlieben anpassten. Die TeilnehmerInnen hätten einen gesprächsfähigeren Roboter bevorzugt, was die Tatsache unterstreicht, dass sie offen für die Idee waren, mehr mit dem Roboter zu sprechen, möglicherweise auch über persönliche Themen. Ratschläge des Roboters wären nicht angenommen worden, wenn es sich um persönliche Angelegenheiten gehandelt hätte, aber die Teilnehmer*innen hätten stattdessen faktenbasierte Empfehlungen in Betracht gezogen, insbesondere wenn der Roboter ihnen mitgeteilt hätte, wie er zu diesen Schlussfolgerungen gekommen ist. Diese Studie zeigt, dass es wichtiger ist, auf die qualitative Interaktion zu achten als auf die Gestaltung einer Schnittstelle zum Schutz der Privatsphäre, auch wenn die Sorge vor böswilligen Dritten der entscheidende Faktor bei der Erwägung des Einsatzes eines sozialen Roboters im persönlichen Bereich wäre. Darüber hinaus zeigen die Erwartungen und Bedürfnisse der TeilnehmerInnen hinsichtlich verbesserter Gesprächsfähigkeiten, dass die Integration von sozialen Robotern als Gesprächspartner in privaten Kontexten Potenzial haben könnte.
de
Social robots have been employed for a long time, but there are still hurdles when it comes to trusting such devices and sharing intimate data with them. This is partly due to general privacy concerns, but can also depend on interactions with the robot and what people expect of it. Research shows that these factors heavily influence the way a robot will be used/interacted with in different contexts. In this diploma thesis, the question of people's trust in personal social robots was investigated using a robot-based diary in a domestic context. The stationary QBo robot was equipped with a speech-to-text API that recognized inputs in English and stored them locally in text files with that day's date. The first version of the diary implementation on the robot was reviewed by an interaction expert and changes were made according to his recommendations. These included offering multiple interaction methods with the robot, receiving alternating questions from the device and telling users how their data is being stored and analysed. Second, four people from different backgrounds were assigned to make daily entries for four to five days. Each participant was required to complete a series of interviews and the Godspeed questionnaire (a standardized user experience questionnaire for Human-Robot Interaction) before and after the study. The the diary entries were interpreted in conjunction with the self-reporting data from the interviews and questionnaires. The user evaluation revealed that participants included the robot in their personal context and did not have any concerns over privacy only due to the fact that they were familiar with the researcher and were aware of how their data was stored. They also exhibited different levels of emotional attachments to the robot, reflected in the ways they talked to and about it, as well as different ways of using it, sometimes adapting the robot's behaviour to their own preferences. The participants would have preferred a more conversationally capable robot, underlining the fact that they were open to the idea of talking to the device more, possibly also about personal matters. Advice from the robot would not have been taken if it was on personal matters, but the participants would have taken fact-based recommendations into consideration instead, especially if the robot had told them how it reached those conclusions. This study shows that it is more important to pay attention to a qualitative interaction than to the design of an interface for privacy, even if concerns about malicious third parties would be the decisive factor when considering using a social robot in the personal space. Furthermore, the expectations and needs of the participants regarding enhanced conversational skills show that the integration of social robots as conversation partners into private contexts might have potential.