Jahoda, M. (2013). Eine berührungslose Benutzerschnittstelle in der Gebäudeautomation und Analyse ihrer Benutzbarkeit [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2013.22260
Die Mehrheit der Benutzerschnittstellen im Bereich der Gebäudeautomation basiert auf handbetätigten Steuerelementen. Körperlich eingeschränkten Personen hingegen fehlt oft die Fähigkeit bzw. die Kraft, Schalter oder Knöpfe selbstständig zu betätigen. Eine neue Form der Interaktion mit Systemen der Gebäudeautomation wird benötigt, um Personen mit körperlichen Einschränkungen in ihrem Alltag zu unterstützen. In dieser Arbeit wurde eine berührungslose Benutzerschnittstelle erstellt, die es Benutzern mit einem Mangel an physischer Kraft und mangelnder Bewegungsfreiheit erlaubt, mit klassischen Kontrollelementen der Gebäudeautomation zu interagieren. Die Benutzerschnittstelle kann berührungsfrei mit Kopfgesten bedient werden. Der Benutzer kann mit definierten Gesten, die mit einer Standard-Webcam erfasst werden, mit dem System interagieren. Weiters soll es jedem Benutzer ermöglicht werden, individuelle Befehlsgesten zu definieren, um unabhängig von der Art der Beeinträchtigung, die bestmögliche Benutzbarkeit sicherzustellen. Die Umsetzung der Gestenerkennung basiert auf den empfangenen Daten der Facetracking-Engine faceAPI von SeeingMachines. Die Bewegungen des Kopfs werden erfasst und mit den im System gespeicherten Befehlsgesten verglichen. Wurde eine Geste eindeutig identifiziert, wird der korrespondierende Befehl vom System ausgeführt. Es wurde weiters ein Aufzugssimulator implementiert, mit dem das Verhalten eines echten Aufzugs simuliert werden soll. Anhand des Aufzugsimulators wurde das System mit Hilfe von Testpersonen, unter anderem mit körperlich beeinträchtigten Benutzern, bezüglich ihrer Benutzbarkeit evaluiert. Im Rahmen des Benutzertests hat sich die Praxistauglichkeit dieser Benutzerschnittstelle erwiesen. Durchschnittlich wurden 95% aller durchgeführten Gesten korrekt von der gestenbasierten Benutzerschnittstelle erfasst.
de
The majority of user interfaces in the field of building automation is based on manual interaction. Physically challenged people often lack the ability or the strength to interact with switches or buttons by their own. A new form if interaction with building automation systems is needed to support physically challenged people in their daily routine. In this thesis a non-haptic user interface was created that allows users with a lack of physical strength or an insufficient freedom of movement to interact with typical user interfaces in the field of building automation. The user interface created in this work can be operated by head movements of a user. Users can interact with the system by defined head gestures that are recorded by a standard-webcam. To ensure a better usability of the system, users also have the possibility to define individual head gestures. The recognition and tracking of the users head was implemented with the facetracking engine faceAPI by SeeingMachines. The movements of the head are apprehended and compared with the defined gestures. Is a gesture identified, the corresponding command is executed by the system. To simulate the behavior of an elevator, a visual elevator similar was implemented. With the support of test persons, some of them physically challenged, the user interface was evaluated regarding the usability of the system. In the course of the tests the practical utility of the system was proved. On average, 95% of the executed gestures were recognized by the gesture based user interface.
en
Additional information:
Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers Zsfassung in engl. Sprache