<div class="csl-bib-body">
<div class="csl-entry">Fürst, P. (2023). <i>Evaluating two-stage gaze estimation using eye image segmentation</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.101780</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.101780
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/188367
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Eye-Tracking und Gaze-Estimation werden in vielen Forschungsbereichen eingesetzt, darunter Gesundheitswesen, Mensch-Computer-Interaktion, Psychologie und Marketing. Moderne Ansätze für Eye-Tracking basieren häufig auf Machine-Learning, entweder durch den Einsatz von Deep-Learning-Methoden oder durch die Implementierung mehrerer Schritte mit expliziter Merkmalsextraktion. Diese Arbeit stellt einen Vergleich einer End-to-End Deep-Learning-Methode mit einem zweistufigen neuronalen Netzwerk mit Augenbildsegmentierung an. Wir evaluieren drei verschiedene Netzwerkarchitekturen für die Segmentierung der Augenbilder in Kombination mit zwei verschiedenen Architekturen für die Gaze-Estimation und untersuchen individuelle Ergebnisse: (i) den Einfluss verschiedener Segmentierungnetzwerke auf die Gaze-Estimation, (ii) den Einfluss verschieden großer (Anzahl der Parameter) Gaze-Estimation-Modellen auf den Fehler von Gaze-Estimation unter Verwendung expliziter Merkmalsextraktion im Vergleich zu einem End-to-End Deep-Learning-Ansatz und (iii) die Sichtbarkeit der Pupille und ihren Einfluss auf die Merkmalsextraktion und auf die Gaze-Estimation.
de
dc.description.abstract
Eye-tracking and gaze estimation are used in research areas like healthcare, human-computer interaction, psychology, and marketing. Modern approaches for eye-tracking tend to use machine-learning, either by using end-to-end deep learning approaches or by implementing multiple steps with explicit feature extraction. This thesis addresses the comparison of an end-to-end pipeline with a two-stage convolutional neuronal network approach with eye image segmentation as an explicit feature extraction step. We evaluate three different network architectures for eye image segmentation in combination with two different architectures for gaze estimation and investigate individual results for the following: (i) the influence different image segmentation networks have on gaze estimation, (ii) the influence different sizes (number of parameters) of gaze estimation models have on gaze estimation using explicit feature extraction compared to an end-to-end deep-learning approach and (iii) the visibility of the pupil and its influence on feature extraction and on gaze estimation.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Pupillen Segmentierung
de
dc.subject
eye-tracking
de
dc.subject
semantische Segmentierung
de
dc.subject
gaze-estimation
de
dc.subject
deep learning
de
dc.subject
pupil segmentation
en
dc.subject
eye-tracking
en
dc.subject
semantic segmentation
en
dc.subject
gaze-estimation
en
dc.subject
deep learning
en
dc.title
Evaluating two-stage gaze estimation using eye image segmentation
en
dc.title.alternative
Evaluierung einer Zweistufen-Gaze-Estimation mit Bildsegmentierungs-Netzwerken
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.101780
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Patrick Fürst
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
tuw.publication.orgunit
E193 - Institut für Visual Computing and Human-Centered Technology