<div class="csl-bib-body">
<div class="csl-entry">Resch, F. (2023). <i>Autonomous racing with attention-based neural networks</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.101602</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.101602
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/190336
-
dc.description.abstract
In dieser Arbeit untersuchen wir den Einfluss von menschlicher Aufmerksamkeit auf künstliche neuronale Netze im Kontext des autonomen Rennfahrens. Zu diesem Zweck trainieren wir eine Nachahmung der menschlichen visuellen Aufmerksamkeit und integrieren sie in einen modifizierten Steuerungsansatz für autonome Rennen. Wir lernen eine Imitation der menschlichen Aufmerksamkeit aus Aufzeichnungen menschlicher Aufmerksamkeit mit einem supervised learning Ansatz für Heatmap-Regression. Nachdem wir die Nachahmung an realen Daten und in Simulationen evaluiert haben, verwenden wir sie, um Teilbilder der Eingabe für unseren Rennregler auszuwählen. Ziel dieser Teilbilder ist es, die Eingabegröße des Netzwerks zu reduzieren. Der in dieser Arbeit verwendete Renncontroller verwendet die Decision-Transformer-Architektur, die auf Generative Pre-Trained Transformern basiert, um High-Level-Aktionen zu generieren. Anschließend verwendet er Pure Pursuit, einen Standard-Pfadverfolgungsalgorithmus, um diese High-Level-Entscheidungen auszuführen.Decision-Transformer verwenden eine Variante von Offline-Reinforcement Learning für das Training, welche große Datenmengen erfordert, die wir mit Simulationen erzeugen. Wir vergleichen zwei Auswahlverfahren für Teilbilder und einen Vollbildansatz hinsichtlich ihrer Rundenzeiten, ihres Fahrverhaltens und der Varianz der Aktionswerte. In diesem Vergleich schneidet die auf menschlicher Aufmerksamkeit basierende Auswahlmethode besser ab als die anderen Ansätze, da sie schnellere Rundenzeiten und eine geringere Varianz der Ausgabewerte erzielt, obwohl das Fahrverhalten manchmal unerwünscht ist. Diese Arbeit hat gezeigt, dass es möglich ist, ein künstliches neuronales Netzwerk so zu trainieren, dass es die menschliche Aufmerksamkeit imitiert. Außerdem haben wir gezeigt, dass künstliche neuronale Netze, die menschliche Aufmerksamkeit erhalten, ihre Leistung verbessern und stabilere Vorhersagen machen können. Diese Arbeit hat auch einige der Mängel des derzeitigen Ansatzes aufgezeigt und neue Wege für die wissenschaftliche Erforschung eröffnet.
de
dc.description.abstract
In this thesis, we explore the influence of human attention on Artificial Neural Networks in the context of autonomous racing. To do so, we train an imitation of human visual attention and integrate it into a modified control approach for autonomous racing. We learn a human attention imitation from recorded human attention data with a supervised learning approach for heatmap regression. After evaluating the imitation on real-world data and in simulation, we use it to select sub-images of the input to our racing controller to reduce the input size. The racing controller used in this thesis uses the Decision Transformer architecture based on Generative Pre-Trained transformers to generate high-level actions. It then uses Pure Pursuit, a standard path-tracking algorithm for executing those high-level decisions. Decision Transformers use a variant of Offline Reinforcement Learning for training, requiring large amounts of data, which we generate with simulation. We compare two selection policies for input sub-images and a full-image approach regarding their lap times, driving behavior, and variance of action outputs. In this comparison, the human attention-based selection policy outperforms the other approaches, achieving faster lap times and less variance in output values, even though the driving behavior is sometimes undesirable. In this thesis, we showed that training an Artificial Neural Network to imitate human attention is possible. Furthermore, we showed that providing Artificial Neural Networks with human attention can improve their performance and lead to more stable predictions. This thesis also highlighted some of the shortcomings of the current approach and opened up new directions for scientific exploration.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Aufmerksamkeit
de
dc.subject
Neuronale Netzwerke
de
dc.subject
Machine Learning
de
dc.subject
Autonomes Rennfahren
de
dc.subject
Reinforcement Learning
de
dc.subject
Transformers
de
dc.subject
Autonomes Fahren
de
dc.subject
Human Attention
en
dc.subject
Artificial Neural Networks
en
dc.subject
Machine Learning
en
dc.subject
Autonomous Racing
en
dc.subject
Reinforcement Learning
en
dc.subject
Transformers
en
dc.subject
Autonomous Driving
en
dc.title
Autonomous racing with attention-based neural networks
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.101602
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Felix Resch
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Berducci, Luigi
-
tuw.publication.orgunit
E191 - Institut für Computer Engineering
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC17027175
-
dc.description.numberOfPages
89
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.assistant.staffStatus
staff
-
tuw.advisor.orcid
0000-0001-5715-2142
-
tuw.assistant.orcid
0000-0002-3497-6007
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.grantfulltext
open
-
item.fulltext
with Fulltext
-
item.cerifentitytype
Publications
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E191-01 - Forschungsbereich Cyber-Physical Systems