<div class="csl-bib-body">
<div class="csl-entry">Kietreiber, T. (2023). <i>Combining maximum entropy reinforcement learning with distributional Q-value approximation methods : At the example of autonomous driving</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.111501</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.111501
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/177687
-
dc.description.abstract
Reinforcement Learning hat in den letzten Jahren sehr an Popularität gewonnen, da damit komplexe Probleme nur mithilfe eines Belohnungssignals gelöst werden können, besonders nachdem es auf moderne Deep Learning Architekturen ausgedehnt wurde. Es werden laufend neue Erweiterungen entwickelt, darunter die Approximation der q-Werte in Verteilung und Maximum Entropy Reinforcement Learning. Beide scheinen in Umgebungen des autonomen Fahrens besonders gut zu funktionieren.In dieser Arbeit werden diese beiden Methoden vorgestellt, indem zunächst ein kurzer Überblick über bestehende Literatur gegeben und danach die Kombination der beiden Methoden präsentiert wird. Schlussendlich werden wir experimentell im CARLA Simulator zeigen, dass dies nicht nur funktioniert, sondern bei Problemen des autonomen Fahrens auch zu besseren Ergebnissen führt.
de
dc.description.abstract
Reinforcement Learning has gained a lot of popularity in recent years due to its capability to learn complex tasks from just a reward signal, especially after the extension to modern Deep Learning architectures. A number of improvements to the concept were introduced, two of them being distributional q-value approximation and Maximum Entropy Reinforcement Learning. In environments dealing with autonomous driving problems, both seem to have a benefit on performance. In this thesis, these two methods are introduced by giving a short overview of previous work and the idea behind their combination is presented. Lastly, we will show through experiments in the CARLA simulator that this combination not only works but is generally superior in autonomous driving tasks.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Reinforcement learning
en
dc.subject
distributional reinforcement learning
en
dc.subject
maximum entropy methods
en
dc.subject
autonomous driving
en
dc.title
Combining maximum entropy reinforcement learning with distributional Q-value approximation methods : At the example of autonomous driving
en
dc.title.alternative
Kombination von Maximum Entropy Reinforcement Learning mit Distributional Q-Value Approximation : Am Beispiel autonomes fahren
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.111501
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Tobias Kietreiber
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
tuw.publication.orgunit
E101 - Institut für Analysis und Scientific Computing
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC16870719
-
dc.description.numberOfPages
81
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.grantfulltext
open
-
item.fulltext
with Fulltext
-
item.cerifentitytype
Publications
-
item.mimetype
application/pdf
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E104-06 - Forschungsbereich Konvexe und Diskrete Geometrie
-
crisitem.author.parentorg
E104 - Institut für Diskrete Mathematik und Geometrie