In den letzten Jahren hat das Interesse an selbstlernenden Methoden deutlich zugenommen. Ein treibender Faktor war die wachsende Rechenleistung, die es Maschinen erst ermöglichte, solche rechenintensiven Verfahren durchzuführen. Heutzutage wird maschinelles Lernen in vielen Bereichen, wie zum Beispiel für sämtliche Vorhersagen, Mustererkennungen und Anomalieerkennungen, eingesetzt. In dieser Arbeit soll ein selbstlernendes Embedded System (SLES) das Lösen von Aufgaben völlig selbstständig und mit möglichst wenig Vorwissen über sich selbst, die Aufgabe und die Umgebung, erlernen. Der Lernprozess wird von einem Belohnungssignal gesteuert, das die ausgeführten Aktionen bestraft oder belohnt. Unser Hauptaugenmerk liegt auf der Aufgabe, so lange wie möglich zu überleben. Zu diesem Zweck müssen Ladestationen geortet werden. Diese müssen anschließend korrekt angefahren werden, um ein erfolgreiches Aufladen der Batterie zu ermöglichen. Um das selbstständige Erlernen von Aufgaben zu ermöglichen, werden verschiedene Methoden aus dem Bereich des Reinforcement Learning (RL), insbesondere aus dem Q-learning, eingesetzt. Darüber hinaus werden mehrere Wiedergabespeicher - und Erkundungsmethoden implementiert und modifiziert. Weiteres werden völlig neue Ansätze und Ideen, mit dem Ziel bessere Ergebnisse zu erreichen, realisiert. Mittels Evaluierungen werden die am besten geeignetsten Methoden für unser Problem gefunden. Schlussendlich werden diese in einer Simulationsumgebung getestet, um sicherzustellen, dass sie ohne erhebliche Änderungen auf die endgültige Hardware angewendet werden können. Mit Hilfe von Auswertungen und Simulationen zeigt diese Arbeit den gesamten Prozess von der Auswahl der Methoden bis hin zur Bestimmung, welche Prozessparameter für das endgültige SLES verwendet werden sollen. In Zukunft ist geplant, die ausgewählten Methoden zu verbessern, den Speicherbedarf zu reduzieren und neben dem Überleben andere Aufgaben zu bewältigen. Außerdem sollte das Simulationsmodell verbessert werden, um dem realen Modell noch näher zu sein.
de
In recent years, interest in self-learning methods has increased significantly. A driving factor was the growing computing power, which first enabled machines to carry out such computationally intensive methods. Nowadays, machine learning is used in many areas, such as prediction, pattern recognition, and anomaly detection. In this thesis, a self learning embedded system (SLES) is supposed to learn solving tasks completely independently and with as little prior knowledge about itself, the task and the environment, as possible. The learning process is guided by a reward signal, which punishes or rewards the performed actions. Our main focus is on the task of surviving as long as possible. For this purpose charging stations must be located. Subsequently, they must be approached properly to allow a successful charging of the battery. In order to enable the independent learning of tasks, various methods from the field of Reinforcement Learning (RL), in particular from Q-learning, are used. In ddition, several replay memories and exploration methods are implemented and modified. Further, completely new approaches and ideas are realized with the aim of achieving better results. Evaluations help to find the most appropriate methods for our problem. Finally, they are tested in a simulation environment to ensure that they can be applied to the final hardware without significant changes. With the help of evaluations and simulations, this work shows the entire process, from the selection of the methods to the determination of which process parameters to use for the final SLES. In the future, it is planned to improve the selected methods, to reduce the memory requirements and to handle other tasks besides survival. In addition, the simulation model should be improved to be even closer to the real model.