<div class="csl-bib-body">
<div class="csl-entry">Popescu-Vifor, V. (2025). <i>Resource Conflict Handling in Computing Continuum using Deep Reinforcement Learning</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.127561</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.127561
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/220245
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Diese Arbeit untersucht eingehend Mechanismen zur Konfliktbewältigung in der ressourcenorientierten Orchestrierung innerhalb von Computing-Continuum-Umgebungen und schlägt eine Lösung für den Umgang mit Konflikten zwischen Ressourcenverwaltungsagenten vor. Diese Agenten sind dafür verantwortlich, Ressourcenanfragen zu bearbeiten und Ressourcen verschiedenen Deployments zuzuweisen, um eine optimale Leistung zu erzielen. Bei widersprüchlichen Anfragen geraten die Agenten jedoch in einen Konfliktzustand, was zu einer Endlosschleife von Änderungen in der Ressourcenverteilung und zu einer Verschlechterung der Leistung der betroffenen Dienste führen kann. Ziel dieser Arbeit ist es, solche Konflikte mithilfe eines Deep-Reinforcement-Learning (DRL) Modells zu entschärfen. Durch die Integration von neuronalen Netzwerken und adaptiven Reinforcement-Learning-Techniken soll die Effizienz und Stabilität des Ressourcenmanagements in der Cloud bei Ressourcenkonflikten verbessert werden.Der Hauptbeitrag dieser Arbeit ist ein Framework, das als Blaupause für die Erstellung einer Simulationsumgebung dient, in der Ressourcenkonflikte unter Einhaltung der Kriterien des Computing Continuums gezielt ausgelöst werden können. Neben dem vorgeschlagenen Ressourcenmanagementsystem enthält dieses Framework auch ein DRL-System, das mit dem Ressourcenmanagementsystem kommuniziert, um die am besten geeigneten Optimierungsschritte für Dienste vorzuschlagen, die sich andernfalls in einem Konfliktzustand befinden würden. Der Reinforcement-Learning-Aspekt dieses Systems basiert auf der Kommunikation zwischen den Komponenten des vorgeschlagenen Frameworks. Da das System leistungs- und latenzbewusst ist, kann eine Watcher-Komponente dem DRL-Modell Rückmeldung geben, falls sich die Leistung der Dienste nach Anwendung der Entscheidung des neuronalen Netzwerks verschlechtert. Mit dieser Funktionalität kann das DRL-Modell sich auf Basis früherer Erfahrungen verbessern.Mehrere Komponententests und Benchmarks des implementierten Frameworks zeigen, dass es erfolgreich Konflikte zwischen widersprüchlichen Agenten erkennen und Ressourcenquoten auf gesamte Nodes anwenden kann – meist ohne dabei Leistungseinbußen zu verursachen. Im Fall von Performance-Degradierung korrigiert sich das DRL-System entsprechend, um Dienste mit unterschiedlichen Schwellenwerten und Ressourcenanforderungen differenziert zu behandeln.Die Ergebnisse der Arbeit zeigen, dass es möglich ist, ein Framework zu entwickeln, das Konflikte zwischen Ressourcenverwaltungsagenten in einer cloudbasierten Umgebung erzeugt und diese mithilfe eines DRL-Systems löst. Dies impliziert, dass sich Ressourcen auf einem Node in einer leistungsbewussten und selbstkorrigierenden Ressourcenverwaltungsumgebung um eine festgelegte Quote reduzieren lassen.
de
dc.description.abstract
This research takes an in-depth look at conflict-handling mechanisms in resource-oriented orchestration within computing continuum environments and proposes a solution to conflict-handling between resource management agents. These agents are tasked with handling resource requests and allocating resources to various deployments to achieve optimal performance. However, in case of contradicting requests, the agents enter a state of conflict, leading to an endless loop of changes in resource allocations and to a worse performance of the corresponding services. This thesis aims to mitigate such conflicts with the help of a deep reinforcement learning (DRL) model. By integrating neural network models and adaptive reinforcement learning techniques, the proposed solution seeks to enhance the efficiency and stability of resource management in the cloud in the event of conflicts in resource allocation. The main contribution of this research is a framework that serves as a blueprint to create a simulation environment that allows triggering resource conflicts on services running in the computing continuum's criteria. Included in this framework, aside from the suggested resource management system, is also a DRL system that communicates with the resource management system to suggest the best-fitting optimization steps for services that may otherwise enter a conflicting state or remain running in a state that would waste more resources than required. The reinforcement learning aspect of this system relies on the communication between the components in the proposed framework. Because this system is performance and latency-aware, a watcher component is able to send feedback to the DRL model, in case the performance of the services degrades upon applying the neural network's decision. With this functionality, the DRL model can improve itself based on previous experiences.Multiple component tests and benchmarks done on the implemented framework show that it can successfully detect conflicts between contradicting agents and apply resource quotas to whole nodes, mostly without triggering performance issues. In case performance degradation occurs, the DRL system corrects itself accordingly to treat services with different thresholds and resource requirements accordingly.The results of the research show that it is possible to create a framework to generate conflicts between resource management agents in a cloud-based system and have them solved by the DRL system. This implies being able to reduce the allocation of the resources of a node by a specified quota in a performance-aware and self-repairing resource management environment.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Ressourcenorientierte Orchestrierung
de
dc.subject
Leistungsbewusstes Ressourcenmanagement
de
dc.subject
Konfliktbehandlung in Ressourcenmanagement
de
dc.subject
Ressourcenmanagement-Framework
de
dc.subject
Simulation von Konflikten
de
dc.subject
Deep Reinforcement Learning (DRL)
de
dc.subject
Verteilte Systeme
de
dc.subject
Distributed Systems Group (DSG)
de
dc.subject
Edge Computing
de
dc.subject
Cloud Computing
de
dc.subject
Kubernetes
de
dc.subject
Autonome Agenten
de
dc.subject
Neuronale Netze
de
dc.subject
Cluster-Infrastruktur
de
dc.subject
Resource-Oriented Orchestration
en
dc.subject
Performance-Aware Resource Management
en
dc.subject
Conflict Handling
en
dc.subject
Resource Management Framework
en
dc.subject
Simulation of Conflicts
en
dc.subject
Deep Reinforcement Learning (DRL)
en
dc.subject
Distributed Systems
en
dc.subject
Distributed Systems Group (DSG)
en
dc.subject
Edge Computing
en
dc.subject
Cloud Computing
en
dc.subject
Kubernetes
en
dc.subject
Autonomous Agents
en
dc.subject
Neural Networks
en
dc.subject
Cluster Infrastructure
en
dc.title
Resource Conflict Handling in Computing Continuum using Deep Reinforcement Learning
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2025.127561
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Vlad Popescu-Vifor
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Murturi, Ilir
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering