<div class="csl-bib-body">
<div class="csl-entry">Pfliegler, D. (2025). <i>Bayesian Hyperparameter Optimization with ALASPO and Applications</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.124490</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.124490
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/216261
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Das ALASPO Framework wendet Large Neighbourhood Search (LNS) auf Answer Set Programming (ASP) an und hat sich bereits bei der Lösung verschiedener Optimierungsprobleme bewährt. Um das Verhalten der LNS-Schleife zu steuern, bietet ALASPO eine Vielzahl von Konfigurationsoptionen, die in Kombination mit allen möglichen Parametern des zugrundeliegenden ASP-Solvers zu einem riesigen Konfigurationsraum führen. Um diese Problematik zu adressieren, integrieren wir das Framework für Bayessche Optimierung SMAC3 in ALASPO, um ein automatisches Tuning von ALASPO Konfigurationen zu ermöglichen. Weiters gruppieren wir die bereitgestellten Instanzen anhand ihrer Eigenschaften, so dass wir mehrere optimale Konfigurationen erhalten, eine für jede Gruppe ähnlicher Instanzen. Das Ergebnis des Tunings kann dann für zukünftige ALASPO Durchläufe mit bisher unbekannten Instanzen verwendet werden, um automatisch eine geeignete Konfiguration basierend auf den Eigenschaften der jeweiligen Instanz auszuwählen und anzuwenden. Wir evaluieren unsere Methodik anhand von vier Benchmark-Problemen und zeigen, dass unser Tuning bei einigen dieser Probleme zu signifikanten Verbesserungen gegenüber der Standardkonfiguration führen kann, während wir ebenso ihre Grenzen aufzeigen, wenn keine ausreichenden Verbesserungsmöglichkeiten vorhanden sind.
de
dc.description.abstract
The ALASPO framework applies Large Neighbourhood Search (LNS) to Answer Set Programming (ASP), and has proven to be effective in tackling a number of different optimization problems. To control the behaviour of the LNS loop, ALASPO offers many configuration options, that, when combined with all of the possible solving and grounding parameters of the underlying ASP solver, result in a vast configuration space. To address this challenge, we integrate the SMAC3 framework for Bayesian Optimization into ALASPO to enable the automatic tuning of ALASPO configurations. Additionally, we cluster the provided instances based on their characteristics, allowing us to obtain multiple optimal configurations, one for each cluster of similar instances. After tuning, the result can be used for future ALASPO runs on unseen instances to automatically select and apply an appropriate configuration based on the characteristics of the given instance. We evaluate our methodology on a set of four benchmark problems and show that tuning can, for some of them, provide significant improvements over using the default configuration, while also demonstrating its limitations whenever there are insufficient opportunities for advancement.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Answer Set Programming
en
dc.subject
Meta-Heuristics
en
dc.subject
Hyperparameter Optimization
en
dc.subject
Large Neighbourhood Search
en
dc.title
Bayesian Hyperparameter Optimization with ALASPO and Applications
en
dc.title.alternative
Bayessche Hyperparameter Optimierung mit ALASPO und Anwendungen