<div class="csl-bib-body">
<div class="csl-entry">Rettig, P. (2025). <i>Adaptive Federated Zeroth-Order Fine-Tuning of Large Language Models on Resource-Constrained Devices</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.129322</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.129322
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/224610
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Die föderierte Feinabstimmung mittels Optimierungsmethoden nullter Ordnung (ZO) bietet einen datenschutzfreundlichen und speichereffizienten Ansatz zur Anpassung großer Sprachmodelle (LLMs) auf ressourcenbeschränkten Geräten. Allerdings konvergieren ZO-Methoden deutlich langsamer als Backpropagation-basierte Methoden. Während bereits mehrere clientseitige Anpassungen entwickelt wurden, um diese Einschränkung zu mildern, ist das Potenzial adaptiver serverseitiger Optimierer bislang kaum untersucht. In dieser Arbeit analysieren wir den Einfluss adaptiver serverseitiger Optimierer auf die ZO-basierte föderierte Feinabstimmung von LLMs und untersuchen, wie sich ihr Nutzen mit zunehmender Modellgröße verändert. Dazu evaluieren wir ZO-Varianten von FedAdam und FedAdamW auf einer Reihe unterschiedlicher Aufgaben der natürlichen Sprachverarbeitung (NLP), sowie über zwei Modellfamilien hinweg und vergleichen sie mit einer auf FedAvg basierten Aggregationsstrategie. Unsere Experimente zeigen, dass adaptive serverseitige Optimierer die Anzahl der für die Konvergenz benötigten Runden bei den meisten Aufgaben um etwa 50% verringern können, während die Modellgüte (F1-score, Accuracy, ROUGE-L) innerhalb von 1-2% der nicht adaptiven Baseline bleibt.
de
dc.description.abstract
Federated zeroth-order (ZO) fine-tuning provides a privacy-enhancing and memory-efficient approach for adapting large language models (LLMs) on resource-constrained devices. However, ZO methods converge more slowly than backpropagation-based methods. While several client-side adaptations have been proposed to address this limitation, the potential of adaptive server-side optimizers remains unexplored. In this work, we study the effectiveness of adaptive server-side optimizers in federated ZO fine-tuning of LLMs and examine how their impact varies with model size. We thoroughly test ZO-based variants of FedAdam and FedAdamW in a series of experiments across diverse natural language processing (NLP) tasks and two model families and compare them against a FedAvg based aggregation strategy. In our evaluations, we show that adaptive server-side optimizers can reduce the number of rounds to convergence by roughly 50% on the majority of tasks while maintaining model utility (F1-score, accuracy, ROUGE-L) within 1-2% of the non-adaptive baseline.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Federated Learning
en
dc.subject
Large Language Model
en
dc.subject
Edge Computing
en
dc.subject
Zeroth-Order Optimization
en
dc.subject
Adaptive Optimization
en
dc.subject
Communication Efficiency
en
dc.title
Adaptive Federated Zeroth-Order Fine-Tuning of Large Language Models on Resource-Constrained Devices
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2025.129322
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Philipp Rettig
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Tundo, Alessandro
-
tuw.publication.orgunit
E191 - Institut für Computer Engineering
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC17748996
-
dc.description.numberOfPages
91
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.assistant.staffStatus
staff
-
tuw.advisor.orcid
0000-0001-7424-0208
-
tuw.assistant.orcid
0000-0001-8840-8948
-
item.cerifentitytype
Publications
-
item.openaccessfulltext
Open Access
-
item.languageiso639-1
en
-
item.fulltext
with Fulltext
-
item.openairetype
master thesis
-
item.grantfulltext
open
-
item.mimetype
application/pdf
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
crisitem.author.dept
E194 - Institut für Information Systems Engineering