<div class="csl-bib-body">
<div class="csl-entry">Vasiljevic, S. (2023). <i>Efficient and transparent model selection for serverless machine learning platforms</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.108480</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.108480
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/189843
-
dc.description.abstract
Serverless computing is a new paradigm for the deployment of applications in the cloud. Its extension to the field of Machine Learning (ML) has been a topic of research for the past few years—especially in the serverless edge computing community. Seamless integration of Machine Learning models for usage in serverless computing environments is still a challenge. Selecting approriate models for particular use cases is crucial for the performance of the whole system. In other domains, service selection and load balancing with quality-of-service consideration have been used to improve the performance of applications. However, current approaches to service selection and load balancing either do not take into account the specifics of Machine Learning models or the latency of edge nodes. So, developers of serverless applications currently have to manually select the best model for their use case or rely on subpar model selection approaches. Manually selecting the models limits the flexibility of the application and requires the developer to have knowledge about the underlying infrastructure. In this thesis, we propose a solution that automatically and transparently selects the best model for a given usecase provided in the underlying infrastructure of serverless platforms while taking into account Machine Learning and edge computing-specific concerns. Application developers then only have to provide the data and the desired performance traits (e.g., latency, accuracy,etc.) of the model. We evaluate our solution by comparing it to common baseline approaches for service selection and balancing. First, we conduct case studies to evaluate the performance of our solution in different use cases. Then, we compare the performance of our solution to the baseline approaches in a simulated environment. The results show that our solution outperforms the baseline approaches in most cases.
en
dc.description.abstract
Serverless Computing ist ein neues Paradigma für die Bereitstellung von Anwendungen in der Cloud. Seine Ausweitung auf den Bereich des Machine Learning (ML) ist seit einigen Jahren ein Forschungsthema—insbesondere in der Community des Serverless Edge-Computing. Die nahtlose Integration von Machine Learning-Modellen für den Einsatz in Serverless Computing-Umgebungen ist immer noch eine Herausforderung. Die Auswahl geeigneter Modelle für bestimmte Anwendungsfälle ist entscheidend für die Leistung des gesamten Systems. In anderen Bereichen wurden Dienstauswahl und Load Balancing unter Berücksichtigung des Quality-of-Service (Dienstqualität) eingesetzt, um die Leistung von Anwendungen zu verbessern. Die aktuellen Ansätze zur Dienstauswahl und zum Load Balancing berücksichtigen jedoch weder die Besonderheiten von Machine-Learning-Modellen noch die Latenzzeiten von Edge-Knoten. Daher müssen Entwickler:innen von Serverless Anwendungen derzeit das beste Modell für ihren Anwendungsfall manuell auswählen oder sich auf suboptimale Modellauswahlansätze verlassen. Die manuelle Auswahl der Modelle schränkt die Flexibilität der Anwendung ein und setzt voraus, dass Entwickler:innen über Kenntnisse der zugrunde liegenden Infrastruktur verfügen. In dieser Arbeit schlagen wir eine Lösung vor, die automatisch und transparent das beste Modell für einen bestimmten Anwendungsfall aus der zugrunde liegenden Infrastruktur von Serverless Plattformen auswählt und dabei Machine Learning und Edge Computing-spezifische Belange berücksichtigt. Die Anwendungsentwickler:innen müssen dann nur noch die Daten und die gewünschten Leistungsmerkmale (z. B. Latenz, Genauigkeit usw.) des Modells bereitstellen. Wir evaluieren unsere Lösung, indem wir sie mit gängigen Basisansätzen für die Auswahl und dem Load Balancing von Diensten vergleichen. Zunächst führen wir Fallstudien durch, um die Leistung unserer Lösung in verschiedenen Anwendungsfällen zu bewerten. Anschließend vergleichen wir die Leistung unserer Lösung in einer simulierten Umgebung mit den grundlegenden Ansätzen. Die Ergebnisse zeigen, dass unsere Lösung in den meisten Fällen besser abschneidet als die Basislösungen.
de
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Distributed Systems
en
dc.subject
Serverless Computing
en
dc.subject
Machine Learning Operations
en
dc.subject
Edge Computing
en
dc.subject
Serverless Edge Computing
en
dc.subject
Quality of Service
en
dc.subject
Automatic Model Selection
en
dc.subject
Performance Optimization
en
dc.subject
Cloud Service Selection
en
dc.subject
Model Deployment in Cloud
en
dc.title
Efficient and transparent model selection for serverless machine learning platforms
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.108480
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Silvio Vasiljevic
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC17012424
-
dc.description.numberOfPages
99
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.advisor.orcid
0000-0001-6872-8821
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.grantfulltext
open
-
item.fulltext
with Fulltext
-
item.cerifentitytype
Publications
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E194 - Institut für Information Systems Engineering