<div class="csl-bib-body">
<div class="csl-entry">Herbst, S. (2023). <i>Beyond 0’s and 1’s: Exploring the impact of noise, data encoding, and hyperparameter optimization in quantum machine learning</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.111504</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.111504
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/189283
-
dc.description.abstract
Da sich die Entwicklung klassischer (von-Neumann) Hardware verlangsamt und moderne Machine Learning (ML) Modelle zunehmend mehr Rechenleistung und Speicherplatz benötigen, versuchen Forscherinnen und Forscher neue Wege zu finden, aktuelle und zukünftige Anforderungen zu bewältigen. Neue Post-Moore Architekturen werden stetig weiterentwickelt, und, da sie eine vielversprechende Alternative, unter anderem aufgrund theoretischer algorithmischer Speedups, darstellen, hat die Bedeutung von Quantencomputern zugenommen. In diesem Rahmen versucht der Bereich des Quantum Machine Learning (QML), Quantenphänomene zu nutzen, um schnellere Algorithmen und eine bessere Expressivität zu erzielen. Variational Quantum Algorithms (VQAs) haben aufgrund ihrer Eignung für aktuelle Quantenhardware Aufmerksamkeit erregt. VQAs besitzen jedoch zahlreiche Parameter, einschließlich Datentransformation, Architektur und Training, die die Modelle stark beeinflussen können. Zudem sind aktuelle Quantencomputer anfällig für Fehler, was das Training erschweren und die Leistung der Modelle verringern kann. In dieser Arbeit wollen wir verschiedene Konfigurationen vergleichen und ihre Performance in Gegenwart von ebendiesen Fehlern bewerten, um die effektivsten Ansätze zu ermitteln. Unsere Experimente zeigen, dass die Wahl des Optimierers und der Datentransformation die Leistung der Modelle erheblich beeinflussen kann. Die Datentransformation allein führt jedoch nicht zu einem leistungsfähigen Modell, sondern muss mit einem guten Ansatz kombiniert werden, um Vorteile gegenüber anderen Konfigurationen zu erzielen. Darüber hinaus verringern Fehler im Quantencomputer die Leistung der Modelle, und beeinflussen insbesondere die besten Modelle.
de
dc.description.abstract
As the development of classical (von-Neumann) hardware is slowing down and state-of-the-art machine learning (ML) models require an ever-increasing amount of computational and storage resources, the research community is tasked with finding ways to cope with current and future demands. New Post-Moore architectures are therefore gaining importance, and, being a promising alternative due to, among others, theoretical algorithmic speed-ups, the significance of quantum computing has been steadily growing. Within this framework, quantum machine learning (QML) seeks to use quantum phenomena to achieve speed-ups and enhanced expressive power. Among the QML approaches, variational quantum algorithms (VQAs) have attracted attention for their suitability for near-term quantum hardware. However, VQAs require the tuning of various parameters, including data transformation, model architecture, and training, which can significantly impact the models. Additionally, current quantum hardware is subject to noise, which can make training more difficult and reduce the performance of the models. In this study, our objective is to compare different parameter configurations and assess their performance in the presence of noise, with the aim of identifying the most effective settings. Our experiments show that the choice of optimizer and feature map can significantly impact the performance of the models. The feature map alone does not lead to a well-performing model, rather it needs to be combined with a good ansatz, to lead to advantages over other configurations. Furthermore, we find that noise decreases the performance, impacting the best-performing models the most.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Machine Learning
en
dc.subject
Quantum Computing
en
dc.subject
Quantum Machine Learning
en
dc.subject
Benchmarking
en
dc.subject
Hyperparameter Optimization
en
dc.subject
Benchmarking
en
dc.title
Beyond 0’s and 1’s: Exploring the impact of noise, data encoding, and hyperparameter optimization in quantum machine learning
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.111504
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Sabrina Herbst
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC16977783
-
dc.description.numberOfPages
141
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.advisor.orcid
0009-0007-0661-5937
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.grantfulltext
open
-
item.fulltext
with Fulltext
-
item.cerifentitytype
Publications
-
item.mimetype
application/pdf
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E194-04 - Forschungsbereich Data Science
-
crisitem.author.orcid
0009-0009-1858-2700
-
crisitem.author.parentorg
E194 - Institut für Information Systems Engineering