Herbst, S. (2023). Beyond 0’s and 1’s: Exploring the impact of noise, data encoding, and hyperparameter optimization in quantum machine learning [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.111504
Da sich die Entwicklung klassischer (von-Neumann) Hardware verlangsamt und moderne Machine Learning (ML) Modelle zunehmend mehr Rechenleistung und Speicherplatz benötigen, versuchen Forscherinnen und Forscher neue Wege zu finden, aktuelle und zukünftige Anforderungen zu bewältigen. Neue Post-Moore Architekturen werden stetig weiterentwickelt, und, da sie eine vielversprechende Alternative, unter anderem aufgrund theoretischer algorithmischer Speedups, darstellen, hat die Bedeutung von Quantencomputern zugenommen. In diesem Rahmen versucht der Bereich des Quantum Machine Learning (QML), Quantenphänomene zu nutzen, um schnellere Algorithmen und eine bessere Expressivität zu erzielen. Variational Quantum Algorithms (VQAs) haben aufgrund ihrer Eignung für aktuelle Quantenhardware Aufmerksamkeit erregt. VQAs besitzen jedoch zahlreiche Parameter, einschließlich Datentransformation, Architektur und Training, die die Modelle stark beeinflussen können. Zudem sind aktuelle Quantencomputer anfällig für Fehler, was das Training erschweren und die Leistung der Modelle verringern kann. In dieser Arbeit wollen wir verschiedene Konfigurationen vergleichen und ihre Performance in Gegenwart von ebendiesen Fehlern bewerten, um die effektivsten Ansätze zu ermitteln. Unsere Experimente zeigen, dass die Wahl des Optimierers und der Datentransformation die Leistung der Modelle erheblich beeinflussen kann. Die Datentransformation allein führt jedoch nicht zu einem leistungsfähigen Modell, sondern muss mit einem guten Ansatz kombiniert werden, um Vorteile gegenüber anderen Konfigurationen zu erzielen. Darüber hinaus verringern Fehler im Quantencomputer die Leistung der Modelle, und beeinflussen insbesondere die besten Modelle.
de
As the development of classical (von-Neumann) hardware is slowing down and state-of-the-art machine learning (ML) models require an ever-increasing amount of computational and storage resources, the research community is tasked with finding ways to cope with current and future demands. New Post-Moore architectures are therefore gaining importance, and, being a promising alternative due to, among others, theoretical algorithmic speed-ups, the significance of quantum computing has been steadily growing. Within this framework, quantum machine learning (QML) seeks to use quantum phenomena to achieve speed-ups and enhanced expressive power. Among the QML approaches, variational quantum algorithms (VQAs) have attracted attention for their suitability for near-term quantum hardware. However, VQAs require the tuning of various parameters, including data transformation, model architecture, and training, which can significantly impact the models. Additionally, current quantum hardware is subject to noise, which can make training more difficult and reduce the performance of the models. In this study, our objective is to compare different parameter configurations and assess their performance in the presence of noise, with the aim of identifying the most effective settings. Our experiments show that the choice of optimizer and feature map can significantly impact the performance of the models. The feature map alone does not lead to a well-performing model, rather it needs to be combined with a good ansatz, to lead to advantages over other configurations. Furthermore, we find that noise decreases the performance, impacting the best-performing models the most.