Lackner, F. (2023). Score-based explanations of classification outcomes and answers to database queries [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.105800
Maschinelles Lernen hat viele Aspekte moderner digitalisierter Unternehmen revolutioniert, aber die mangelnde Transparenz und Interpretierbarkeit dieser Modelle stellt eine Herausforderung dar. Wenn Entscheidungen auf der Grundlage von Modellen des maschinellen Lernens getroffen werden, sind Erklärungen wichtig, um die Gründe für die Ergebnisse zu verstehen. Diese Arbeit konzentriert sich auf Maßzahlen, die den Beitrag jedes Merkmals einer Entität zu ihrem Klassifikationsergebnis oder jedes Tupels in einer Datenbankreparatur messen, und untersucht insbesondere lokale Erklärungen, die Änderungen identifizieren, die erforderlich sind, um ein gewünschtes Ergebnis zu erzielen. Ziel ist es, die Undurchsichtigkeit von maschinell erlernten Modellen und Datenbankreparaturen zu beheben, indem Erklärungen auf der Grundlage genau definierter Werte erstellt werden. Der SHAP-Score, der sich von den Shapley-Werten in der Spieltheorie ableitet, ist ein gut erforschter Score, der den Einfluss von Merkmalen auf das Ergebnis einer gegebenen Entität quantifiziert. Seine Anwendbarkeit auf bool'sche Schaltkreise und seine Berechnungskomplexität erfordern jedoch weitere Untersuchungen. Ein weiterer Score, der RESP-Score, führt das Konzept der Resposibility und der Kontingenzmengen ein, um die Verantwortung einzelner Merkmale zu bewerten. Die Komplexität dieses Scores ist in der Regel schwieriger als die des SHAP-Scores, jedoch deuten empirische Belege darauf hin, dass die Berechnung deutlich weniger Zeit in Anspruch nehmen kann. Um dies jedoch zu belegen, fehlen eine Implementierung und ein experimenteller Vergleich. Zudem konzentrieren sich diese Scores ausschließlich auf einzelne Merkmale, während der kombinierte Einfluss mehrerer Merkmale auf das Ergebnis ebenfalls sehr aussagekräftig ist. Ziel dieser Arbeit ist es, die Definitionen der erklärenden Scores zu vereinheitlichen und ihre Berechnungskomplexität zu untersuchen. Darüber hinaus werden die Scores für Gruppen von Merkmalen erweitert. Um diese Ziele zu erreichen, wurde ein Python-Framework zur einfachen und intuitiven Berechnung der erklärenden Scores entwickelt. Die Beziehungen zwischen den Scores wurden analysiert und mögliche Erweiterungen und zukünftige Forschungsrichtungen diskutiert.
de
Machine learning has revolutionized numerous aspects of modern digitalized businesses, but the lack of transparency and interpretability of these models poses challenges. When decisions are made based on machine learning models, explanations are crucial to understand the reasoning behind the outcomes. This study focuses on numerical scores that measure the contribution of each feature of an entity for its classification outcome or of each tuple in a database-repair, specifically exploring local explanations that identify changes required to achieve a desired outcome. The goal is to address the opacity of machine-learned models and database-repairs, by providing explanations based on well-defined scores. The SHAP score, derived from Shapley values in game theory, is an extensively studied score that quantifies the influence of features on a specific entity's outcome. However, its applicability to boolean circuits and its computational complexity require further investigation. Another score, the RESP score, introduces the concept of responsibility and contingency sets to assess the responsibility of individual features. The complexity of this score is typically greater than that of the SHAP score, but empirical evidence suggests that the computation time can be significantly reduced. However, in order to demonstrate this, an implementation and an experimental comparison are currently absent. Moreover, it should be noted that these scores primarily emphasize individual features, whereas the combined impact of multiple features on the outcome is also highly significant. This thesis aims to unify the definitions of explanation scores and investigate their computational complexity. Furthermore, the thesis extends the scores to handle sets of features. To achieve these goals, a Python framework was developed to compute the explanation scores in a simple and intuitive manner. Relationships between the scores were analyzed, and potential extensions and future research directions were discussed.