Manchado Rubio, A. (2022). XAI for human-centred production: a practical application by the example of HAR [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2022.95280
Aufgrund der steigenden Komplexität moderner Produkte und Fertigungsprozesse kommen immer kompliziertere Technologien, wie maschinelles Lernen, zur Verarbeitung der Daten zum Einsatz. Die Komplexität der verwendeten Modelle erschwert allerdings das Entdecken möglicher Probleme bei der Verarbeitung, da diese Modelle oft als eine “Black Box” behandelt werden. Hinzu kommt, dass die Bedeutung der Themen wie der Schutz der Privatsphäre und die Cybersicherheit in den letzten Jahren zugenommen hat. Die Notwendigkeit des Datenschutzes wird auch von Rechtsvorschriften, wie beispielsweise die Europäische Datenschutz-Grundverordnung, betont. In diesem Zusammenhang ist die Nachfrage nach Transparenz und Interpretierbarkeit für Algorithmen des maschinellen Lernens gestiegen. Diese Arbeit beschäftigt sich mit der Interpretierbarkeit von Modellen des maschinellen Lernens und hebt die Bedeutung der Interpretierbarkeit in einer menschenzentrierten Produktionsumgebung hervor. Hierzu wurde die Literatur über die derzeit verwendeten Methoden für HAR (Human Activity Recognition - Erkennung menschlicher Aktivitäten) analysiert. Weiters wurden verschiedene Ansätze zur Verbesserung der Erklärbarkeit und der Interpretierbarkeit von häufig verwendeten Modellen aufgezeigt. Schließlich wird in dieser Arbeit eine reproduzierbare Methodik vorgeschlagen, um die Erkennung menschlicher Aktivitäten zu verbessern.Die vorgeschlagene Methodik gliedert sich in zwei Teile: Der erste Schritt umfasst die Datenvorbereitung und die Verwendung der Explikationsalgorithmen LIME und Submodular-Pick-LIME, um die Interpretierbarkeit der Modelle zu erhöhen. Anhand der Interpretation der Modelle wird im nächsten Schritt die Anzahl der dem Modell verabreichten Daten reduziert. Die Ergebnisse zeigen, dass es einen Kompromiss zwischen der Genauigkeit der Erkennung menschlicher Aktivitäten und der Privatsphäre der Benutzerdaten gibt. Bei der Anwendung der richtigen Techniken bleibt die Erkennungsgenauigkeit jedoch hoch, selbst wenn 55% der Daten entfernt werden. Durch diese Methodik werden Modelle weniger invasiv, was sich in einer Stärkung der Privatsphäre der NutzerInnen widerspiegelt.
de
Data processing technologies such as machine learning have emerged and become increasingly complicated as the complexity of modern products and manufacturing processes has increased. Model complexity precludes finding possible problems since they are often treated as black boxes. This was also coupled with the recent growth in concern about privacy and cybersecurity, as well as the influence of legislation emphasising the necessity of data protection, such as the European GDPR. In this context, the demand for transparency and interpretability for machine learning algorithms has risen.This thesis argues for the importance of interpretability in machine learning models, especially in a human-centred production environment. Furthermore, methodologies currently in use for human activity recognition (HAR) were analysed in the literature. Different approaches for improving the explainability and interpretability of commonly used models are also highlighted. Finally, a repeatable methodology is proposed in this research to enhance the recognition of human activities.The proposed technique is divided into two parts: the first proposal involves data preparation and the use of the LIME and Submodular-Pick LIME explication algorithms in order to increase model interpretability. The interpretable results of the first proposal are used in the second suggested practise to reduce the amount of information introduced into the model. The results show that there is a trade-off between model’s accuracy in recognising human activities and the privacy of user data. However, applying the proper techniques the detection accuracy remains high, even though 55% of the data is removed. This enhances user privacy and leads to the use of less invasive models for the worker.