Kavaldjian, S. (2011). Automated model-driven generation of the structure of WIMP user interfaces based on high-level models [Dissertation, Technische Universität Wien]. reposiTUm. http://hdl.handle.net/20.500.12708/159878
Modell getriebene User Interface Entwicklung; Grafische Benutzungsschnittstellen
de
Model-Driven User Interface Development; Graphical User Interface
en
Abstract:
Das Erstellen von grafischen Benutzungsschnittstellen ist immer noch eine zeit- und kostenintensive Aufgabe. Nichtsdestotrotz erlauben aktuelle Forschungsansätze diese aus Interaktionsmodellen zu generieren. Diese Dissertation präsentiert einen automatisierten Ansatz zur modellgetriebenen Generierung der Struktur von graphischen Benutzungsschnittstellen, WIMPs aus Interaktionsmodellen. Die benutzten Interaktionsmodelle sind Diskursmodelle, die genau genommen eine Klasse von Dialogen darstellen. Diese Modelle basieren auf Theorien der menschlichen Kommunikation und sollten daher für Menschen leichter verständlich sein als Quellcode, der Benutzungsschnittstellen implementiert. Solche Diskursmodelle zusammen mit entsprechenden Transformationsregeln besitzen genügend Sematik, um Benutzungsschnittstellen automatisch für eine Vielzahl von Endgeräten zu generieren.<br />Diese Dissertation präsentiert einen zweistufigen Transformationsprozess mit einem Zwischenmodell für die Struktur von Benutzungsschnittstellen. Sie konzentriert sich auf den ersten Schritt, die Transformation von Diskursmodellen zu Strukturmodellen von Benutzerschnittstellen mit Hilfe von deklarativen Transformationsregeln. Im Speziellen werden Transformationsregeln für Desktop-Benutzungsoberflächen, Touchscreens, die mit dem Finger zu bedienen sind, sowie Transformationsregeln für unterschiedliche Bildschirmgrößen dargestellt. Zusätzlich wird ein Ansatz zur Prototypengenerierung von grafischen Benutzungsschnittstellen, ausgehend von Anforderungsspezifikationen mit Hilfe von prozeduralen Tranformationen, vorgestellt. Es werden Transformationen, ausgehend von der Anforderungsspezifikation über die Benutzungsschnittstellenspezifikation bis hin zum grafischen Benutzungsschnittstellenprototypen gezeigt und umgekehrt. Darüberhinaus wird ein Ansatz zur automatischen Generierung von inversen prozeduralen Transformationsregeln vorgestellt. Des Weiteren sind in dieser Dissertation die zur Transformation benutzten deklarativ dargestellte Regeln zum Vergleich ebenfalls in der prozeduralen Sprache implementiert und die Unterschiede näher erläutert. Eine Feasibility-Studie wird vorgestellt, welche die Anwendbarkeit des auf Diskursen basierenden Ansatzes für die Generierung von vorgegebenen Touchscreen-Benutzungsschnittstellen, die mit dem Finger zu bedienen sind, für Einkaufswagenroboter zeigt. Es werden die dabei bewältigten Problemstellungen während der Generierung der Benutzungsschnittstelle gezeigt, sowie die daraus gewonnenen Erkenntnisse. Abschliessend wird die vorliegende Arbeit anderen Arbeiten gegenübergestellt.<br />
de
User-interface design is still a time consuming and expensive task to do, but recent advances allow generating them from interaction design models. This doctoral dissertation presents an automated model-driven approach for generating the structure of WIMPs (Window, Icon, Menu, Pointing device) out of interaction design models like Discourse Models, more precisely models of classes of dialogues. They are based on theories of human communication and should, therefore, be more understandable to humans than source code implementing user interfaces.<br />Such Discourse Models together with transformation rules contain enough semantics to generate WIMP UIs automatically for multiple devices.<br />This doctoral dissertation presents a two-step transformation approach with an intermediate UI model. It concentrates on a major part of the first step, transforming Discourse Models to Structural UI Models using declarative transformation rules. In particular, transformations for desktop UIs and finger-based touchscreen UIs as well as for different screen sizes are presented. Additionally, an approach for GUI prototype generation based on requirements specifications with procedural transformation rules is introduced. It presents transformations from requirements specification via UI specification to UI prototypes and vice versa as well as an approach to automatically derive inverse procedural transformation rules. Furthermore, this work compares declaratively represented rules used for transformation, which have been implemented in a procedural language as well, for comparison with each other, and explains the respective differences.<br />A feasibility study is presented to show the applicability of the discourse-based approach for the generation of the GUI for a given finger-based touchscreen GUI design of a robot trolley. It explains the challenges tackled during the touchscreen GUI generation and the lessons learned in the course of the application. Finally this work is put into context with related work.<br />