<div class="csl-bib-body">
<div class="csl-entry">Kolbasiuk, Y. (2024). <i>Web-based evaluation of modeling language notations</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2024.81353</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2024.81353
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/208787
-
dc.description.abstract
This thesis addresses the challenge of evaluating and improving the semantic transparency of graphical notations of conceptual modelling languages. Traditional approaches to modelling language specifications must consider essential notational aspects to effectively reflect domain-specific requirements. We propose a graphical notation evaluation platform for empirical graphical notations evaluation to automate the setup, execution, and result analysis of evaluation experiments, thereby enhancing reproducibility and efficiency. By employing the Design Science Research methodology and agile development methods, we aim to evaluate the built artefacts. Our goal is to investigate how certain platform features enhance semantic transparency evaluation.The evaluation technique comprises initiation, term association, notation association, case study, and feedback tasks. Our system, leveraging advanced image recognition and text recognition techniques, not only advances proposals for new notations but also significantly improves evaluation efficiency. We strive to meet critical requirements such as efficient customization, notation improvement, and participant involvement while effectively addressing the limitations of traditional paper-and-pen setups.
en
dc.description.abstract
Diese Arbeit befasst sich mit der Herausforderung, die semantische Transparenz von grafischen Notationen in konzeptionellen Modellierungssprachen zu evaluieren und zu verbessern. Traditionelle Ansätze zur Spezifikation von Modellierungssprachen müssen wesentliche Notationsaspekte berücksichtigen, um domänenspezifische Anforderungen effektiv widerzuspiegeln. Wir schlagen eine Plattform zur Evaluierung grafischer Notationen für die empirische Evaluierung grafischer Notationen vor, um den Aufbau, die Ausführung und die Ergebnisanalyse von Evaluierungsexperimenten zu automatisieren und dadurch die Reproduzierbarkeit und Effizienz zu verbessern. Durch den Einsatz der Design Science Forschungsmethodik und agiler Entwicklungsmethoden wollen wir die erstellten Artefakte evaluieren. Unser Ziel ist es, zu untersuchen, wie bestimmte Plattformfunktionen die Bewertung der semantischen Transparenz verbessern. Die Bewertungstechnik umfasst Aufgaben zur Einleitung, Begriffsassoziation, Notationsassoziation, Fallstudie und Feed-back. Unser System nutzt fortschrittliche Bild- und Texterkennungstechniken, um nicht nur Vorschläge für neue Notationen zu unterbreiten, sondern auch die Effizienz der Bewertung erheblich zu verbessern. Wir sind bestrebt, kritische Anforderungen wie effiziente Anpassung, Verbesserung der Notation und Einbeziehung der Teilnehmer zu erfüllen und gleichzeitig die Beschränkungen herkömmlicher Papier-und-Stift-Konfigurationen zu überwinden.
de
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Model Engineering
en
dc.title
Web-based evaluation of modeling language notations
en
dc.title.alternative
Webbasierte Bewertung der Notation von Modellierungssprachen
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2024.81353
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Yuliia Kolbasiuk
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Ali, Syed Juned
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering