Fida, U. (2011). Context-based multimodal interaction for mobile collaboration systems [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://resolver.obvsg.at/urn:nbn:at:at-ubtuw:1-40298
speech; voice; voice user interface; speech synthesis; speech recognition/ pda; mobile device; team; schedule meeting
en
multimodal; sprache; spracheingabe; spracherkennung; sprachausgabe; pda; mobile endgeräte; Zusammenarbeit
de
Abstract:
Mit mobilen Endgeräten und kabellosen Netzwerken haben wir die Möglichkeit das Internet zu nutzen wo auch immer wir hingehen, in allen Situation und zu allen Zeiten. Aber mobile Geräte wie z.B. PDAs haben nur kleine Bildschirme und eine kleine oder sogar keine Tastatur. Diese physikalischen Grenzen kann man mit Sprache als zusätzlichem Eingabe- und Ausgabemodus überwinden. In einer multimodalen Anwendung hat der Benutzer die Möglichkeit den Modus zu verwenden den er bevorzugt oder der für die Situation am besten passt oder er verwendet Sprache, Tastatur, Maus und Stift gemeinsam. Zusätzlich erlauben multimodale Anwendungen ein- und freihändige Tätigkeiten. Mobile Collaboration Systeme verwalten eine Vielzahl von Daten, sodass es für den Benutzer sehr wichtig ist, die richtigen Daten zum richtigen Zeitpunkt und am richtigen Ort zu erhalten. Wenn man die Sprachausgabe und -eingabe an den Kontext anpasst, kann man den Benutzer vor einer Informationsflut schützen und bessere Spracherkennungsraten erzielen.<br />
de
Mobile devices and wireless networks give us the possibility to use the Web where ever we go, in all situations, at all times. But devices like PDAs have small displays and limited or even no keyboards.<br />Enabling speech as an additional input and output mode will help to overcome these physical limitations. In a multimodal application the user may use his preferred mode or the most appropriate mode for the situation or he may use voice, keyboard, mouse and pen in a synergistic way. Moreover multimodal applications allow one-handed and hands-free operations. Mobile collaboration systems handle a lot of information so it is important for the user to get the right information at the right time and at the right place. Making the speech output and input context sensitive will prevent overloading the user with unwanted information and leads to better speech recognition rates.