DC FieldValueLanguage
dc.contributor.advisorDustdar, Schahram-
dc.contributor.authorFida, Ursula-
dc.date.accessioned2020-06-30T07:30:37Z-
dc.date.issued2011-
dc.date.submitted2011-02-
dc.identifier.urihttps://resolver.obvsg.at/urn:nbn:at:at-ubtuw:1-40298-
dc.identifier.urihttp://hdl.handle.net/20.500.12708/11224-
dc.descriptionZsfassung in dt. Sprache-
dc.description.abstractMit mobilen Endgeräten und kabellosen Netzwerken haben wir die Möglichkeit das Internet zu nutzen wo auch immer wir hingehen, in allen Situation und zu allen Zeiten. Aber mobile Geräte wie z.B. PDAs haben nur kleine Bildschirme und eine kleine oder sogar keine Tastatur. Diese physikalischen Grenzen kann man mit Sprache als zusätzlichem Eingabe- und Ausgabemodus überwinden. In einer multimodalen Anwendung hat der Benutzer die Möglichkeit den Modus zu verwenden den er bevorzugt oder der für die Situation am besten passt oder er verwendet Sprache, Tastatur, Maus und Stift gemeinsam. Zusätzlich erlauben multimodale Anwendungen ein- und freihändige Tätigkeiten. Mobile Collaboration Systeme verwalten eine Vielzahl von Daten, sodass es für den Benutzer sehr wichtig ist, die richtigen Daten zum richtigen Zeitpunkt und am richtigen Ort zu erhalten. Wenn man die Sprachausgabe und -eingabe an den Kontext anpasst, kann man den Benutzer vor einer Informationsflut schützen und bessere Spracherkennungsraten erzielen.<br />de
dc.description.abstractMobile devices and wireless networks give us the possibility to use the Web where ever we go, in all situations, at all times. But devices like PDAs have small displays and limited or even no keyboards.<br />Enabling speech as an additional input and output mode will help to overcome these physical limitations. In a multimodal application the user may use his preferred mode or the most appropriate mode for the situation or he may use voice, keyboard, mouse and pen in a synergistic way. Moreover multimodal applications allow one-handed and hands-free operations. Mobile collaboration systems handle a lot of information so it is important for the user to get the right information at the right time and at the right place. Making the speech output and input context sensitive will prevent overloading the user with unwanted information and leads to better speech recognition rates.en
dc.format98 S.-
dc.languageEnglish-
dc.language.isoen-
dc.subjectmultimodalde
dc.subjectsprachede
dc.subjectspracheingabede
dc.subjectspracherkennungde
dc.subjectsprachausgabede
dc.subjectpdade
dc.subjectmobile endgerätede
dc.subjectZusammenarbeitde
dc.subjectspeechen
dc.subjectvoiceen
dc.subjectvoice user interfaceen
dc.subjectspeech synthesisen
dc.subjectspeech recognitionen
dc.subjectpdaen
dc.subjectmobile deviceen
dc.subjectteamen
dc.subjectschedule meetingen
dc.titleContext-based multimodal interaction for mobile collaboration systemsen
dc.typeThesisen
dc.typeHochschulschriftde
tuw.publication.orgunitE184 - Institut für Informationssysteme-
dc.type.qualificationlevelDiploma-
dc.identifier.libraryidAC07809818-
dc.description.numberOfPages98-
dc.identifier.urnurn:nbn:at:at-ubtuw:1-40298-
dc.thesistypeDiplomarbeitde
dc.thesistypeDiploma Thesisen
item.fulltextwith Fulltext-
item.openairetypeThesis-
item.openairetypeHochschulschrift-
item.cerifentitytypePublications-
item.cerifentitytypePublications-
item.languageiso639-1en-
item.grantfulltextopen-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
Appears in Collections:Thesis

Files in this item:

Show simple item record

Page view(s)

12
checked on Feb 18, 2021

Download(s)

59
checked on Feb 18, 2021

Google ScholarTM

Check


Items in reposiTUm are protected by copyright, with all rights reserved, unless otherwise indicated.