h1

h2

h3

h4

h5
h6
000229326 001__ 229326
000229326 005__ 20220422221340.0
000229326 0247_ $$2Laufende Nummer$$a32863
000229326 0247_ $$2URN$$aurn:nbn:de:hbz:82-opus-49650
000229326 0247_ $$2HSB$$a999910343007
000229326 0247_ $$2OPUS$$a4965
000229326 037__ $$aRWTH-CONV-144296
000229326 041__ $$aEnglish
000229326 082__ $$a004
000229326 0847_ $$2ccs$$aH.5.2
000229326 1001_ $$0P:(DE-82)138748$$aMöllers, Maximilian Heinrich Gerhard$$b0$$eAuthor
000229326 245__ $$aCapturing the expressiveness of touch : detect, improve, and extend$$cvorgelegt von Maximilian Heinrich Gerhard Möllers$$honline, print
000229326 246_3 $$aErfassen der Ausdrucksfähigkeit von Toucheingaben : Erkennen, Verbessern und Erweitern$$yGerman
000229326 260__ $$aAachen$$c2013
000229326 260__ $$c2014
000229326 300__ $$aXXIII Bl., 115 S. : Ill., graph. Darst.
000229326 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd
000229326 3367_ $$02$$2EndNote$$aThesis
000229326 3367_ $$2DRIVER$$adoctoralThesis
000229326 3367_ $$2BibTeX$$aPHDTHESIS
000229326 3367_ $$2DataCite$$aOutput Types/Dissertation
000229326 3367_ $$2ORCID$$aDISSERTATION
000229326 500__ $$aPrüfungsjahr: 2013. - Publikationsjahr: 2014
000229326 502__ $$aAachen, Techn. Hochsch., Diss., 2013$$gFak01$$o2013-12-13
000229326 520__ $$aHuman-Computer-Interaction always tries to reduce user input to a very small amount of in- formation (here touch to 2D point). This allows for easy input processing and easy systems development because the state machine has fewer transitions. It can also help the user, because a simpler UI can be easier to learn. However, we are missing out on a lot of expressiveness in the input from the user, and we will show how we could capture this expressiveness and how we could use it to give more precise input and more natural interfaces. Touch is a means of communicating user intent, and we will show throughout this thesis that a simplification to a 2D point is a significant bottleneck for the interaction between a human and a computer, both on a micro and a macro level, and what we should do instead to grasp the user’s intent and support more natural interactions. As an introduction, we take a close look at what happens before a touch is performed and how this touch is then typically interpreted. Our first project shows a technical solution to get very precise touch information even on large tabletops, necessary for any deeper analysis of touches. We then show how in touch sequences one touch is affected by its predecessor, and that we can exploit this systematic error to improve touch accuracy. We also show extensions of current touch models to take into account body posture, relative location, etc. when interacting with larger tabletops. User location also plays an important role if we extend our direct manipulation surface to a 3D display. We show that the direct manipulation conflicts with the perspectively correct 3D rendering and how we can solve this conflict to have error-free direct manipulation. So far, we have only covered flat, horizontal surfaces, but touches can be performed on any surface, and actually, people have more non-flat and/or mobile input devices at their disposal than tabletops: keyboards, mice, smartphones, remote controls, etc. Similar to our tabletop section, we start out with a technical solution to detect touches on arbitrary objects in 3D space. This raw touch data, however, contains a lot of misguided information because contact with the user’s palm or fingers that are only holding a mobile device create the same input as the actual touch input. To reduce this problem, we propose an algorithm that infers the hand posture from touch data on an arbitrary object, making it easier to understand the user’s intent. As a closure for this thesis, we extend the existing touch-based GUI metaphor to support ad hoc interactions with arbitrary objects. We show how we can repurpose everyday objects as input controllers and remove the necessity of dedicated input devices to control our computers.$$leng
000229326 5203_ $$aBeim Erstellen neuer Nutzerschnittstellen versucht das Forschungsfeld der Mensch-Computer-Interaktion die Nutzereingabe auf einen wesentlichen Kern zu reduzieren- bei Toucheingaben typischerweise ein 2D-Punkt. Dies erleichtert die Erkennung der Nutzereingabe und vereinfacht auch die Entwicklung von interaktiven Systemen, da die Eingaben weniger unterschiedlich sein können. Des Weiteren kann es den Nutzern helfen, das System besser zu verstehen, da es auf wenige und simple Eingaben reagiert. Auch wenn dies gute Gründe für die bisherige Entwicklung sind, sollten wir nicht die Gelegenheit verschenken und viele Aspekte der Ausdrucksvielfalt des Menschen ignorieren. In dieser Arbeit zeigen wir wie man diese Ausdrucksvielfalt besser erkennen kann und dass dies zu präziseren Eingaben und natürlicheren Schnittstellen führt. In der Einführung zeigen wir zunächst, was eigentlich eine Toucheingabe ist: Was passiert bevor ein Mensch einen Touch ausführt, und wie wird die Eingabe von einem interaktiven System erkannt und interpretiert. Danach zeigen wir im ersten Projekt, wie wir auf einem Tabletop extrem präzise Toucheingaben ermöglichen können. Auf diesem System bauen einige der folgenden Kapitel auf: Im zweiten Kapitel zeigen wir, dass die vorherige Fingerposition einen Einfluss auf die darauf folgende Toucheingabe hat. Wir verdeutlichen auch, dass man diese Kontextinformation nutzen kann, um Fehler bei Toucheingaben zu vermeiden. Zuletzt zeigen wir in dem Kapitel, dass sogar die gesamte Körperhaltung Einfluss auf das Touchverhalten hat. Im dritten Kapitel erweitern wir unser System um einen weiteren Eingabekanal – die Position des Kopf des Nutzers. Das ermöglicht uns, unser 2D-Display zu einem 3D-Display zu erweitern. Wir zeigen dass die Metapher der direkten Manipulation, die typisch für Touchsysteme ist, im Konflikt mit einer perspektivisch korrekten 3D-Darstellung steht. Wir stellen Lösungsvorschläge vor, die zu einer fehlerfreien Interaktion führen. Nachdem wir uns mit der Erweiterung des Touches um kontextuelle Informationen (z.B. Vorgängerposition) und weitere Eingabakanäle (z.B. die Kopfposition) auf planaren Oberflächen beschäftigt haben, werden wir in den folgenden drei Kapiteln dieselbe Fragestellungen schließlich auf beliebig geformten Oberflächen betrachten. Zunächst stellen wir auch hier eine technische Möglichkeit vor, die es erlaubt, beliebige Objekte im Raum zu erkennen und Touches darauf festzustellen. Diese Touchdaten sind jedoch nur der Anfang, da z.B. das Festhalten des Objektes selbst schon als Toucheingabe interpretiert würde. Wir stellen vor, wie wir aus den Touchdaten ermitteln können, wie das Objekt gehalten wurde. Diese Information ermöglicht uns, die Berührungen zu filtern, die nur Teil der Haltegeste sind. Im letzten Kapitel erweitern wir den Touch um die semantischen Informationen des Objektes. Wir erschaffen damit eine neue Interaktionsmetapher für ad-hoc Zweckentfremdung von Alltagsgegenständen. Wir zeigen, wie diese Gegenstände als Eingabekontroller genutzt werden können und somit dedizierte Eingabegeräte überflüssig machen.$$lger
000229326 591__ $$aGermany
000229326 650_7 $$2SWD$$aMensch-Maschine-Schnittstelle
000229326 650_7 $$2SWD$$aTouchscreen
000229326 650_7 $$2SWD$$aBenutzeroberfläche
000229326 653_7 $$aInformatik
000229326 653_7 $$2eng$$ahuman-computer-interaction
000229326 653_7 $$2eng$$auser interfaces
000229326 653_7 $$2eng$$atouch
000229326 7001_ $$0P:(DE-82)IDM04772$$aBorchers, Jan Oliver$$b1$$eThesis advisor
000229326 8564_ $$uhttps://publications.rwth-aachen.de/record/229326/files/4965.pdf
000229326 909CO $$ooai:publications.rwth-aachen.de:229326$$pVDB$$pdriver$$purn$$popen_access$$popenaire$$pdnbdelivery
000229326 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess
000229326 9201_ $$0I:(DE-82)120000_20140620$$k120000$$lFachgruppe Informatik$$x0
000229326 9201_ $$0I:(DE-82)122710_20140620$$k122710$$lLehrstuhl für Informatik 10 (Medieninformatik und Mensch-Computer-Interaktion)$$x1
000229326 961__ $$c2014-12-04$$x2014-05-27$$z2012-02-20
000229326 970__ $$aHT018217871
000229326 980__ $$aphd
000229326 980__ $$aI:(DE-82)120000_20140620
000229326 980__ $$aI:(DE-82)122710_20140620
000229326 980__ $$aVDB
000229326 980__ $$aUNRESTRICTED
000229326 980__ $$aConvertedRecord
000229326 980__ $$aFullTexts
000229326 9801_ $$aFullTexts