h1

h2

h3

h4

h5
h6


001     1027013
005     20260226050534.0
024 7 _ |2 HBZ
|a HT031404779
024 7 _ |2 Laufende Nummer
|a 45061
024 7 _ |2 datacite_doi
|a 10.18154/RWTH-2026-01136
037 _ _ |a RWTH-2026-01136
041 _ _ |a English
082 _ _ |a 004
100 1 _ |0 P:(DE-82)IDM02010
|a Ehret, Jonathan
|b 0
|u rwth
245 _ _ |a Enhancing perceived social presence of embodied conversational agents: a multimodal approach to natural communication
|c vorgelegt von Jonathan Ehret, geb. Wendt, Master of Science
|h online
260 _ _ |a Aachen
|b RWTH Aachen University
|c 2025
260 _ _ |c 2026
300 _ _ |a 1 Online-Ressource : Illustrationen
336 7 _ |0 2
|2 EndNote
|a Thesis
336 7 _ |0 PUB:(DE-HGF)11
|2 PUB:(DE-HGF)
|a Dissertation / PhD Thesis
|b phd
|m phd
336 7 _ |2 BibTeX
|a PHDTHESIS
336 7 _ |2 DRIVER
|a doctoralThesis
336 7 _ |2 DataCite
|a Output Types/Dissertation
336 7 _ |2 ORCID
|a DISSERTATION
500 _ _ |a Veröffentlicht auf dem Publikationsserver der RWTH Aachen University 2026
502 _ _ |a Dissertation, RWTH Aachen University, 2025
|b Dissertation
|c RWTH Aachen University
|d 2025
|g Fak09
|o 2025-12-08
520 3 _ |a Die Einbettung virtueller anthropomorpher Charaktere als Embodied Conversational Agents (ECAs) in Anwendungen der virtuellen Realität (VR) bietet Vorteile in Bereichen wie Trainingsumgebungen und therapeutischen Settings, in denen sie persönliche Interaktionspartner simulieren. Eine zentrale Herausforderung besteht darin, ECAs als authentisch und menschenähnlich wahrnehmbar zu machen, wofür die Integration mehrerer Modalitäten erforderlich ist. Diese Arbeit untersucht die wichtigsten Modalitäten, die zur Glaubwürdigkeit von ECAs beitragen. ECAs agieren multimodal und ihr Verhalten umfasst verbale sowie co-verbale Aspekte wie Blickrichtung und Gestik. Wir analysieren den Einfluss von Stimme und Prosodie und diskutieren, wie sich technischer Aufwand und wahrgenommene soziale Präsenz in Einklang bringen lassen. Zudem untersuchen wir die Auralisierung, indem wir bewerten, ob die Simulation natürlicher Klangausbreitung die Realitätsnähe von Gesprächen erhöht und welche technische Präzision erforderlich ist. Ein weiterer Schwerpunkt liegt auf kommunikativen Funktionen des co-verbalen Verhaltens, insbesondere Turn-Taking, das den Sprecherwechsel in Mehrparteien-Interaktionen regelt, und Back-Channeling, das Zustimmung oder Verständnis signalisiert. Ein zentrales Thema dieser Arbeit ist die wahrgenommene soziale Präsenz – das Ausmaß, in dem Nutzer das Gefühl haben, mit einer realen Person zu interagieren. Wir analysieren bestehende subjektive und objektive Metriken und identifizieren eine Lücke bei objektiven Bewertungsmethoden. Zu diesem Zweck untersuchen wir das in Zusammenarbeit mit Psychologieforschern entwickelten HTR-Paradigma (Hearing Text Recall). Durch die gezielte Variation der ECA-Leistungsqualität anhand co-verbaler Komponenten evaluieren wir HTR als potenziellen Proxy für die Messung kognitiver Belastung und sozialer Präsenz. Zur Unterstützung VR-basierter Nutzerstudien stellen wir das StudyFramework vor – ein Tool zur Vereinfachung experimenteller Designs, das zudem ein System zur Avatar-Darstellung zur Erhöhung der Immersion enthält. Des Weiteren untersuchen wir Methoden zur Generierung und Erfassung von Gesten mit handelsüblicher VR-Hardware und analysieren deren Einfluss auf die soziale Präsenz. Zusammenfassend trägt diese Forschung zum Verständnis des ECA-Verhaltens in der verbalen Kommunikation bei und liefert Einblicke in Schlüsselmodalitäten, die natürliche und immersive Interaktionen in VR verbessern.
|l ger
520 _ _ |a Embedding virtual anthropomorphic characters as embodied conversational agents (ECAs) in virtual reality (VR) applications offers benefits across various domains, including training environments and therapeutic settings, by simulating face-to-face interaction partners for human users. However, ensuring that ECAs are perceived as authentic and human-like remains a challenge, requiring the integration of multiple modalities to create convincing virtual humans. This thesis explores key modalities that contribute to the believability of ECAs, which act inherently multimodal when delivering speech acts encompassing verbal as well as co-verbal behavior---such as gaze direction and gestures. We investigate the impact of voice and prosody, making suggestions on how to balance technical effort with their effects on perceived social presence. Additionally, we examine auralization, evaluating whether simulating natural sound directionality enhances conversational realism and determining the necessary level of technical fidelity. Furthermore, we delve into some communicative functions conveyed by co-verbal behavior. Specifically, we examine turn-taking, which governs speaker transitions in multi-party interactions, and back-channeling, which conveys agreement or understanding. Throughout this work we put a particular focus on perceived social presence, the extent to which users feel they are interacting with a real person. To this end, we first review existing subjective and objective metrics for measuring social presence, identifying a gap in objective evaluation methods. Therefore, we assess objective metrics for social presence by leveraging the heard text recall (HTR) paradigm, developed in collaboration with psychology researchers. By systematically degrading ECA performance quality using a forementioned co-verbal components, we investigate HTR as a potential proxy for measuring cognitive load and social presence more rigorously. To facilitate VR-based user studies, we introduce and assess the StudyFramework, a newly developed tool that streamlines factorial-design experiments and includes a system for rendering participant avatars to enhance immersion. Additionally, we explore methods for generating and capturing gestures using off-the-shelf VR hardware and analyze their influence on perceived social presence. In summary, this research advances the understanding of ECA behavior in verbal communication, providing insights into key modalities that enhance natural and immersive interactions in VR.
|l eng
588 _ _ |a Dataset connected to Lobid/HBZ
591 _ _ |a Germany
653 _ 7 |a coverbal gestures
653 _ 7 |a embodied conversational agents
653 _ 7 |a social presence
653 _ 7 |a virtual reality
700 1 _ |0 P:(DE-82)IDM00462
|a Kuhlen, Torsten
|b 1
|e Thesis advisor
|u rwth
700 1 _ |0 P:(DE-82)IDM00134
|a Fels, Janina
|b 2
|e Thesis advisor
|u rwth
856 4 _ |u https://publications.rwth-aachen.de/record/1027013/files/1027013.pdf
|y OpenAccess
856 4 _ |u https://publications.rwth-aachen.de/record/1027013/files/1027013_source.zip
|y Restricted
909 C O |o oai:publications.rwth-aachen.de:1027013
|p openaire
|p open_access
|p VDB
|p driver
|p dnbdelivery
910 1 _ |0 I:(DE-588b)36225-6
|6 P:(DE-82)IDM02010
|a RWTH Aachen
|b 0
|k RWTH
910 1 _ |0 I:(DE-588b)36225-6
|6 P:(DE-82)IDM00462
|a RWTH Aachen
|b 1
|k RWTH
910 1 _ |0 I:(DE-588b)36225-6
|6 P:(DE-82)IDM00134
|a RWTH Aachen
|b 2
|k RWTH
914 1 _ |y 2025
915 _ _ |0 StatID:(DE-HGF)0510
|2 StatID
|a OpenAccess
920 1 _ |0 I:(DE-82)124620_20151124
|k 124620
|l Lehr- und Forschungsgebiet Virtuelle Realität und Immersive Visualisierung
|x 0
920 1 _ |0 I:(DE-82)124170_20140620
|k 124170
|l Virtual Reality Group
|x 2
980 1 _ |a FullTexts
980 _ _ |a I:(DE-82)124170_20140620
980 _ _ |a I:(DE-82)124620_20151124
980 _ _ |a UNRESTRICTED
980 _ _ |a VDB
980 _ _ |a phd


LibraryCollectionCLSMajorCLSMinorLanguageAuthor
Marc 21