<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Ali,&#x20;Ghazanfar</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Woojoo</dcvalue>
<dcvalue element="contributor" qualifier="author">Anwar,&#x20;Muhammad&#x20;Shahid</dcvalue>
<dcvalue element="contributor" qualifier="author">Hwang,&#x20;Jae-In</dcvalue>
<dcvalue element="contributor" qualifier="author">Choi,&#x20;Ahyoung</dcvalue>
<dcvalue element="date" qualifier="accessioned">2025-09-17T01:35:19Z</dcvalue>
<dcvalue element="date" qualifier="available">2025-09-17T01:35:19Z</dcvalue>
<dcvalue element="date" qualifier="created">2025-09-16</dcvalue>
<dcvalue element="date" qualifier="issued">2025-08</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;153162</dcvalue>
<dcvalue element="description" qualifier="abstract">In&#x20;this&#x20;study,&#x20;we&#x20;explore&#x20;the&#x20;effects&#x20;of&#x20;co-speech&#x20;gesture&#x20;generation&#x20;on&#x20;user&#x20;experience&#x20;in&#x20;3D&#x20;digital&#x20;human&#x20;interaction&#x20;by&#x20;testing&#x20;two&#x20;key&#x20;hypotheses.&#x20;The&#x20;first&#x20;hypothesis&#x20;posits&#x20;that&#x20;increasing&#x20;the&#x20;number&#x20;of&#x20;gestures&#x20;enhances&#x20;the&#x20;user&#x20;experience&#x20;across&#x20;criteria&#x20;such&#x20;as&#x20;naturalness,&#x20;human-likeness,&#x20;temporal&#x20;consistency,&#x20;semantic&#x20;consistency,&#x20;and&#x20;social&#x20;presence.&#x20;The&#x20;second&#x20;hypothesis&#x20;suggests&#x20;that&#x20;language&#x20;translation&#x20;does&#x20;not&#x20;degrade&#x20;the&#x20;user&#x20;experience&#x20;across&#x20;these&#x20;criteria.&#x20;To&#x20;explore&#x20;these&#x20;hypotheses,&#x20;we&#x20;investigated&#x20;three&#x20;conditions&#x20;using&#x20;a&#x20;digital&#x20;human:&#x20;voice&#x20;only&#x20;with&#x20;no&#x20;gestures,&#x20;limited(56&#x20;gestures)&#x20;co-speech&#x20;gestures,&#x20;and&#x20;full&#x20;system&#x20;functionality&#x20;with&#x20;over&#x20;2000&#x20;unique&#x20;gestures.&#x20;For&#x20;the&#x20;second&#x20;hypothesis,&#x20;we&#x20;used&#x20;language&#x20;translation&#x20;to&#x20;provide&#x20;multilingual&#x20;support,&#x20;retrieving&#x20;gestures&#x20;from&#x20;an&#x20;English&#x20;rule&#x20;base.&#x20;We&#x20;obtained&#x20;text&#x20;and&#x20;pose&#x20;from&#x20;English&#x20;videos&#x20;and&#x20;matched&#x20;the&#x20;pose&#x20;with&#x20;gesture&#x20;units&#x20;derived&#x20;from&#x20;Korean&#x20;speakers&amp;apos;&#x20;motion-capture&#x20;sequences,&#x20;enhancing&#x20;a&#x20;comprehensive&#x20;rule&#x20;base&#x20;that&#x20;we&#x20;used&#x20;for&#x20;gesture&#x20;retrieval&#x20;for&#x20;given&#x20;text&#x20;input.&#x20;We&#x20;used&#x20;translation&#x20;of&#x20;non-English&#x20;input&#x20;language&#x20;to&#x20;English&#x20;for&#x20;text&#x20;matching.&#x20;Our&#x20;novel&#x20;method&#x20;utilizes&#x20;an&#x20;improved&#x20;pipeline&#x20;to&#x20;extract&#x20;text,&#x20;2D&#x20;pose&#x20;data,&#x20;and&#x20;3D&#x20;gesture&#x20;units.&#x20;Incorporating&#x20;a&#x20;cutting-edge&#x20;gesture-pose&#x20;matching&#x20;model&#x20;with&#x20;deep&#x20;contrastive&#x20;learning,&#x20;we&#x20;retrieved&#x20;gestures&#x20;from&#x20;a&#x20;comprehensive&#x20;rule&#x20;base&#x20;containing&#x20;210,000&#x20;rules.&#x20;This&#x20;approach&#x20;optimizes&#x20;alignment&#x20;and&#x20;generates&#x20;realistic,&#x20;semantically&#x20;consistent&#x20;co-speech&#x20;gestures&#x20;adaptable&#x20;to&#x20;various&#x20;languages.&#x20;A&#x20;comprehensive&#x20;user&#x20;study&#x20;evaluated&#x20;our&#x20;hypotheses.&#x20;The&#x20;results&#x20;underscored&#x20;the&#x20;positive&#x20;impact&#x20;of&#x20;diverse&#x20;gestures,&#x20;supporting&#x20;the&#x20;first&#x20;hypothesis.&#x20;Additionally,&#x20;multilingual&#x20;capabilities&#x20;did&#x20;not&#x20;degrade&#x20;the&#x20;user&#x20;experience,&#x20;confirming&#x20;the&#x20;second&#x20;hypothesis.&#x20;Highlighting&#x20;the&#x20;scalability&#x20;and&#x20;flexibility&#x20;of&#x20;our&#x20;method,&#x20;this&#x20;study&#x20;provides&#x20;valuable&#x20;insights&#x20;into&#x20;cross-lingual&#x20;data&#x20;and&#x20;expert&#x20;systems&#x20;for&#x20;gesture&#x20;generation,&#x20;contributing&#x20;significantly&#x20;to&#x20;more&#x20;engaging&#x20;and&#x20;immersive&#x20;digital&#x20;human&#x20;interactions&#x20;and&#x20;the&#x20;broader&#x20;field&#x20;of&#x20;human-computer&#x20;interaction.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">Institute&#x20;of&#x20;Electrical&#x20;and&#x20;Electronics&#x20;Engineers&#x20;Inc.</dcvalue>
<dcvalue element="title" qualifier="none">Expanding&#x20;Multilingual&#x20;Co-Speech&#x20;Interaction:&#x20;The&#x20;Impact&#x20;of&#x20;Enhanced&#x20;Gesture&#x20;Units&#x20;in&#x20;Text-to-Gesture&#x20;Synthesis&#x20;for&#x20;Digital&#x20;Humans</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1109&#x2F;ACCESS.2025.3596328</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">IEEE&#x20;Access,&#x20;v.13,&#x20;pp.145144&#x20;-&#x20;145157</dcvalue>
<dcvalue element="citation" qualifier="title">IEEE&#x20;Access</dcvalue>
<dcvalue element="citation" qualifier="volume">13</dcvalue>
<dcvalue element="citation" qualifier="startPage">145144</dcvalue>
<dcvalue element="citation" qualifier="endPage">145157</dcvalue>
<dcvalue element="description" qualifier="isOpenAccess">Y</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001556092100022</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-105013052990</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Computer&#x20;Science,&#x20;Information&#x20;Systems</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Engineering,&#x20;Electrical&#x20;&amp;&#x20;Electronic</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Telecommunications</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Computer&#x20;Science</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Engineering</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Telecommunications</dcvalue>
<dcvalue element="type" qualifier="docType">Article</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">NONVERBAL&#x20;BEHAVIOR</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">APPEARANCE</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">BEAT</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">User&#x20;experience</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Videos</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Motion&#x20;capture</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Digital&#x20;humans</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Three-dimensional&#x20;displays</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Translation</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Semantics</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Multilingual</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Animation</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Contrastive&#x20;learning</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Co-speech&#x20;gestures</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">gesture&#x20;generation</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">HCI</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">machine&#x20;learning</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">augmented&#x2F;virtual&#x2F;mixed&#x20;realities</dcvalue>
</dublin_core>
