<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Cho,&#x20;Youngdae</dcvalue>
<dcvalue element="contributor" qualifier="author">Son,&#x20;Wooram</dcvalue>
<dcvalue element="contributor" qualifier="author">Bak,&#x20;Jaewan</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Yisoo</dcvalue>
<dcvalue element="contributor" qualifier="author">Lim,&#x20;Hwasup</dcvalue>
<dcvalue element="contributor" qualifier="author">Cha,&#x20;Youngwoon</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-10-26T15:30:30Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-10-26T15:30:30Z</dcvalue>
<dcvalue element="date" qualifier="created">2024-10-25</dcvalue>
<dcvalue element="date" qualifier="issued">2024-10</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;150888</dcvalue>
<dcvalue element="description" qualifier="abstract">We&#x20;envision&#x20;a&#x20;telepresence&#x20;system&#x20;that&#x20;enhances&#x20;remote&#x20;work&#x20;by&#x20;facilitating&#x20;both&#x20;physical&#x20;and&#x20;immersive&#x20;visual&#x20;interactions&#x20;between&#x20;individuals.&#x20;However,&#x20;during&#x20;robot&#x20;teleoperation,&#x20;communication&#x20;often&#x20;lacks&#x20;realism,&#x20;as&#x20;users&#x20;see&#x20;the&#x20;robot&amp;apos;s&#x20;body&#x20;rather&#x20;than&#x20;the&#x20;remote&#x20;individual.&#x20;To&#x20;address&#x20;this,&#x20;we&#x20;propose&#x20;a&#x20;method&#x20;for&#x20;overlaying&#x20;a&#x20;digital&#x20;human&#x20;model&#x20;onto&#x20;a&#x20;humanoid&#x20;robot&#x20;using&#x20;XR&#x20;visualization,&#x20;enabling&#x20;an&#x20;immersive&#x20;3D&#x20;telepresence&#x20;experience.&#x20;Our&#x20;approach&#x20;employs&#x20;a&#x20;learning-based&#x20;method&#x20;to&#x20;estimate&#x20;the&#x20;2D&#x20;poses&#x20;of&#x20;the&#x20;humanoid&#x20;robot&#x20;from&#x20;head-worn&#x20;stereo&#x20;views,&#x20;leveraging&#x20;a&#x20;newly&#x20;collected&#x20;dataset&#x20;of&#x20;full-body&#x20;poses&#x20;for&#x20;humanoid&#x20;robots.&#x20;The&#x20;stereo&#x20;2D&#x20;poses&#x20;and&#x20;sparse&#x20;inertial&#x20;measurements&#x20;from&#x20;the&#x20;remote&#x20;operator&#x20;are&#x20;optimized&#x20;to&#x20;compute&#x20;3D&#x20;poses&#x20;over&#x20;time.&#x20;The&#x20;digital&#x20;human&#x20;is&#x20;localized&#x20;from&#x20;the&#x20;perspective&#x20;of&#x20;a&#x20;continuously&#x20;moving&#x20;observer,&#x20;utilizing&#x20;the&#x20;estimated&#x20;3D&#x20;pose&#x20;of&#x20;the&#x20;humanoid&#x20;robot.&#x20;Our&#x20;moving&#x20;camera-based&#x20;pose&#x20;estimation&#x20;method&#x20;does&#x20;not&#x20;rely&#x20;on&#x20;any&#x20;markers&#x20;or&#x20;external&#x20;knowledge&#x20;of&#x20;the&#x20;robot&amp;apos;s&#x20;status,&#x20;effectively&#x20;overcoming&#x20;challenges&#x20;such&#x20;as&#x20;marker&#x20;occlusion,&#x20;calibration&#x20;issues,&#x20;and&#x20;dependencies&#x20;on&#x20;headset&#x20;tracking&#x20;errors.&#x20;We&#x20;demonstrate&#x20;the&#x20;system&#x20;in&#x20;a&#x20;remote&#x20;physical&#x20;training&#x20;scenario,&#x20;achieving&#x20;real-time&#x20;performance&#x20;at&#x20;40&#x20;fps,&#x20;which&#x20;enables&#x20;simultaneous&#x20;immersive&#x20;and&#x20;physical&#x20;interactions.&#x20;Experimental&#x20;results&#x20;show&#x20;that&#x20;our&#x20;learning-based&#x20;3D&#x20;pose&#x20;estimation&#x20;method,&#x20;which&#x20;operates&#x20;without&#x20;prior&#x20;knowledge&#x20;of&#x20;the&#x20;robot,&#x20;significantly&#x20;outperforms&#x20;alternative&#x20;approaches&#x20;requiring&#x20;the&#x20;robot&amp;apos;s&#x20;global&#x20;pose,&#x20;particularly&#x20;during&#x20;rapid&#x20;headset&#x20;movements,&#x20;achieving&#x20;markerless&#x20;digital&#x20;human&#x20;augmentation&#x20;from&#x20;head-worn&#x20;views.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">MDPI&#x20;AG</dcvalue>
<dcvalue element="title" qualifier="none">Full-Body&#x20;Pose&#x20;Estimation&#x20;of&#x20;Humanoid&#x20;Robots&#x20;Using&#x20;Head-Worn&#x20;Cameras&#x20;for&#x20;Digital&#x20;Human-Augmented&#x20;Robotic&#x20;Telepresence</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.3390&#x2F;math12193039</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">Mathematics,&#x20;v.12,&#x20;no.19</dcvalue>
<dcvalue element="citation" qualifier="title">Mathematics</dcvalue>
<dcvalue element="citation" qualifier="volume">12</dcvalue>
<dcvalue element="citation" qualifier="number">19</dcvalue>
<dcvalue element="description" qualifier="isOpenAccess">Y</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001331973000001</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85206562177</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Mathematics</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Mathematics</dcvalue>
<dcvalue element="type" qualifier="docType">Article</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">AVATAR</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">telepresence</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">augmented&#x20;reality</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">teleoperation</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">computer&#x20;vision</dcvalue>
</dublin_core>
