<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Li,&#x20;Zhongrui</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Ig-Jae</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Won-Sook</dcvalue>
<dcvalue element="contributor" qualifier="author">Sun,&#x20;Chao</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-19T12:07:19Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-19T12:07:19Z</dcvalue>
<dcvalue element="date" qualifier="created">2022-02-28</dcvalue>
<dcvalue element="date" qualifier="issued">2014-11</dcvalue>
<dcvalue element="identifier" qualifier="issn">2325-033X</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;115323</dcvalue>
<dcvalue element="description" qualifier="abstract">3D&#x20;Hair&#x20;reconstruction&#x20;based&#x20;on&#x20;real-life&#x20;hair&#x20;capture&#x20;is&#x20;an&#x20;important&#x20;and&#x20;challenging&#x20;work&#x20;in&#x20;hair&#x20;modeling&#x20;field.&#x20;Most&#x20;of&#x20;existing&#x20;hair&#x20;capture&#x20;methods&#x20;use&#x20;2D&#x20;images&#x20;to&#x20;reconstruct&#x20;3D&#x20;hair,&#x20;and&#x20;these&#x20;methods&#x20;usually&#x20;adopt&#x20;3D&#x20;polygons&#x20;to&#x20;present&#x20;hair&#x20;wisp.&#x20;In&#x20;this&#x20;paper,&#x20;we&#x20;introduce&#x20;an&#x20;approach&#x20;to&#x20;capture&#x20;real-life&#x20;hair&#x20;using&#x20;Kinect&#x20;sensor&#x20;and&#x20;digital&#x20;single-lens&#x20;reflex&#x20;(DSLR)&#x20;camera&#x20;and&#x20;to&#x20;reconstruct&#x20;3D&#x20;hair&#x20;model&#x20;using&#x20;particle&#x20;system.&#x20;First,&#x20;our&#x20;method&#x20;collects&#x20;four&#x20;views&#x20;of&#x20;point&#x20;clouds&#x20;and&#x20;high&#x20;resolution&#x20;image&#x20;for&#x20;real-life&#x20;hair.&#x20;We&#x20;register&#x20;DSLR&#x20;image&#x20;and&#x20;point&#x20;cloud&#x20;to&#x20;build&#x20;the&#x20;mapping&#x20;relationship&#x20;between&#x20;2D&#x20;and&#x20;3D&#x20;and&#x20;the&#x20;alignment&#x20;techniques&#x20;are&#x20;utilized&#x20;to&#x20;merge&#x20;the&#x20;point&#x20;clouds.&#x20;With&#x20;the&#x20;manually&#x20;extracted&#x20;2D&#x20;hair&#x20;strands&#x20;from&#x20;the&#x20;DSLR&#x20;image,&#x20;the&#x20;system&#x20;used&#x20;control&#x20;points&#x20;to&#x20;represent&#x20;hair&#x20;strands&#x20;as&#x20;spline&#x20;curve.&#x20;Furthermore,&#x20;these&#x20;control&#x20;points&#x20;are&#x20;projected&#x20;on&#x20;the&#x20;point&#x20;cloud&#x20;to&#x20;find&#x20;the&#x20;corresponding&#x20;3D&#x20;control&#x20;points.&#x20;Finally&#x20;the&#x20;system&#x20;reconstructs&#x20;3D&#x20;hair&#x20;model&#x20;where&#x20;the&#x20;strands&#x20;are&#x20;represented&#x20;in&#x20;particle&#x20;system.&#x20;We&#x20;also&#x20;present&#x20;a&#x20;hidden&#x20;hair&#x20;pieces&#x20;recovery&#x20;algorithm&#x20;to&#x20;generate&#x20;final&#x20;well-connected&#x20;3D&#x20;hair&#x20;strands.&#x20;Our&#x20;method&#x20;is&#x20;novel&#x20;and&#x20;has&#x20;many&#x20;advantages:&#x20;(i)&#x20;hardware&#x20;setting&#x20;is&#x20;simple&#x20;and&#x20;affordable&#x20;(ii)&#x20;combination&#x20;of&#x20;high&#x20;quality&#x20;image&#x20;of&#x20;DSLR&#x20;and&#x20;depth&#x20;of&#x20;Kinect&#x20;taking&#x20;advantage&#x20;of&#x20;each&#x20;of&#x20;them&#x20;(iii)&#x20;the&#x20;2D&#x20;and&#x20;3D&#x20;combined&#x20;method&#x20;allows&#x20;us&#x20;to&#x20;repair&#x20;and&#x20;improve&#x20;the&#x20;quality&#x20;of&#x20;3D&#x20;depth&#x20;(iv)&#x20;Hair&#x20;representation&#x20;is&#x20;spline&#x20;based&#x20;which&#x20;is&#x20;a&#x20;particle&#x20;system&#x20;and&#x20;most&#x20;common&#x20;hair&#x20;animation&#x20;is&#x20;based&#x20;on&#x20;particle&#x20;system.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE</dcvalue>
<dcvalue element="title" qualifier="none">Hair&#x20;Modeling&#x20;using&#x20;Kinect&#x20;Sensors&#x20;and&#x20;DSLR&#x20;Cameras</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">11th&#x20;International&#x20;Conference&#x20;on&#x20;Ubiquitous&#x20;Robots&#x20;and&#x20;Ambient&#x20;Intelligence&#x20;(URAI),&#x20;pp.22&#x20;-&#x20;27</dcvalue>
<dcvalue element="citation" qualifier="title">11th&#x20;International&#x20;Conference&#x20;on&#x20;Ubiquitous&#x20;Robots&#x20;and&#x20;Ambient&#x20;Intelligence&#x20;(URAI)</dcvalue>
<dcvalue element="citation" qualifier="startPage">22</dcvalue>
<dcvalue element="citation" qualifier="endPage">27</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Kuala&#x20;Lumpur,&#x20;MALAYSIA</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2014-11-12</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">2014&#x20;11TH&#x20;INTERNATIONAL&#x20;CONFERENCE&#x20;ON&#x20;UBIQUITOUS&#x20;ROBOTS&#x20;AND&#x20;AMBIENT&#x20;INTELLIGENCE&#x20;(URAI)</dcvalue>
<dcvalue element="identifier" qualifier="wosid">000383742100007</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-84949925778</dcvalue>
</dublin_core>
