<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Lee,&#x20;T.</dcvalue>
<dcvalue element="contributor" qualifier="author">Park,&#x20;S.-K.</dcvalue>
<dcvalue element="contributor" qualifier="author">Park,&#x20;M.</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-12T08:17:19Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-12T08:17:19Z</dcvalue>
<dcvalue element="date" qualifier="created">2022-03-07</dcvalue>
<dcvalue element="date" qualifier="issued">2005-05</dcvalue>
<dcvalue element="identifier" qualifier="issn">0000-0000</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;82044</dcvalue>
<dcvalue element="description" qualifier="abstract">We&#x20;propose&#x20;an&#x20;effective&#x20;facial&#x20;features&#x20;detection&#x20;method&#x20;for&#x20;human.robot&#x20;interaction&#x20;(HRI)&#x20;with&#x20;indoor&#x20;mobile&#x20;robot.&#x20;In&#x20;case&#x20;of&#x20;human-robot&#x20;interaction&#x20;at&#x20;mobile&#x20;robot,&#x20;its&#x20;vision&#x20;system&#x20;has&#x20;to&#x20;cope&#x20;with&#x20;difficult&#x20;problems&#x20;such&#x20;as&#x20;pose&#x20;variations,&#x20;illumination&#x20;changes,&#x20;and&#x20;complex&#x20;backgrounds,&#x20;which&#x20;problems&#x20;mainly&#x20;arise&#x20;from&#x20;the&#x20;movement&#x20;of&#x20;mobile&#x20;robot.&#x20;In&#x20;this&#x20;paper,&#x20;in&#x20;order&#x20;to&#x20;overcome&#x20;such&#x20;problems,&#x20;we&#x20;suggest&#x20;a&#x20;new&#x20;facial&#x20;feature&#x20;detection&#x20;approach&#x20;based&#x20;on&#x20;local&#x20;image&#x20;region&#x20;and&#x20;direct&#x20;pixel-intensity&#x20;distributions.&#x20;For&#x20;this,&#x20;we&#x20;propose&#x20;two&#x20;novel&#x20;concepts;&#x20;the&#x20;directional&#x20;template&#x20;for&#x20;evaluating&#x20;intensity&#x20;distributions&#x20;and&#x20;the&#x20;edge-like&#x20;blob&#x20;map&#x20;image&#x20;with&#x20;multiple&#x20;strength&#x20;intensity.&#x20;Using&#x20;this&#x20;blob&#x20;map&#x20;image,&#x20;we&#x20;show&#x20;that&#x20;the&#x20;locations&#x20;of&#x20;major&#x20;facial&#x20;features&#x20;.&#x20;two&#x20;eyes&#x20;and&#x20;a&#x20;mouth&#x20;.&#x20;can&#x20;be&#x20;reliably&#x20;estimated.&#x20;Without&#x20;boundary&#x20;information&#x20;of&#x20;facial&#x20;area,&#x20;final&#x20;candidate&#x20;face&#x20;region&#x20;is&#x20;determined&#x20;by&#x20;both&#x20;obtained&#x20;locations&#x20;of&#x20;facial&#x20;features&#x20;and&#x20;weighted&#x20;correlations&#x20;with&#x20;stored&#x20;facial&#x20;templates.&#x20;Our&#x20;approach&#x20;is&#x20;also&#x20;flexible&#x20;that&#x20;can&#x20;be&#x20;applicable&#x20;to&#x20;both&#x20;color&#x20;and&#x20;gray&#x20;image.&#x20;In&#x20;case&#x20;of&#x20;color&#x20;image,&#x20;all&#x20;detection&#x20;tasks&#x20;of&#x20;both&#x20;facial&#x20;features&#x20;and&#x20;face&#x20;are&#x20;rapidly&#x20;achieved&#x20;by&#x20;using&#x20;the&#x20;chromatic&#x20;property&#x20;of&#x20;facial&#x20;color.&#x20;Experimental&#x20;results&#x20;from&#x20;various&#x20;color&#x20;images&#x20;and&#x20;well-known&#x20;gray&#x20;level&#x20;face&#x20;database&#x20;images&#x20;show&#x20;the&#x20;usefulness&#x20;of&#x20;proposed&#x20;method&#x20;in&#x20;HRI&#x20;applications.&#x20;Copyright&#x20;？&#x20;2005&#x20;by&#x20;MVA&#x20;Conference&#x20;Committee.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IAPR</dcvalue>
<dcvalue element="title" qualifier="none">Novel&#x20;pose-variant&#x20;face&#x20;detection&#x20;method&#x20;for&#x20;human-robot&#x20;interaction&#x20;application</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">9th&#x20;IAPR&#x20;Conference&#x20;on&#x20;Machine&#x20;Vision&#x20;Applications,&#x20;MVA&#x20;2005,&#x20;pp.281&#x20;-&#x20;284</dcvalue>
<dcvalue element="citation" qualifier="title">9th&#x20;IAPR&#x20;Conference&#x20;on&#x20;Machine&#x20;Vision&#x20;Applications,&#x20;MVA&#x20;2005</dcvalue>
<dcvalue element="citation" qualifier="startPage">281</dcvalue>
<dcvalue element="citation" qualifier="endPage">284</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">JA</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Tsukuba&#x20;Science&#x20;City</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2005-05-16</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">Proceedings&#x20;of&#x20;the&#x20;9th&#x20;IAPR&#x20;Conference&#x20;on&#x20;Machine&#x20;Vision&#x20;Applications,&#x20;MVA&#x20;2005</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-84872538265</dcvalue>
</dublin_core>
