<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Kim,&#x20;S.-W.</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;J.-Y.</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;D.</dcvalue>
<dcvalue element="contributor" qualifier="author">You,&#x20;B.-J.</dcvalue>
<dcvalue element="contributor" qualifier="author">Doh,&#x20;N.L.</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-12T06:56:52Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-12T06:56:52Z</dcvalue>
<dcvalue element="date" qualifier="created">2022-03-07</dcvalue>
<dcvalue element="date" qualifier="issued">2011-11</dcvalue>
<dcvalue element="identifier" qualifier="issn">0000-0000</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;80437</dcvalue>
<dcvalue element="description" qualifier="abstract">In&#x20;this&#x20;paper,&#x20;a&#x20;method&#x20;for&#x20;accurate&#x20;human&#x20;localization&#x20;using&#x20;a&#x20;sequential&#x20;fusion&#x20;of&#x20;sound&#x20;and&#x20;vision&#x20;is&#x20;proposed.&#x20;Although&#x20;the&#x20;sound&#x20;localization&#x20;alone&#x20;works&#x20;well&#x20;in&#x20;most&#x20;cases,&#x20;there&#x20;are&#x20;situations&#x20;such&#x20;as&#x20;noisy&#x20;environment&#x20;and&#x20;small&#x20;inter-microphone&#x20;distance,&#x20;which&#x20;may&#x20;produce&#x20;wrong&#x20;or&#x20;poor&#x20;results.&#x20;A&#x20;vision&#x20;system&#x20;also&#x20;has&#x20;deficiency,&#x20;such&#x20;as&#x20;limited&#x20;visual&#x20;field.&#x20;To&#x20;solve&#x20;these&#x20;problems&#x20;we&#x20;propose&#x20;a&#x20;method&#x20;that&#x20;combines&#x20;sound&#x20;localization&#x20;and&#x20;vision&#x20;in&#x20;real&#x20;time.&#x20;Particularly,&#x20;a&#x20;robot&#x20;finds&#x20;rough&#x20;location&#x20;of&#x20;the&#x20;speaker&#x20;via&#x20;sound&#x20;source&#x20;localization,&#x20;and&#x20;then&#x20;using&#x20;vision&#x20;to&#x20;increase&#x20;the&#x20;accuracy&#x20;of&#x20;the&#x20;location.&#x20;Experimental&#x20;results&#x20;show&#x20;that&#x20;the&#x20;proposed&#x20;method&#x20;is&#x20;more&#x20;accurate&#x20;and&#x20;reliable&#x20;than&#x20;the&#x20;results&#x20;of&#x20;pure&#x20;sound&#x20;localization.&#x20;？&#x20;2011&#x20;IEEE.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE</dcvalue>
<dcvalue element="title" qualifier="none">Human&#x20;localization&#x20;based&#x20;on&#x20;the&#x20;fusion&#x20;of&#x20;vision&#x20;and&#x20;sound&#x20;system</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1109&#x2F;URAI.2011.6145870</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">2011&#x20;8th&#x20;International&#x20;Conference&#x20;on&#x20;Ubiquitous&#x20;Robots&#x20;and&#x20;Ambient&#x20;Intelligence,&#x20;URAI&#x20;2011,&#x20;pp.495&#x20;-&#x20;498</dcvalue>
<dcvalue element="citation" qualifier="title">2011&#x20;8th&#x20;International&#x20;Conference&#x20;on&#x20;Ubiquitous&#x20;Robots&#x20;and&#x20;Ambient&#x20;Intelligence,&#x20;URAI&#x20;2011</dcvalue>
<dcvalue element="citation" qualifier="startPage">495</dcvalue>
<dcvalue element="citation" qualifier="endPage">498</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Incheon</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2011-11-23</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">URAI&#x20;2011&#x20;-&#x20;2011&#x20;8th&#x20;International&#x20;Conference&#x20;on&#x20;Ubiquitous&#x20;Robots&#x20;and&#x20;Ambient&#x20;Intelligence</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-84863175798</dcvalue>
</dublin_core>
