<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Park,&#x20;SK</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;M</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;CW</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-19T14:38:59Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-19T14:38:59Z</dcvalue>
<dcvalue element="date" qualifier="created">2022-03-07</dcvalue>
<dcvalue element="date" qualifier="issued">2004</dcvalue>
<dcvalue element="identifier" qualifier="issn">1050-4729</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;117053</dcvalue>
<dcvalue element="description" qualifier="abstract">This&#x20;paper&#x20;describes&#x20;a&#x20;new&#x20;method&#x20;for&#x20;indoor&#x20;environment&#x20;mapping&#x20;and&#x20;localization&#x20;with&#x20;stereo&#x20;camera.&#x20;For&#x20;environmental&#x20;modeling,&#x20;we&#x20;directly&#x20;use&#x20;the&#x20;depth&#x20;and&#x20;color&#x20;information&#x20;in&#x20;image&#x20;pixels&#x20;as&#x20;visual&#x20;features.&#x20;Furthermore,&#x20;only&#x20;the&#x20;depth&#x20;and&#x20;color&#x20;information&#x20;at&#x20;horizontal&#x20;centerline&#x20;in&#x20;image&#x20;is&#x20;used,&#x20;where&#x20;optical&#x20;axis&#x20;passes&#x20;through.&#x20;The&#x20;usefulness&#x20;of&#x20;this&#x20;method&#x20;is&#x20;that&#x20;we&#x20;can&#x20;easily&#x20;build&#x20;a&#x20;measure&#x20;between&#x20;modeling&#x20;and&#x20;sensing&#x20;data&#x20;only&#x20;on&#x20;the&#x20;horizontal&#x20;centerline.&#x20;That&#x20;is&#x20;because&#x20;vertical&#x20;working&#x20;volume&#x20;between&#x20;model&#x20;and&#x20;sensing&#x20;data&#x20;can&#x20;be&#x20;changed&#x20;according&#x20;to&#x20;robot&#x20;motion.&#x20;Therefore,&#x20;we&#x20;can&#x20;build&#x20;a&#x20;map&#x20;about&#x20;indoor&#x20;environment&#x20;as&#x20;compact&#x20;and&#x20;efficient&#x20;representation.&#x20;Also,&#x20;based&#x20;on&#x20;such&#x20;nodes&#x20;and&#x20;sensing&#x20;data,&#x20;we&#x20;suggest&#x20;a&#x20;method&#x20;for&#x20;estimating&#x20;mobile&#x20;robot&#x20;positioning&#x20;with&#x20;random&#x20;sampling&#x20;stochastic&#x20;algorithm.&#x20;With&#x20;basic&#x20;real&#x20;experiments,&#x20;we&#x20;show&#x20;that&#x20;the&#x20;proposed&#x20;method&#x20;can&#x20;be&#x20;an&#x20;effective&#x20;visual&#x20;navigation&#x20;algorithm.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE</dcvalue>
<dcvalue element="title" qualifier="none">Mobile&#x20;robot&#x20;navigation&#x20;based&#x20;on&#x20;direct&#x20;depth&#x20;and&#x20;color-based&#x20;environment&#x20;modeling</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">IEEE&#x20;International&#x20;Conference&#x20;on&#x20;Robotics&#x20;and&#x20;Automation,&#x20;pp.4253&#x20;-&#x20;4258</dcvalue>
<dcvalue element="citation" qualifier="title">IEEE&#x20;International&#x20;Conference&#x20;on&#x20;Robotics&#x20;and&#x20;Automation</dcvalue>
<dcvalue element="citation" qualifier="startPage">4253</dcvalue>
<dcvalue element="citation" qualifier="endPage">4258</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">New&#x20;Orleans,&#x20;LA</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2004-04-26</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">2004&#x20;IEEE&#x20;INTERNATIONAL&#x20;CONFERENCE&#x20;ON&#x20;ROBOTICS&#x20;AND&#x20;AUTOMATION,&#x20;VOLS&#x20;1-&#x20;5,&#x20;PROCEEDINGS</dcvalue>
<dcvalue element="identifier" qualifier="wosid">000221794800683</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-3042552563</dcvalue>
<dcvalue element="type" qualifier="docType">Proceedings&#x20;Paper</dcvalue>
</dublin_core>
