<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">박순용</dcvalue>
<dcvalue element="contributor" qualifier="author">박민용</dcvalue>
<dcvalue element="contributor" qualifier="author">박성기</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-20T22:35:32Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-20T22:35:32Z</dcvalue>
<dcvalue element="date" qualifier="created">2021-09-06</dcvalue>
<dcvalue element="date" qualifier="issued">2008-09</dcvalue>
<dcvalue element="identifier" qualifier="issn">1975-6291</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;133178</dcvalue>
<dcvalue element="description" qualifier="abstract">This&#x20;paper&#x20;describes&#x20;a&#x20;new&#x20;method&#x20;for&#x20;indoor&#x20;environment&#x20;mapping&#x20;and&#x20;localization&#x20;with&#x20;stereo&#x0A;camera.&#x20;For&#x20;environmental&#x20;modeling,&#x20;we&#x20;directly&#x20;use&#x20;the&#x20;depth&#x20;and&#x20;color&#x20;information&#x20;in&#x20;image&#x20;pixels&#x0A;as&#x20;visual&#x20;features.&#x20;Furthermore,&#x20;only&#x20;the&#x20;depth&#x20;and&#x20;color&#x20;information&#x20;at&#x20;horizontal&#x20;centerline&#x20;in&#x20;image&#x0A;is&#x20;used,&#x20;where&#x20;optical&#x20;axis&#x20;passes&#x20;through.&#x20;The&#x20;usefulness&#x20;of&#x20;this&#x20;method&#x20;is&#x20;that&#x20;we&#x20;can&#x20;easily&#x20;build&#x0A;a&#x20;measure&#x20;between&#x20;modeling&#x20;and&#x20;sensing&#x20;data&#x20;only&#x20;on&#x20;the&#x20;horizontal&#x20;centerline.&#x20;That&#x20;is&#x20;because&#x20;vertical&#x0A;working&#x20;volume&#x20;between&#x20;model&#x20;and&#x20;sensing&#x20;data&#x20;can&#x20;be&#x20;changed&#x20;according&#x20;to&#x20;robot&#x20;motion.&#x20;Therefore,&#x0A;we&#x20;can&#x20;build&#x20;a&#x20;map&#x20;about&#x20;indoor&#x20;environment&#x20;as&#x20;compact&#x20;and&#x20;efficient&#x20;representation.&#x20;Also,&#x20;based&#x20;on&#x0A;such&#x20;nodes&#x20;and&#x20;sensing&#x20;data,&#x20;we&#x20;suggest&#x20;a&#x20;method&#x20;for&#x20;estimating&#x20;mobile&#x20;robot&#x20;positioning&#x20;with&#x20;random&#x0A;sampling&#x20;stochastic&#x20;algorithm.&#x20;With&#x20;basic&#x20;real&#x20;experiments,&#x20;we&#x20;show&#x20;that&#x20;the&#x20;proposed&#x20;method&#x20;can&#x20;be&#x0A;an&#x20;effective&#x20;visual&#x20;navigation&#x20;algorithm.</dcvalue>
<dcvalue element="language" qualifier="none">Korean</dcvalue>
<dcvalue element="publisher" qualifier="none">한국로봇학회</dcvalue>
<dcvalue element="title" qualifier="none">스테레오&#x20;비전&#x20;센서의&#x20;깊이&#x20;및&#x20;색상&#x20;정보를&#x20;이용한&#x20;환경&#x20;모델링&#x20;기반의&#x20;이동로봇&#x20;주행기술</dcvalue>
<dcvalue element="title" qualifier="alternative">Direct&#x20;Depth&#x20;and&#x20;Color-based&#x20;Environment&#x20;Modeling&#x20;and&#x20;Mobile&#x20;Robot&#x20;Navigation</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="description" qualifier="journalClass">2</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">로봇학회&#x20;논문지,&#x20;v.3,&#x20;no.3,&#x20;pp.194&#x20;-&#x20;202</dcvalue>
<dcvalue element="citation" qualifier="title">로봇학회&#x20;논문지</dcvalue>
<dcvalue element="citation" qualifier="volume">3</dcvalue>
<dcvalue element="citation" qualifier="number">3</dcvalue>
<dcvalue element="citation" qualifier="startPage">194</dcvalue>
<dcvalue element="citation" qualifier="endPage">202</dcvalue>
<dcvalue element="identifier" qualifier="kciid">ART001417225</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Vision-based&#x20;navigation</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">stereo&#x20;vision</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">direct&#x20;method</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">map&#x20;building</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">localization</dcvalue>
</dublin_core>
