<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Jiwon</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;GiJae</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Jun-Sik</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Hyunwoo&#x20;J.</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;KangGeon</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-19T09:09:41Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-19T09:09:41Z</dcvalue>
<dcvalue element="date" qualifier="created">2022-03-07</dcvalue>
<dcvalue element="date" qualifier="issued">2020-08</dcvalue>
<dcvalue element="identifier" qualifier="issn">1944-9445</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;113594</dcvalue>
<dcvalue element="description" qualifier="abstract">For&#x20;a&#x20;service&#x20;robot&#x20;to&#x20;assist&#x20;humans,&#x20;it&#x20;should&#x20;interact&#x20;with&#x20;objects&#x20;of&#x20;varying&#x20;sizes&#x20;and&#x20;shapes&#x20;existing&#x20;in&#x20;an&#x20;indoor&#x20;environment.&#x20;3D&#x20;object&#x20;detection&#x20;must&#x20;be&#x20;preceded&#x20;to&#x20;achieve&#x20;this&#x20;goal&#x20;since&#x20;it&#x20;provides&#x20;the&#x20;robot&#x20;with&#x20;the&#x20;ability&#x20;to&#x20;perceive&#x20;visual&#x20;information.&#x20;Most&#x20;of&#x20;the&#x20;existing&#x20;methods&#x20;are&#x20;anchor-based&#x20;and&#x20;predict&#x20;the&#x20;bounding&#x20;box&#x20;close&#x20;to&#x20;the&#x20;ground&#x20;truth&#x20;among&#x20;multiple&#x20;candidates.&#x20;However,&#x20;it&#x20;is&#x20;complex&#x20;to&#x20;compute&#x20;Intersection&#x20;over&#x20;Union&#x20;(IoU)&#x20;and&#x20;Non-Maximum&#x20;Suppression&#x20;(NMS)&#x20;per&#x20;each&#x20;anchor&#x20;box.&#x20;Therefore,&#x20;we&#x20;propose&#x20;keypoint-based&#x20;monocular&#x20;3D&#x20;object&#x20;detection,&#x20;where&#x20;each&#x20;object&amp;apos;s&#x20;center&#x20;location&#x20;is&#x20;only&#x20;needed&#x20;for&#x20;reproducing&#x20;predicted&#x20;3D&#x20;bounding&#x20;box&#x20;without&#x20;extra&#x20;computation&#x20;of&#x20;the&#x20;anchor&#x20;boxes.&#x20;Our&#x20;3D&#x20;object&#x20;detection&#x20;also&#x20;works&#x20;well&#x20;even&#x20;if&#x20;images&#x20;are&#x20;rotated&#x20;corresponding&#x20;to&#x20;the&#x20;robot&amp;apos;s&#x20;head&#x20;movement.&#x20;To&#x20;properly&#x20;train&#x20;our&#x20;network,&#x20;the&#x20;object&#x20;center&#x20;is&#x20;based&#x20;on&#x20;a&#x20;projected&#x20;3D&#x20;location&#x20;instead&#x20;of&#x20;2D&#x20;to&#x20;take&#x20;advantage&#x20;of&#x20;the&#x20;exact&#x20;center&#x20;position&#x20;of&#x20;the&#x20;object.&#x20;Furthermore,&#x20;we&#x20;apply&#x20;data&#x20;augmentation&#x20;using&#x20;a&#x20;perspective&#x20;transformation.&#x20;The&#x20;method&#x20;facilitates&#x20;adding&#x20;a&#x20;small&#x20;perturbation&#x20;to&#x20;the&#x20;camera&#x20;rotation&#x20;angle&#x20;randomly.&#x20;We&#x20;use&#x20;the&#x20;SUN&#x20;RGB-D&#x20;dataset,&#x20;which&#x20;has&#x20;images&#x20;taken&#x20;indoor&#x20;scenes&#x20;with&#x20;camera&#x20;rotations&#x20;for&#x20;training&#x20;and&#x20;test&#x20;set.&#x20;Our&#x20;approach&#x20;particularly&#x20;shows&#x20;that&#x20;the&#x20;errors&#x20;of&#x20;object&#x20;center&#x20;location&#x20;based&#x20;on&#x20;a&#x20;single&#x20;image&#x20;reduce&#x20;15.4%&#x20;and&#x20;24.2%,&#x20;respectively,&#x20;compared&#x20;to&#x20;the&#x20;method&#x20;without&#x20;data&#x20;augmentation.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE</dcvalue>
<dcvalue element="title" qualifier="none">Monocular&#x20;3D&#x20;object&#x20;detection&#x20;for&#x20;an&#x20;indoor&#x20;robot&#x20;environment</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">29th&#x20;IEEE&#x20;International&#x20;Conference&#x20;on&#x20;Robot&#x20;and&#x20;Human&#x20;Interactive&#x20;Communication&#x20;(IEEE&#x20;RO-MAN),&#x20;pp.438&#x20;-&#x20;445</dcvalue>
<dcvalue element="citation" qualifier="title">29th&#x20;IEEE&#x20;International&#x20;Conference&#x20;on&#x20;Robot&#x20;and&#x20;Human&#x20;Interactive&#x20;Communication&#x20;(IEEE&#x20;RO-MAN)</dcvalue>
<dcvalue element="citation" qualifier="startPage">438</dcvalue>
<dcvalue element="citation" qualifier="endPage">445</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">ELECTR&#x20;NETWORK</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2020-08-31</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">2020&#x20;29TH&#x20;IEEE&#x20;INTERNATIONAL&#x20;CONFERENCE&#x20;ON&#x20;ROBOT&#x20;AND&#x20;HUMAN&#x20;INTERACTIVE&#x20;COMMUNICATION&#x20;(RO-MAN)</dcvalue>
<dcvalue element="identifier" qualifier="wosid">000598571700063</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85095723650</dcvalue>
</dublin_core>
