<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Soni,&#x20;Komal</dcvalue>
<dcvalue element="contributor" qualifier="author">Dogra,&#x20;Debi&#x20;Prosad</dcvalue>
<dcvalue element="contributor" qualifier="author">Sekh,&#x20;Arif&#x20;Ahmed</dcvalue>
<dcvalue element="contributor" qualifier="author">Kar,&#x20;Samarjit</dcvalue>
<dcvalue element="contributor" qualifier="author">Choi,&#x20;Heeseung</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Ig-Jae</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-12T02:33:58Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-12T02:33:58Z</dcvalue>
<dcvalue element="date" qualifier="created">2023-01-12</dcvalue>
<dcvalue element="date" qualifier="issued">2022-12</dcvalue>
<dcvalue element="identifier" qualifier="issn">0957-4174</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;75876</dcvalue>
<dcvalue element="description" qualifier="abstract">Information&#x20;contained&#x20;in&#x20;visual&#x20;appearance&#x20;and&#x20;gait&#x20;features&#x20;can&#x20;play&#x20;an&#x20;important&#x20;role&#x20;in&#x20;designing&#x20;computer&#x20;vision&#x20;assisted&#x20;person&#x20;re-identification&#x20;(ReID)&#x20;systems.&#x20;Fusion&#x20;of&#x20;appearance&#x20;and&#x20;gait&#x20;features&#x20;has&#x20;not&#x20;yet&#x20;been&#x20;tested&#x20;in&#x20;this&#x20;domain&#x20;of&#x20;research&#x20;despite&#x20;its&#x20;great&#x20;potential&#x20;to&#x20;solve&#x20;some&#x20;of&#x20;the&#x20;intriguing&#x20;challenges&#x20;faced&#x20;by&#x20;the&#x20;research&#x20;community&#x20;due&#x20;to&#x20;viewpoint&#x20;variations,&#x20;illumination&#x20;change,&#x20;varying&#x20;recording&#x20;setups,&#x20;etc.&#x20;This&#x20;paper&#x20;proposes&#x20;a&#x20;new&#x20;deep&#x20;learning&#x20;framework&#x20;for&#x20;person&#x20;re-identification&#x20;in&#x20;videos.&#x20;The&#x20;framework&#x20;referred&#x20;to&#x20;as&#x20;Fused&#x20;Graph&#x20;Network&#x20;(FGN-ReID)&#x20;uses&#x20;an&#x20;information&#x20;fusion&#x20;strategy&#x20;to&#x20;deal&#x20;with&#x20;the&#x20;aforementioned&#x20;variations.&#x20;We&#x20;have&#x20;used&#x20;visual&#x20;appearance&#x20;and&#x20;gait&#x20;features&#x20;independently&#x20;and&#x20;fused&#x20;these&#x20;features&#x20;for&#x20;re-identification&#x20;of&#x20;persons&#x20;in&#x20;close&#x20;shot&#x20;indoor&#x20;video&#x20;recordings.&#x20;A&#x20;feature&#x20;similarity-based&#x20;score-level&#x20;fusion&#x20;strategy&#x20;has&#x20;been&#x20;adopted&#x20;to&#x20;fuse&#x20;spatio-temporal&#x20;and&#x20;gait&#x20;features&#x20;using&#x20;Graph&#x20;Convolutional&#x20;Networks&#x20;(GCN).&#x20;The&#x20;ReID&#x20;problem&#x20;has&#x20;been&#x20;mapped&#x20;to&#x20;an&#x20;inherent&#x20;graph&#x20;searching&#x20;problem.&#x20;In&#x20;our&#x20;proposed&#x20;framework,&#x20;appearance&#x20;and&#x20;gait&#x20;features&#x20;represent&#x20;the&#x20;nodes.&#x20;And&#x20;the&#x20;relations&#x20;between&#x20;spatio-temporal&#x20;segments&#x20;denote&#x20;the&#x20;edges.&#x20;Experiments&#x20;using&#x20;CASIA-B&#x20;dataset&#x20;reveal&#x20;that&#x20;the&#x20;proposed&#x20;method&#x20;is&#x20;more&#x20;effective&#x20;as&#x20;compared&#x20;to&#x20;existing&#x20;methods.&#x20;We&#x20;have&#x20;improved&#x20;the&#x20;rank-1&#x20;accuracy&#x20;by&#x20;a&#x20;margin&#x20;of&#x20;8%？12%&#x20;as&#x20;compared&#x20;to&#x20;the&#x20;baseline&#x20;algorithms.&#x20;The&#x20;mean&#x20;average&#x20;precision&#x20;(mAP)&#x20;has&#x20;improved&#x20;significantly.&#x20;The&#x20;method&#x20;has&#x20;several&#x20;applications&#x20;including&#x20;visual&#x20;surveillance,&#x20;biometric&#x20;authentication,&#x20;etc.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">Pergamon&#x20;Press&#x20;Ltd.</dcvalue>
<dcvalue element="title" qualifier="none">Person&#x20;re-identification&#x20;in&#x20;indoor&#x20;videos&#x20;by&#x20;information&#x20;fusion&#x20;using&#x20;Graph&#x20;Convolutional&#x20;Networks</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1016&#x2F;j.eswa.2022.118363</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">Expert&#x20;Systems&#x20;with&#x20;Applications,&#x20;v.210,&#x20;pp.1&#x20;-&#x20;12</dcvalue>
<dcvalue element="citation" qualifier="title">Expert&#x20;Systems&#x20;with&#x20;Applications</dcvalue>
<dcvalue element="citation" qualifier="volume">210</dcvalue>
<dcvalue element="citation" qualifier="startPage">1</dcvalue>
<dcvalue element="citation" qualifier="endPage">12</dcvalue>
<dcvalue element="description" qualifier="isOpenAccess">N</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
</dublin_core>
