<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Lohani,&#x20;Lalit</dcvalue>
<dcvalue element="contributor" qualifier="author">Thakare,&#x20;Kamalakar&#x20;Vijay</dcvalue>
<dcvalue element="contributor" qualifier="author">Nayak,&#x20;Kamakshya&#x20;Prasad</dcvalue>
<dcvalue element="contributor" qualifier="author">Dogra,&#x20;Debi&#x20;Prosad</dcvalue>
<dcvalue element="contributor" qualifier="author">Choi,&#x20;Heeseung</dcvalue>
<dcvalue element="contributor" qualifier="author">Jung,&#x20;Hyungjoo</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Ig-Jae</dcvalue>
<dcvalue element="date" qualifier="accessioned">2025-12-29T07:30:06Z</dcvalue>
<dcvalue element="date" qualifier="available">2025-12-29T07:30:06Z</dcvalue>
<dcvalue element="date" qualifier="created">2025-11-19</dcvalue>
<dcvalue element="date" qualifier="issued">2025-12</dcvalue>
<dcvalue element="identifier" qualifier="issn">0302-9743</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;153902</dcvalue>
<dcvalue element="description" qualifier="abstract">The&#x20;goal&#x20;of&#x20;pedestrian&#x20;attribute&#x20;recognition&#x20;(PAR)&#x20;is&#x20;to&#x20;detect&#x20;and&#x20;classify&#x20;a&#x20;wide&#x20;range&#x20;of&#x20;pedestrian&#x20;attributes,&#x20;such&#x20;as&#x20;gender,&#x20;carrying&#x20;objects,&#x20;clothing&#x20;styles,&#x20;body&#x20;postures,&#x20;age&#x20;groups,&#x20;and&#x20;more.&#x20;It&#x20;plays&#x20;a&#x20;vital&#x20;role&#x20;in&#x20;computer&#x20;vision,&#x20;specifically&#x20;in&#x20;crucial&#x20;applications&#x20;such&#x20;as&#x20;behaviour&#x20;analysis,&#x20;public&#x20;safety&#x20;monitoring,&#x20;and&#x20;video&#x20;surveillance.&#x20;However,&#x20;existing&#x20;PAR&#x20;approaches&#x20;are&#x20;unable&#x20;to&#x20;achieve&#x20;substantial&#x20;performance&#x20;due&#x20;to&#x20;multiple&#x20;factors.&#x20;First,&#x20;multiple&#x20;appearances&#x20;of&#x20;the&#x20;same&#x20;attribute&#x20;confuse&#x20;the&#x20;models.&#x20;Second,&#x20;adverse&#x20;weather&#x20;and&#x20;lighting&#x20;conditions&#x20;restrict&#x20;model&#x20;generalization&#x20;capability.&#x20;To&#x20;mitigate&#x20;these&#x20;challenges,&#x20;this&#x20;paper&#x20;proposes&#x20;a&#x20;new&#x20;evaluation&#x20;baseline&#x20;that&#x20;uses&#x20;Vision&#x20;Transformer&#x20;(ViT)&#x20;blocks&#x20;for&#x20;hierarchical&#x20;feature&#x20;modelling.&#x20;The&#x20;approach&#x20;categorizes&#x20;attributes&#x20;into&#x20;different&#x20;spatial&#x20;granularity&#x20;levels&#x20;and&#x20;employs&#x20;diverse&#x20;patch&#x20;formations&#x20;to&#x20;extract&#x20;discriminative&#x20;features.&#x20;Furthermore,&#x20;we&#x20;introduce&#x20;an&#x20;enhanced&#x20;loss&#x20;function&#x20;for&#x20;stable&#x20;training&#x20;in&#x20;the&#x20;re-formulated&#x20;granularity&#x20;scenario,&#x20;where&#x20;a&#x20;novel&#x20;attribute-aware&#x20;granularity&#x20;factor&#x20;influences&#x20;the&#x20;loss.&#x20;The&#x20;proposed&#x20;baseline&#x20;has&#x20;been&#x20;extensively&#x20;evaluated&#x20;on&#x20;the&#x20;three&#x20;popular&#x20;PAR&#x20;datasets,&#x20;namely&#x20;RAP,&#x20;PA100K&#x20;and&#x20;PETA.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">SPRINGER&#x20;INTERNATIONAL&#x20;PUBLISHING&#x20;AG</dcvalue>
<dcvalue element="title" qualifier="none">Pedestrian&#x20;Attribute&#x20;Recognition&#x20;Using&#x20;Hierarchical&#x20;Transformers</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1007&#x2F;978-3-031-78444-6_6</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">27th&#x20;International&#x20;Conference&#x20;on&#x20;Pattern&#x20;Recognition-ICPR-Annual,&#x20;v.15316,&#x20;pp.78&#x20;-&#x20;93</dcvalue>
<dcvalue element="citation" qualifier="title">27th&#x20;International&#x20;Conference&#x20;on&#x20;Pattern&#x20;Recognition-ICPR-Annual</dcvalue>
<dcvalue element="citation" qualifier="volume">15316</dcvalue>
<dcvalue element="citation" qualifier="startPage">78</dcvalue>
<dcvalue element="citation" qualifier="endPage">93</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">SZ</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Kolkata,&#x20;INDIA</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2024-12-01</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">PATTERN&#x20;RECOGNITION,&#x20;ICPR&#x20;2024,&#x20;PT&#x20;XVI</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001565053600006</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85212500007</dcvalue>
</dublin_core>
