<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Kang,&#x20;Minsoo</dcvalue>
<dcvalue element="contributor" qualifier="author">MINKOO,&#x20;KANG</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Suhyun</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-11-18T10:00:11Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-11-18T10:00:11Z</dcvalue>
<dcvalue element="date" qualifier="created">2024-11-14</dcvalue>
<dcvalue element="date" qualifier="issued">2024-02</dcvalue>
<dcvalue element="identifier" qualifier="issn">2159-5399</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;151112</dcvalue>
<dcvalue element="description" qualifier="abstract">Deep&#x20;learning&#x20;has&#x20;made&#x20;significant&#x20;advances&#x20;in&#x20;computer&#x20;vision,&#x20;particularly&#x20;in&#x20;image&#x20;classification&#x20;tasks.&#x20;Despite&#x20;their&#x20;high&#x20;accuracy&#x20;on&#x20;training&#x20;data,&#x20;deep&#x20;learning&#x20;models&#x20;often&#x20;face&#x20;challenges&#x20;related&#x20;to&#x20;complexity&#x20;and&#x20;overfitting.&#x20;One&#x20;notable&#x20;concern&#x20;is&#x20;that&#x20;the&#x20;model&#x20;often&#x20;relies&#x20;heavily&#x20;on&#x20;a&#x20;limited&#x20;subset&#x20;of&#x20;filters&#x20;for&#x20;making&#x20;predictions.&#x20;This&#x20;dependency&#x20;can&#x20;result&#x20;in&#x20;compromised&#x20;generalization&#x20;and&#x20;an&#x20;increased&#x20;vulnerability&#x20;to&#x20;minor&#x20;variations.&#x20;While&#x20;regularization&#x20;techniques&#x20;like&#x20;weight&#x20;decay,&#x20;dropout,&#x20;and&#x20;data&#x20;augmentation&#x20;are&#x20;commonly&#x20;used&#x20;to&#x20;address&#x20;this&#x20;issue,&#x20;they&#x20;may&#x20;not&#x20;directly&#x20;tackle&#x20;the&#x20;reliance&#x20;on&#x20;specific&#x20;filters.&#x20;Our&#x20;observations&#x20;reveal&#x20;that&#x20;the&#x20;heavy&#x20;reliance&#x20;problem&#x20;gets&#x20;severe&#x20;when&#x20;slow-learning&#x20;filters&#x20;are&#x20;deprived&#x20;of&#x20;learning&#x20;opportunities&#x20;due&#x20;to&#x20;fast-learning&#x20;filters.&#x20;Drawing&#x20;inspiration&#x20;from&#x20;image&#x20;augmentation&#x20;research&#x20;that&#x20;combats&#x20;over-reliance&#x20;on&#x20;specific&#x20;image&#x20;regions&#x20;by&#x20;removing&#x20;and&#x20;replacing&#x20;parts&#x20;of&#x20;images,&#x20;our&#x20;idea&#x20;is&#x20;to&#x20;mitigate&#x20;the&#x20;problem&#x20;of&#x20;over-reliance&#x20;on&#x20;strong&#x20;filters&#x20;by&#x20;substituting&#x20;highly&#x20;activated&#x20;features.&#x20;To&#x20;this&#x20;end,&#x20;we&#x20;present&#x20;a&#x20;novel&#x20;method&#x20;called&#x20;Catch-up&#x20;Mix,&#x20;which&#x20;provides&#x20;learning&#x20;opportunities&#x20;to&#x20;a&#x20;wide&#x20;range&#x20;of&#x20;filters&#x20;during&#x20;training,&#x20;focusing&#x20;on&#x20;filters&#x20;that&#x20;may&#x20;lag&#x20;behind.&#x20;By&#x20;mixing&#x20;activation&#x20;maps&#x20;with&#x20;relatively&#x20;lower&#x20;norms,&#x20;Catch-up&#x20;Mix&#x20;promotes&#x20;the&#x20;development&#x20;of&#x20;more&#x20;diverse&#x20;representations&#x20;and&#x20;reduces&#x20;reliance&#x20;on&#x20;a&#x20;small&#x20;subset&#x20;of&#x20;filters.&#x20;Experimental&#x20;results&#x20;demonstrate&#x20;the&#x20;superiority&#x20;of&#x20;our&#x20;method&#x20;in&#x20;various&#x20;vision&#x20;classification&#x20;datasets,&#x20;providing&#x20;enhanced&#x20;robustness.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">Association&#x20;for&#x20;the&#x20;Advancement&#x20;of&#x20;Artificial&#x20;Intelligence</dcvalue>
<dcvalue element="title" qualifier="none">Catch-Up&#x20;Mix:&#x20;Catch-Up&#x20;Class&#x20;for&#x20;Struggling&#x20;Filters&#x20;in&#x20;CNN</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1609&#x2F;aaai.v38i3.28049</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">38th&#x20;AAAI&#x20;Conference&#x20;on&#x20;Artificial&#x20;Intelligence&#x20;(AAAI)&#x20;&#x2F;&#x20;36th&#x20;Conference&#x20;on&#x20;Innovative&#x20;Applications&#x20;of&#x20;Artificial&#x20;Intelligence&#x20;&#x2F;&#x20;14th&#x20;Symposium&#x20;on&#x20;Educational&#x20;Advances&#x20;in&#x20;Artificial&#x20;Intelligence,&#x20;pp.2705&#x20;-&#x20;2713</dcvalue>
<dcvalue element="citation" qualifier="title">38th&#x20;AAAI&#x20;Conference&#x20;on&#x20;Artificial&#x20;Intelligence&#x20;(AAAI)&#x20;&#x2F;&#x20;36th&#x20;Conference&#x20;on&#x20;Innovative&#x20;Applications&#x20;of&#x20;Artificial&#x20;Intelligence&#x20;&#x2F;&#x20;14th&#x20;Symposium&#x20;on&#x20;Educational&#x20;Advances&#x20;in&#x20;Artificial&#x20;Intelligence</dcvalue>
<dcvalue element="citation" qualifier="startPage">2705</dcvalue>
<dcvalue element="citation" qualifier="endPage">2713</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Vancouver,&#x20;Canada</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2024-02-20</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">THIRTY-EIGHTH&#x20;AAAI&#x20;CONFERENCE&#x20;ON&#x20;ARTIFICIAL&#x20;INTELLIGENCE,&#x20;VOL&#x20;38&#x20;NO&#x20;3</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001239881700103</dcvalue>
</dublin_core>
