<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Kwonyoung</dcvalue>
<dcvalue element="contributor" qualifier="author">Park,&#x20;Jungin</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Jin</dcvalue>
<dcvalue element="contributor" qualifier="author">Kwon,&#x20;Hyeongjun</dcvalue>
<dcvalue element="contributor" qualifier="author">Sohn,&#x20;Kwanghoon</dcvalue>
<dcvalue element="date" qualifier="accessioned">2026-02-25T00:30:17Z</dcvalue>
<dcvalue element="date" qualifier="available">2026-02-25T00:30:17Z</dcvalue>
<dcvalue element="date" qualifier="created">2026-02-20</dcvalue>
<dcvalue element="date" qualifier="issued">2025</dcvalue>
<dcvalue element="identifier" qualifier="issn">1063-6919</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;154353</dcvalue>
<dcvalue element="description" qualifier="abstract">Parameter-efficient&#x20;tuning&#x20;(PET)&#x20;aims&#x20;to&#x20;transfer&#x20;pre-trained&#x20;foundation&#x20;models&#x20;to&#x20;downstream&#x20;tasks&#x20;by&#x20;learning&#x20;a&#x20;small&#x20;number&#x20;of&#x20;parameters.&#x20;Compared&#x20;to&#x20;traditional&#x20;fine-tuning,&#x20;which&#x20;updates&#x20;the&#x20;entire&#x20;model,&#x20;PET&#x20;significantly&#x20;reduces&#x20;storage&#x20;and&#x20;transfer&#x20;costs&#x20;for&#x20;each&#x20;task&#x20;regardless&#x20;of&#x20;exponentially&#x20;increasing&#x20;pre-trained&#x20;model&#x20;capacity.&#x20;However,&#x20;most&#x20;PET&#x20;methods&#x20;inherit&#x20;the&#x20;inference&#x20;latency&#x20;of&#x20;their&#x20;large&#x20;backbone&#x20;models&#x20;and&#x20;often&#x20;introduce&#x20;additional&#x20;computational&#x20;overhead&#x20;due&#x20;to&#x20;additional&#x20;modules&#x20;(e.g.&#x20;adapters),&#x20;limiting&#x20;their&#x20;practicality&#x20;for&#x20;compute-intensive&#x20;applications.&#x20;In&#x20;this&#x20;paper,&#x20;we&#x20;propose&#x20;Faster&#x20;Parameter-Efficient&#x20;Tuning&#x20;(FPET),&#x20;a&#x20;novel&#x20;approach&#x20;that&#x20;enhances&#x20;inference&#x20;speed&#x20;and&#x20;training&#x20;efficiency&#x20;while&#x20;maintaining&#x20;high&#x20;storage&#x20;efficiency.&#x20;Specifically,&#x20;we&#x20;introduce&#x20;a&#x20;plug-and-play&#x20;token&#x20;redundancy&#x20;reduction&#x20;module&#x20;delicately&#x20;designed&#x20;for&#x20;PET.&#x20;This&#x20;module&#x20;refines&#x20;tokens&#x20;from&#x20;the&#x20;self-attention&#x20;layer&#x20;using&#x20;an&#x20;adapter&#x20;to&#x20;learn&#x20;the&#x20;accurate&#x20;similarity&#x20;between&#x20;tokens&#x20;and&#x20;cuts&#x20;off&#x20;the&#x20;tokens&#x20;through&#x20;a&#x20;fully-differentiable&#x20;token&#x20;merging&#x20;strategy,&#x20;which&#x20;uses&#x20;a&#x20;straight-through&#x20;estimator&#x20;for&#x20;optimal&#x20;token&#x20;reduction.&#x20;Experimental&#x20;results&#x20;prove&#x20;that&#x20;our&#x20;FPET&#x20;achieves&#x20;faster&#x20;inference&#x20;and&#x20;higher&#x20;memory&#x20;efficiency&#x20;than&#x20;the&#x20;pre-trained&#x20;backbone&#x20;while&#x20;keeping&#x20;competitive&#x20;performance&#x20;on&#x20;par&#x20;with&#x20;state-of-the-art&#x20;PET&#x20;methods.&#x20;The&#x20;code&#x20;is&#x20;available&#x20;at&#x20;https:&#x2F;&#x2F;github.com&#x2F;kyk120&#x2F;fpet.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE&#x20;COMPUTER&#x20;SOC</dcvalue>
<dcvalue element="title" qualifier="none">Faster&#x20;Parameter-Efficient&#x20;Tuning&#x20;with&#x20;Token&#x20;Redundancy&#x20;Reduction</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1109&#x2F;CVPR52734.2025.02810</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">2025&#x20;Conference&#x20;on&#x20;Computer&#x20;Vision&#x20;and&#x20;Pattern&#x20;Recognition-CVPR-Annual,&#x20;pp.30189&#x20;-&#x20;30198</dcvalue>
<dcvalue element="citation" qualifier="title">2025&#x20;Conference&#x20;on&#x20;Computer&#x20;Vision&#x20;and&#x20;Pattern&#x20;Recognition-CVPR-Annual</dcvalue>
<dcvalue element="citation" qualifier="startPage">30189</dcvalue>
<dcvalue element="citation" qualifier="endPage">30198</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Nashville,&#x20;TN</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2025-06-10</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">2025&#x20;IEEE&#x2F;CVF&#x20;CONFERENCE&#x20;ON&#x20;COMPUTER&#x20;VISION&#x20;AND&#x20;PATTERN&#x20;RECOGNITION&#x20;(CVPR)</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001601181100570</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-105017072261</dcvalue>
</dublin_core>
