<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Oh,&#x20;Youngmin</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Hyunju</dcvalue>
<dcvalue element="contributor" qualifier="author">Ham,&#x20;Bumsub</dcvalue>
<dcvalue element="date" qualifier="accessioned">2025-09-01T00:00:29Z</dcvalue>
<dcvalue element="date" qualifier="available">2025-09-01T00:00:29Z</dcvalue>
<dcvalue element="date" qualifier="created">2025-09-01</dcvalue>
<dcvalue element="date" qualifier="issued">2025-04</dcvalue>
<dcvalue element="identifier" qualifier="issn">2159-5399</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;153090</dcvalue>
<dcvalue element="description" qualifier="abstract">Neural&#x20;architecture&#x20;search&#x20;(NAS)&#x20;enables&#x20;finding&#x20;the&#x20;best-performing&#x20;architecture&#x20;from&#x20;a&#x20;search&#x20;space&#x20;automatically.&#x20;Most&#x20;NAS&#x20;methods&#x20;exploit&#x20;an&#x20;over-parameterized&#x20;network&#x20;(i.e.,&#x20;a&#x20;supernet)&#x20;containing&#x20;all&#x20;possible&#x20;architectures&#x20;(i.e.,&#x20;subnets)&#x20;in&#x20;the&#x20;search&#x20;space.&#x20;However,&#x20;the&#x20;subnets&#x20;that&#x20;share&#x20;the&#x20;same&#x20;set&#x20;of&#x20;parameters&#x20;are&#x20;likely&#x20;to&#x20;have&#x20;different&#x20;characteristics,&#x20;interfering&#x20;with&#x20;each&#x20;other&#x20;during&#x20;training.&#x20;To&#x20;address&#x20;this,&#x20;few-shot&#x20;NAS&#x20;methods&#x20;have&#x20;been&#x20;proposed&#x20;that&#x20;divide&#x20;the&#x20;space&#x20;into&#x20;a&#x20;few&#x20;subspaces&#x20;and&#x20;employ&#x20;a&#x20;separate&#x20;supernet&#x20;for&#x20;each&#x20;subspace&#x20;to&#x20;limit&#x20;the&#x20;extent&#x20;of&#x20;weight&#x20;sharing.&#x20;They&#x20;achieve&#x20;state-of-the-art&#x20;performance,&#x20;but&#x20;the&#x20;computational&#x20;cost&#x20;increases&#x20;accordingly.&#x20;We&#x20;introduce&#x20;in&#x20;this&#x20;paper&#x20;a&#x20;novel&#x20;few-shot&#x20;NAS&#x20;method&#x20;that&#x20;exploits&#x20;the&#x20;number&#x20;of&#x20;nonlinear&#x20;functions&#x20;to&#x20;split&#x20;the&#x20;search&#x20;space.&#x20;To&#x20;be&#x20;specific,&#x20;our&#x20;method&#x20;divides&#x20;the&#x20;space&#x20;such&#x20;that&#x20;each&#x20;subspace&#x20;consists&#x20;of&#x20;subnets&#x20;with&#x20;the&#x20;same&#x20;number&#x20;of&#x20;nonlinear&#x20;functions.&#x20;Our&#x20;splitting&#x20;criterion&#x20;is&#x20;efficient,&#x20;since&#x20;it&#x20;does&#x20;not&#x20;require&#x20;comparing&#x20;gradients&#x20;of&#x20;a&#x20;supernet&#x20;to&#x20;split&#x20;the&#x20;space.&#x20;In&#x20;addition,&#x20;we&#x20;have&#x20;found&#x20;that&#x20;dividing&#x20;the&#x20;space&#x20;allows&#x20;us&#x20;to&#x20;reduce&#x20;the&#x20;channel&#x20;dimensions&#x20;required&#x20;for&#x20;each&#x20;supernet,&#x20;which&#x20;enables&#x20;training&#x20;multiple&#x20;supernets&#x20;in&#x20;an&#x20;efficient&#x20;manner.&#x20;We&#x20;also&#x20;introduce&#x20;a&#x20;supernet-balanced&#x20;sampling&#x20;(SBS)&#x20;technique,&#x20;sampling&#x20;several&#x20;subnets&#x20;at&#x20;each&#x20;training&#x20;step,&#x20;to&#x20;train&#x20;different&#x20;supernets&#x20;evenly&#x20;within&#x20;a&#x20;limited&#x20;number&#x20;of&#x20;training&#x20;steps.&#x20;Extensive&#x20;experiments&#x20;on&#x20;standard&#x20;NAS&#x20;benchmarks&#x20;demonstrate&#x20;the&#x20;effectiveness&#x20;of&#x20;our&#x20;approach.&#x20;Code&#x20;-&#x20;https:&#x2F;&#x2F;cvlab.yonsei.ac.kr&#x2F;projects&#x2F;EFS-NAS</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">ASSOC&#x20;ADVANCEMENT&#x20;ARTIFICIAL&#x20;INTELLIGENCE</dcvalue>
<dcvalue element="title" qualifier="none">Efficient&#x20;Few-Shot&#x20;Neural&#x20;Architecture&#x20;Search&#x20;by&#x20;Counting&#x20;the&#x20;Number&#x20;of&#x20;Nonlinear&#x20;Functions</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1609&#x2F;aaai.v39i18.34174</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">39th&#x20;AAAI&#x20;Conference&#x20;on&#x20;Artificial&#x20;Intelligence,&#x20;v.39,&#x20;no.18,&#x20;pp.19740&#x20;-&#x20;19748</dcvalue>
<dcvalue element="citation" qualifier="title">39th&#x20;AAAI&#x20;Conference&#x20;on&#x20;Artificial&#x20;Intelligence</dcvalue>
<dcvalue element="citation" qualifier="volume">39</dcvalue>
<dcvalue element="citation" qualifier="number">18</dcvalue>
<dcvalue element="citation" qualifier="startPage">19740</dcvalue>
<dcvalue element="citation" qualifier="endPage">19748</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Philadelphia,&#x20;PA</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2025-02-25</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">THIRTY-NINTH&#x20;AAAI&#x20;CONFERENCE&#x20;ON&#x20;ARTIFICIAL&#x20;INTELLIGENCE(AAAI-25)</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001477525800123</dcvalue>
</dublin_core>
