<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Jeong,&#x20;Dayena</dcvalue>
<dcvalue element="contributor" qualifier="author">Park,&#x20;Jaewoo</dcvalue>
<dcvalue element="contributor" qualifier="author">Jo,&#x20;Jeonghee</dcvalue>
<dcvalue element="contributor" qualifier="author">Park,&#x20;Jongkil</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Jae&#x20;wook</dcvalue>
<dcvalue element="contributor" qualifier="author">Jang,&#x20;Hyun&#x20;Jae</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Su&#x20;youn</dcvalue>
<dcvalue element="contributor" qualifier="author">Park,&#x20;Seongsik</dcvalue>
<dcvalue element="date" qualifier="accessioned">2025-02-21T01:00:27Z</dcvalue>
<dcvalue element="date" qualifier="available">2025-02-21T01:00:27Z</dcvalue>
<dcvalue element="date" qualifier="created">2025-02-11</dcvalue>
<dcvalue element="date" qualifier="issued">2024-08-03</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;151779</dcvalue>
<dcvalue element="description" qualifier="abstract">Objective:&#x20;Recent&#x20;deep&#x20;neural&#x20;networks&#x20;(DNNs),&#x20;such&#x20;as&#x20;diffusion&#x20;models&#x20;[1],&#x20;have&#x20;faced&#x20;high&#x20;computational&#x20;demands.&#x20;Thus,&#x20;spiking&#x20;neural&#x20;networks&#x20;(SNNs)&#x20;have&#x20;attracted&#x20;lots&#x20;of&#x20;attention&#x20;as&#x20;energy-efficient&#x20;neural&#x20;networks.&#x20;However,&#x20;conventional&#x20;spiking&#x20;neurons,&#x20;such&#x20;as&#x20;leaky&#x20;integrate-and-fire&#x20;neurons,&#x20;cannot&#x20;accurately&#x20;represent&#x20;complex&#x20;non-linear&#x20;activation&#x20;functions,&#x20;such&#x20;as&#x20;Swish&#x20;[2].&#x20;To&#x20;approximate&#x20;activation&#x20;functions&#x20;with&#x20;spiking&#x20;neurons,&#x20;few&#x20;spikes&#x20;(FS)&#x20;neurons&#x20;were&#x20;proposed&#x20;[3],&#x20;but&#x20;the&#x20;approximation&#x20;performance&#x20;was&#x20;limited&#x20;due&#x20;to&#x20;the&#x20;lack&#x20;of&#x20;training&#x20;methods&#x20;considering&#x20;the&#x20;neurons.&#x20;Thus,&#x20;we&#x20;propose&#x20;tendency-based&#x20;parameter&#x20;initialization&#x20;(TBPI)&#x20;to&#x20;enhance&#x20;the&#x20;approximation&#x20;of&#x20;activation&#x20;function&#x20;with&#x20;FS&#x20;neurons,&#x20;exploiting&#x20;temporal&#x20;dependencies&#x20;initializing&#x20;the&#x20;training&#x20;parameters.&#x20;&#x0A;&#x0A;Method:&#x20;Our&#x20;method&#x20;considers&#x20;the&#x20;temporal&#x20;dependencies&#x20;of&#x20;parameters&#x20;in&#x20;FS&#x20;neurons&#x20;when&#x20;setting&#x20;initial&#x20;values&#x20;for&#x20;training.&#x20;Motivating&#x20;with&#x20;the&#x20;fact&#x20;that&#x20;the&#x20;spiking&#x20;neurons&#x20;should&#x20;operate&#x20;continuously,&#x20;the&#x20;parameters&#x20;were&#x20;initialized&#x20;to&#x20;have&#x20;a&#x20;temporal&#x20;dependency.&#x20;Our&#x20;method&#x20;mainly&#x20;consists&#x20;of&#x20;three&#x20;steps.&#x20;The&#x20;first&#x20;step&#x20;is&#x20;pre-training,&#x20;where&#x20;local&#x20;optimized&#x20;parameters&#x20;are&#x20;obtained&#x20;by&#x20;training&#x20;from&#x20;random&#x20;initial&#x20;values.&#x20;The&#x20;parameters&#x20;(h(t),&#x20;d(t),&#x20;T(t)&#x20;(Fig.&#x20;1))&#x20;represent&#x20;the&#x20;reset&#x20;value&#x20;subtracted&#x20;from&#x20;the&#x20;membrane&#x20;potential,&#x20;the&#x20;weight&#x20;of&#x20;output&#x20;spikes,&#x20;and&#x20;the&#x20;threshold,&#x20;respectively.&#x20;The&#x20;second&#x20;step&#x20;is&#x20;function&#x20;fitting&#x20;to&#x20;obtain&#x20;the&#x20;temporal&#x20;relationship&#x20;of&#x20;the&#x20;pre-trained&#x20;parameters,&#x20;as&#x20;shown&#x20;in&#x20;Fig.&#x20;2.&#x20;The&#x20;third&#x20;step&#x20;is&#x20;to&#x20;extract&#x20;initial&#x20;values&#x20;of&#x20;parameters&#x20;from&#x20;the&#x20;fitted&#x20;function&#x20;at&#x20;each&#x20;time&#x20;step&#x20;t.&#x20;Then,&#x20;the&#x20;parameters&#x20;are&#x20;trained&#x20;with&#x20;the&#x20;initialization.&#x20;&#x0A;&#x0A;Results:&#x20;We&#x20;validated&#x20;the&#x20;proposed&#x20;method&#x20;with&#x20;approximation&#x20;of&#x20;Swish&#x20;at&#x20;the&#x20;neuron&#x20;level&#x20;and&#x20;diffusion&#x20;model&#x20;at&#x20;the&#x20;network&#x20;level.&#x20;To&#x20;evaluate&#x20;fairly,&#x20;we&#x20;compared&#x20;the&#x20;approximation&#x20;performance&#x20;of&#x20;random&#x20;initial&#x20;values,&#x20;initial&#x20;values&#x20;with&#x20;Gaussian&#x20;noise&#x20;added&#x20;after&#x20;pre-training,&#x20;and&#x20;our&#x20;method.&#x20;We&#x20;also&#x20;evaluated&#x20;the&#x20;performance&#x20;at&#x20;the&#x20;network&#x20;level&#x20;with&#x20;diffusion&#x20;model&#x20;with&#x20;the&#x20;trained&#x20;neurons&#x20;by&#x20;each&#x20;method.&#x20;According&#x20;to&#x20;our&#x20;experimental&#x20;results,&#x20;TBPI&#x20;demonstrates&#x20;more&#x20;accurate&#x20;approximation&#x20;of&#x20;Swish&#x20;activation&#x20;at&#x20;the&#x20;neuron&#x20;level&#x20;(Tab.&#x20;1),&#x20;which&#x20;leads&#x20;to&#x20;improved&#x20;performance&#x20;of&#x20;diffusion&#x20;model&#x20;(Tab.&#x20;2).&#x20;&#x0A;&#x0A;Conclusion:&#x20;TBPI&#x20;improves&#x20;the&#x20;generalization&#x20;in&#x20;training&#x20;of&#x20;FS&#x20;neurons&#x20;by&#x20;the&#x20;parameter&#x20;initialization,&#x20;showing&#x20;potential&#x20;in&#x20;other&#x20;non-linear&#x20;activation&#x20;functions&#x20;such&#x20;as&#x20;GELU&#x20;that&#x20;is&#x20;used&#x20;in&#x20;Transformer&#x20;architectures.&#x20;Therefore,&#x20;it&#x20;will&#x20;pave&#x20;the&#x20;way&#x20;to&#x20;energy-efficient&#x20;artificial&#x20;intelligence&#x20;by&#x20;enabling&#x20;various&#x20;deep&#x20;learning&#x20;models&#x20;to&#x20;be&#x20;implemented&#x20;with&#x20;deep&#x20;SNNs.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IJCAI</dcvalue>
<dcvalue element="title" qualifier="none">A&#x20;More&#x20;Accurate&#x20;Approximation&#x20;of&#x20;Activation&#x20;Function&#x20;with&#x20;Few&#x20;Spikes&#x20;Neurons</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">International&#x20;Joint&#x20;Conference&#x20;on&#x20;Artificial&#x20;Intelligence,&#x20;v.00,&#x20;no.00</dcvalue>
<dcvalue element="citation" qualifier="title">International&#x20;Joint&#x20;Conference&#x20;on&#x20;Artificial&#x20;Intelligence</dcvalue>
<dcvalue element="citation" qualifier="volume">00</dcvalue>
<dcvalue element="citation" qualifier="number">00</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">KO</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">ICC&#x20;Jeju</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2024-08</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">Workshop&#x20;on&#x20;Human&#x20;Brain&#x20;and&#x20;Artificial&#x20;Intelligence</dcvalue>
</dublin_core>
