<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Ha,&#x20;Jiyeon</dcvalue>
<dcvalue element="contributor" qualifier="author">Baek,&#x20;Seung-Cheol</dcvalue>
<dcvalue element="contributor" qualifier="author">Lim,&#x20;Yoonseob</dcvalue>
<dcvalue element="contributor" qualifier="author">Chung,&#x20;Jae&#x20;Ho</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-02-07T05:12:58Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-02-07T05:12:58Z</dcvalue>
<dcvalue element="date" qualifier="created">2024-02-07</dcvalue>
<dcvalue element="date" qualifier="issued">2023-12</dcvalue>
<dcvalue element="identifier" qualifier="issn">2045-2322</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;148548</dcvalue>
<dcvalue element="description" qualifier="abstract">When&#x20;individuals&#x20;listen&#x20;to&#x20;speech,&#x20;their&#x20;neural&#x20;activity&#x20;phase-locks&#x20;to&#x20;the&#x20;slow&#x20;temporal&#x20;rhythm,&#x20;which&#x20;is&#x20;commonly&#x20;referred&#x20;to&#x20;as&#x20;&quot;neural&#x20;tracking&quot;.&#x20;The&#x20;neural&#x20;tracking&#x20;mechanism&#x20;allows&#x20;for&#x20;the&#x20;detection&#x20;of&#x20;an&#x20;attended&#x20;sound&#x20;source&#x20;in&#x20;a&#x20;multi-talker&#x20;situation&#x20;by&#x20;decoding&#x20;neural&#x20;signals&#x20;obtained&#x20;by&#x20;electroencephalography&#x20;(EEG),&#x20;known&#x20;as&#x20;auditory&#x20;attention&#x20;decoding&#x20;(AAD).&#x20;Neural&#x20;tracking&#x20;with&#x20;AAD&#x20;can&#x20;be&#x20;utilized&#x20;as&#x20;an&#x20;objective&#x20;measurement&#x20;tool&#x20;for&#x20;diverse&#x20;clinical&#x20;contexts,&#x20;and&#x20;it&#x20;has&#x20;potential&#x20;to&#x20;be&#x20;applied&#x20;to&#x20;neuro-steered&#x20;hearing&#x20;devices.&#x20;To&#x20;effectively&#x20;utilize&#x20;this&#x20;technology,&#x20;it&#x20;is&#x20;essential&#x20;to&#x20;enhance&#x20;the&#x20;accessibility&#x20;of&#x20;EEG&#x20;experimental&#x20;setup&#x20;and&#x20;analysis.&#x20;The&#x20;aim&#x20;of&#x20;the&#x20;study&#x20;was&#x20;to&#x20;develop&#x20;a&#x20;cost-efficient&#x20;neural&#x20;tracking&#x20;system&#x20;and&#x20;validate&#x20;the&#x20;feasibility&#x20;of&#x20;neural&#x20;tracking&#x20;measurement&#x20;by&#x20;conducting&#x20;an&#x20;AAD&#x20;task&#x20;using&#x20;an&#x20;offline&#x20;and&#x20;real-time&#x20;decoder&#x20;model&#x20;outside&#x20;the&#x20;soundproof&#x20;environment.&#x20;We&#x20;devised&#x20;a&#x20;neural&#x20;tracking&#x20;system&#x20;capable&#x20;of&#x20;conducting&#x20;AAD&#x20;experiments&#x20;using&#x20;an&#x20;OpenBCI&#x20;and&#x20;Arduino&#x20;board.&#x20;Nine&#x20;participants&#x20;were&#x20;recruited&#x20;to&#x20;assess&#x20;the&#x20;performance&#x20;of&#x20;the&#x20;AAD&#x20;using&#x20;the&#x20;developed&#x20;system,&#x20;which&#x20;involved&#x20;presenting&#x20;competing&#x20;speech&#x20;signals&#x20;in&#x20;an&#x20;experiment&#x20;setting&#x20;without&#x20;soundproofing.&#x20;As&#x20;a&#x20;result,&#x20;the&#x20;offline&#x20;decoder&#x20;model&#x20;demonstrated&#x20;an&#x20;average&#x20;performance&#x20;of&#x20;90%,&#x20;and&#x20;real-time&#x20;decoder&#x20;model&#x20;exhibited&#x20;a&#x20;performance&#x20;of&#x20;78%.&#x20;The&#x20;present&#x20;study&#x20;demonstrates&#x20;the&#x20;feasibility&#x20;of&#x20;implementing&#x20;neural&#x20;tracking&#x20;and&#x20;AAD&#x20;using&#x20;cost-effective&#x20;devices&#x20;in&#x20;a&#x20;practical&#x20;environment.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">Nature&#x20;Publishing&#x20;Group</dcvalue>
<dcvalue element="title" qualifier="none">Validation&#x20;of&#x20;cost-efficient&#x20;EEG&#x20;experimental&#x20;setup&#x20;for&#x20;neural&#x20;tracking&#x20;in&#x20;an&#x20;auditory&#x20;attention&#x20;task</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1038&#x2F;s41598-023-49990-6</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">Scientific&#x20;Reports,&#x20;v.13,&#x20;no.1</dcvalue>
<dcvalue element="citation" qualifier="title">Scientific&#x20;Reports</dcvalue>
<dcvalue element="citation" qualifier="volume">13</dcvalue>
<dcvalue element="citation" qualifier="number">1</dcvalue>
<dcvalue element="description" qualifier="isOpenAccess">Y</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001132995200042</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85180205467</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Multidisciplinary&#x20;Sciences</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Science&#x20;&amp;&#x20;Technology&#x20;-&#x20;Other&#x20;Topics</dcvalue>
<dcvalue element="type" qualifier="docType">Article</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">SPEECH</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">ENTRAINMENT</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">MODULATION</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">CORTEX</dcvalue>
</dublin_core>
