<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Seunghyun</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Kunyoung</dcvalue>
<dcvalue element="contributor" qualifier="author">Hwang,&#x20;Jeongwon</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Hakjin</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Eui&#x20;Chul</dcvalue>
<dcvalue element="date" qualifier="accessioned">2025-03-20T14:30:22Z</dcvalue>
<dcvalue element="date" qualifier="available">2025-03-20T14:30:22Z</dcvalue>
<dcvalue element="date" qualifier="created">2025-03-19</dcvalue>
<dcvalue element="date" qualifier="issued">2024-11</dcvalue>
<dcvalue element="identifier" qualifier="issn">1017-9909</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;151924</dcvalue>
<dcvalue element="description" qualifier="abstract">This&#x20;study&#x20;investigates&#x20;the&#x20;enhancement&#x20;of&#x20;remote&#x20;photoplethysmography&#x20;(rPPG)&#x20;using&#x20;a&#x20;hybrid&#x20;system&#x20;that&#x20;integrates&#x20;RGB&#x20;and&#x20;near-infrared&#x20;(NIR)&#x20;cameras.&#x20;rPPG,&#x20;a&#x20;non-contact&#x20;method&#x20;for&#x20;heart&#x20;rate&#x20;(HR)&#x20;measurement,&#x20;relies&#x20;on&#x20;analyzing&#x20;subtle&#x20;color&#x20;changes&#x20;in&#x20;facial&#x20;videos.&#x20;We&#x20;compare&#x20;traditional&#x20;signal&#x20;processing&#x20;methods,&#x20;such&#x20;as&#x20;independent&#x20;component&#x20;analysis&#x20;and&#x20;principal&#x20;component&#x20;analysis,&#x20;with&#x20;advanced&#x20;deep&#x20;learning&#x20;models&#x20;such&#x20;as&#x20;DeepPhys&#x20;and&#x20;PhysFormer.&#x20;Traditional&#x20;methods&#x20;often&#x20;struggle&#x20;with&#x20;lighting&#x20;variations&#x20;and&#x20;motion&#x20;artifacts,&#x20;whereas&#x20;deep&#x20;learning&#x20;approaches&#x20;demonstrate&#x20;improved&#x20;robustness&#x20;and&#x20;accuracy.&#x20;Our&#x20;hybrid&#x20;approach&#x20;leverages&#x20;the&#x20;strengths&#x20;of&#x20;both&#x20;RGB&#x20;and&#x20;NIR&#x20;cameras,&#x20;addressing&#x20;their&#x20;individual&#x20;limitations.&#x20;We&#x20;propose&#x20;two&#x20;methods,&#x20;the&#x20;first&#x20;is&#x20;a&#x20;four-channel&#x20;method,&#x20;which&#x20;overlays&#x20;RGB&#x20;and&#x20;NIR&#x20;frames&#x20;to&#x20;create&#x20;a&#x20;four-channel&#x20;image,&#x20;and&#x20;the&#x20;second&#x20;is&#x20;an&#x20;ensemble&#x20;method,&#x20;which&#x20;applies&#x20;weights&#x20;to&#x20;the&#x20;tokens&#x20;extracted&#x20;from&#x20;each&#x20;video&#x20;and&#x20;then&#x20;sums&#x20;them.&#x20;These&#x20;hybrid&#x20;approaches&#x20;significantly&#x20;enhance&#x20;performance,&#x20;achieving&#x20;higher&#x20;percentage&#x20;of&#x20;time&#x20;with&#x20;error&#x20;within&#x20;6&#x20;BPM&#x20;(PTE6)&#x20;scores&#x20;across&#x20;various&#x20;scenarios,&#x20;including&#x20;still&#x20;conditions&#x20;and&#x20;motion&#x20;environments.&#x20;PTE6&#x20;represents&#x20;the&#x20;proportion&#x20;of&#x20;the&#x20;entire&#x20;timeline&#x20;where&#x20;the&#x20;predicted&#x20;HR&#x20;is&#x20;within&#x20;six&#x20;beats&#x20;per&#x20;minute&#x20;(BPM)&#x20;of&#x20;the&#x20;actual&#x20;HR&#x20;and&#x20;is&#x20;a&#x20;commonly&#x20;used&#x20;metric&#x20;in&#x20;HR&#x20;prediction&#x20;studies.&#x20;For&#x20;example,&#x20;the&#x20;four-channel&#x20;method&#x20;achieved&#x20;a&#x20;PTE6&#x20;score&#x20;of&#x20;72.89%&#x20;in&#x20;still&#x20;conditions&#x20;and&#x20;56.73%&#x20;in&#x20;motion&#x20;scenarios,&#x20;outperforming&#x20;the&#x20;single-camera&#x20;setups.&#x20;Specifically,&#x20;the&#x20;RGB&#x20;camera&#x20;achieved&#x20;70.97%&#x20;and&#x20;the&#x20;NIR&#x20;camera&#x20;67.89%&#x20;in&#x20;still&#x20;conditions,&#x20;whereas&#x20;in&#x20;motion&#x20;scenarios,&#x20;the&#x20;RGB&#x20;camera&#x20;scored&#x20;53.24%&#x20;and&#x20;the&#x20;NIR&#x20;camera&#x20;37.99%.&#x20;These&#x20;findings&#x20;highlight&#x20;the&#x20;potential&#x20;of&#x20;combining&#x20;RGB&#x20;and&#x20;NIR&#x20;cameras&#x20;to&#x20;improve&#x20;the&#x20;accuracy&#x20;and&#x20;reliability&#x20;of&#x20;rPPG.&#x20;This&#x20;approach&#x20;opens&#x20;new&#x20;avenues&#x20;for&#x20;advanced&#x20;telemedicine&#x20;applications,&#x20;providing&#x20;a&#x20;robust&#x20;solution&#x20;for&#x20;continuous&#x20;health&#x20;monitoring&#x20;in&#x20;diverse&#x20;environments.&#x20;(c)&#x20;2024&#x20;SPIE&#x20;and&#x20;IS&amp;T</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">S&#x20;P&#x20;I&#x20;E&#x20;-&#x20;International&#x20;Society&#x20;for&#x20;Optical&#x20;Engineering</dcvalue>
<dcvalue element="title" qualifier="none">Enhanced&#x20;remote&#x20;photoplethysmography&#x20;using&#x20;hybrid&#x20;RGB&#x20;and&#x20;near-infrared&#x20;cameras</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1117&#x2F;1.JEI.33.6.063058</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">Journal&#x20;of&#x20;Electronic&#x20;Imaging,&#x20;v.33,&#x20;no.6</dcvalue>
<dcvalue element="citation" qualifier="title">Journal&#x20;of&#x20;Electronic&#x20;Imaging</dcvalue>
<dcvalue element="citation" qualifier="volume">33</dcvalue>
<dcvalue element="citation" qualifier="number">6</dcvalue>
<dcvalue element="description" qualifier="isOpenAccess">N</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001394501300059</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85214096974</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Engineering,&#x20;Electrical&#x20;&amp;&#x20;Electronic</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Optics</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Imaging&#x20;Science&#x20;&amp;&#x20;Photographic&#x20;Technology</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Engineering</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Optics</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Imaging&#x20;Science&#x20;&amp;&#x20;Photographic&#x20;Technology</dcvalue>
<dcvalue element="type" qualifier="docType">Article</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">remote&#x20;photoplethysmography</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">multi-spectrum</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">remote&#x20;heart&#x20;rate&#x20;estimation</dcvalue>
</dublin_core>
