<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Anh-Duc&#x20;Nguyen</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Jongyoo</dcvalue>
<dcvalue element="contributor" qualifier="author">Oh,&#x20;Heeseok</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Haksub</dcvalue>
<dcvalue element="contributor" qualifier="author">Lin,&#x20;Weisi</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Sanghoon</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-19T20:31:23Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-19T20:31:23Z</dcvalue>
<dcvalue element="date" qualifier="created">2021-09-02</dcvalue>
<dcvalue element="date" qualifier="issued">2019-04</dcvalue>
<dcvalue element="identifier" qualifier="issn">1057-7149</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;120177</dcvalue>
<dcvalue element="description" qualifier="abstract">Visual&#x20;saliency&#x20;on&#x20;stereoscopic&#x20;3D&#x20;(S3D)&#x20;images&#x20;has&#x20;been&#x20;shown&#x20;to&#x20;be&#x20;heavily&#x20;influenced&#x20;by&#x20;image&#x20;quality.&#x20;Hence,&#x20;this&#x20;dependency&#x20;is&#x20;an&#x20;important&#x20;factor&#x20;in&#x20;image&#x20;quality&#x20;prediction,&#x20;image&#x20;restoration&#x20;and&#x20;discomfort&#x20;reduction,&#x20;but&#x20;it&#x20;is&#x20;still&#x20;very&#x20;difficult&#x20;to&#x20;predict&#x20;such&#x20;a&#x20;nonlinear&#x20;relation&#x20;in&#x20;images.&#x20;In&#x20;addition,&#x20;most&#x20;algorithms&#x20;specialized&#x20;in&#x20;detecting&#x20;visual&#x20;saliency&#x20;on&#x20;pristine&#x20;images&#x20;may&#x20;unsurprisingly&#x20;fail&#x20;when&#x20;facing&#x20;distorted&#x20;images.&#x20;In&#x20;this&#x20;paper,&#x20;we&#x20;investigate&#x20;a&#x20;deep&#x20;learning&#x20;scheme&#x20;named&#x20;Deep&#x20;Visual&#x20;Saliency&#x20;(DeepVS)&#x20;to&#x20;achieve&#x20;a&#x20;more&#x20;accurate&#x20;and&#x20;reliable&#x20;saliency&#x20;predictor&#x20;even&#x20;in&#x20;the&#x20;presence&#x20;of&#x20;distortions.&#x20;Since&#x20;visual&#x20;saliency&#x20;is&#x20;influenced&#x20;by&#x20;low-level&#x20;features&#x20;(contrast,&#x20;luminance,&#x20;and&#x20;depth&#x20;information)&#x20;from&#x20;a&#x20;psychophysical&#x20;point&#x20;of&#x20;view,&#x20;we&#x20;propose&#x20;seven&#x20;low-level&#x20;features&#x20;derived&#x20;from&#x20;S3D&#x20;image&#x20;pairs&#x20;and&#x20;utilize&#x20;them&#x20;in&#x20;the&#x20;context&#x20;of&#x20;deep&#x20;learning&#x20;to&#x20;detect&#x20;visual&#x20;attention&#x20;adaptively&#x20;to&#x20;human&#x20;perception.&#x20;During&#x20;analysis,&#x20;it&#x20;turns&#x20;out&#x20;that&#x20;the&#x20;low-level&#x20;features&#x20;play&#x20;a&#x20;role&#x20;to&#x20;extract&#x20;distortion&#x20;and&#x20;saliency&#x20;information.&#x20;To&#x20;construct&#x20;saliency&#x20;predictors,&#x20;we&#x20;weight&#x20;and&#x20;model&#x20;the&#x20;human&#x20;visual&#x20;saliency&#x20;through&#x20;two&#x20;different&#x20;network&#x20;architectures,&#x20;a&#x20;regression&#x20;and&#x20;a&#x20;fully&#x20;convolutional&#x20;neural&#x20;networks.&#x20;Our&#x20;results&#x20;from&#x20;thorough&#x20;experiments&#x20;confirm&#x20;that&#x20;the&#x20;predicted&#x20;saliency&#x20;maps&#x20;are&#x20;up&#x20;to&#x20;70%&#x20;correlated&#x20;with&#x20;human&#x20;gaze&#x20;patterns,&#x20;which&#x20;emphasize&#x20;the&#x20;need&#x20;for&#x20;the&#x20;hand-crafted&#x20;features&#x20;as&#x20;input&#x20;to&#x20;deep&#x20;neural&#x20;networks&#x20;in&#x20;S3D&#x20;saliency&#x20;detection.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE-INST&#x20;ELECTRICAL&#x20;ELECTRONICS&#x20;ENGINEERS&#x20;INC</dcvalue>
<dcvalue element="subject" qualifier="none">PREDICTION</dcvalue>
<dcvalue element="subject" qualifier="none">ATTENTION</dcvalue>
<dcvalue element="subject" qualifier="none">QUALITY</dcvalue>
<dcvalue element="subject" qualifier="none">MODEL</dcvalue>
<dcvalue element="title" qualifier="none">Deep&#x20;Visual&#x20;Saliency&#x20;on&#x20;Stereoscopic&#x20;Images</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1109&#x2F;TIP.2018.2879408</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">IEEE&#x20;TRANSACTIONS&#x20;ON&#x20;IMAGE&#x20;PROCESSING,&#x20;v.28,&#x20;no.4,&#x20;pp.1939&#x20;-&#x20;1953</dcvalue>
<dcvalue element="citation" qualifier="title">IEEE&#x20;TRANSACTIONS&#x20;ON&#x20;IMAGE&#x20;PROCESSING</dcvalue>
<dcvalue element="citation" qualifier="volume">28</dcvalue>
<dcvalue element="citation" qualifier="number">4</dcvalue>
<dcvalue element="citation" qualifier="startPage">1939</dcvalue>
<dcvalue element="citation" qualifier="endPage">1953</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
<dcvalue element="identifier" qualifier="wosid">000453552100004</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85056147202</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Computer&#x20;Science,&#x20;Artificial&#x20;Intelligence</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Engineering,&#x20;Electrical&#x20;&amp;&#x20;Electronic</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Computer&#x20;Science</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Engineering</dcvalue>
<dcvalue element="type" qualifier="docType">Article</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">PREDICTION</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">ATTENTION</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">QUALITY</dcvalue>
<dcvalue element="subject" qualifier="keywordPlus">MODEL</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">Saliency&#x20;prediction</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">stereoscopic&#x20;image</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">distorted&#x20;image</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">convolutional&#x20;neural&#x20;network</dcvalue>
<dcvalue element="subject" qualifier="keywordAuthor">deep&#x20;learning</dcvalue>
</dublin_core>
