<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Sangjin</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Hyeongmin</dcvalue>
<dcvalue element="contributor" qualifier="author">Shin,&#x20;Chajin</dcvalue>
<dcvalue element="contributor" qualifier="author">Son,&#x20;Hanbin</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Sangyoun</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-12T02:45:57Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-12T02:45:57Z</dcvalue>
<dcvalue element="date" qualifier="created">2023-11-17</dcvalue>
<dcvalue element="date" qualifier="issued">2023-06</dcvalue>
<dcvalue element="identifier" qualifier="issn">1063-6919</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;76426</dcvalue>
<dcvalue element="description" qualifier="abstract">Video&#x20;frame&#x20;interpolation&#x20;(VFI)&#x20;is&#x20;the&#x20;task&#x20;that&#x20;synthesizes&#x20;the&#x20;intermediate&#x20;frame&#x20;given&#x20;two&#x20;consecutive&#x20;frames.&#x20;Most&#x20;of&#x20;the&#x20;previous&#x20;studies&#x20;have&#x20;focused&#x20;on&#x20;appropriate&#x20;frame&#x20;warping&#x20;operations&#x20;and&#x20;refinement&#x20;modules&#x20;for&#x20;the&#x20;warped&#x20;frames.&#x20;These&#x20;studies&#x20;have&#x20;been&#x20;conducted&#x20;on&#x20;natural&#x20;videos&#x20;containing&#x20;only&#x20;continuous&#x20;motions.&#x20;However,&#x20;many&#x20;practical&#x20;videos&#x20;contain&#x20;various&#x20;unnatural&#x20;objects&#x20;with&#x20;discontinuous&#x20;motions&#x20;such&#x20;as&#x20;logos,&#x20;user&#x20;interfaces&#x20;and&#x20;subtitles.&#x20;We&#x20;propose&#x20;three&#x20;techniques&#x20;that&#x20;can&#x20;make&#x20;the&#x20;existing&#x20;deep&#x20;learning-based&#x20;VFI&#x20;architectures&#x20;robust&#x20;to&#x20;these&#x20;elements.&#x20;First&#x20;is&#x20;a&#x20;novel&#x20;data&#x20;augmentation&#x20;strategy&#x20;called&#x20;figure-text&#x20;mixing&#x20;(FTM)&#x20;which&#x20;can&#x20;make&#x20;the&#x20;models&#x20;learn&#x20;discontinuous&#x20;motions&#x20;during&#x20;training&#x20;stage&#x20;without&#x20;any&#x20;extra&#x20;dataset.&#x20;Second,&#x20;we&#x20;propose&#x20;a&#x20;simple&#x20;but&#x20;effective&#x20;module&#x20;that&#x20;predicts&#x20;a&#x20;map&#x20;called&#x20;discontinuity&#x20;map&#x20;(D-map),&#x20;which&#x20;densely&#x20;distinguishes&#x20;between&#x20;areas&#x20;of&#x20;continuous&#x20;and&#x20;discontinuous&#x20;motions.&#x20;Lastly,&#x20;we&#x20;propose&#x20;loss&#x20;functions&#x20;to&#x20;give&#x20;supervisions&#x20;of&#x20;the&#x20;discontinuous&#x20;motion&#x20;areas&#x20;which&#x20;can&#x20;be&#x20;applied&#x20;along&#x20;with&#x20;FTM&#x20;and&#x20;D-map.&#x20;We&#x20;additionally&#x20;collect&#x20;a&#x20;special&#x20;test&#x20;benchmark&#x20;called&#x20;Graphical&#x20;Discontinuous&#x20;Motion&#x20;(GDM)&#x20;dataset&#x20;consisting&#x20;of&#x20;some&#x20;mobile&#x20;games&#x20;and&#x20;chatting&#x20;videos.&#x20;Applied&#x20;to&#x20;the&#x20;various&#x20;state-of-the-art&#x20;VFI&#x20;networks,&#x20;our&#x20;method&#x20;significantly&#x20;improves&#x20;the&#x20;interpolation&#x20;qualities&#x20;on&#x20;the&#x20;videos&#x20;from&#x20;not&#x20;only&#x20;GDM&#x20;dataset,&#x20;but&#x20;also&#x20;the&#x20;existing&#x20;benchmarks&#x20;containing&#x20;only&#x20;continuous&#x20;motions&#x20;such&#x20;as&#x20;Vimeo90K,&#x20;UCF101,&#x20;and&#x20;DAVIS.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE&#x20;COMPUTER&#x20;SOC</dcvalue>
<dcvalue element="title" qualifier="none">Exploring&#x20;Discontinuity&#x20;for&#x20;Video&#x20;Frame&#x20;Interpolation</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1109&#x2F;CVPR52729.2023.00944</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">IEEE&#x2F;CVF&#x20;Conference&#x20;on&#x20;Computer&#x20;Vision&#x20;and&#x20;Pattern&#x20;Recognition&#x20;(CVPR),&#x20;pp.9791&#x20;-&#x20;9800</dcvalue>
<dcvalue element="citation" qualifier="title">IEEE&#x2F;CVF&#x20;Conference&#x20;on&#x20;Computer&#x20;Vision&#x20;and&#x20;Pattern&#x20;Recognition&#x20;(CVPR)</dcvalue>
<dcvalue element="citation" qualifier="startPage">9791</dcvalue>
<dcvalue element="citation" qualifier="endPage">9800</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Vancouver,&#x20;CANADA</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2023-06-17</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">2023&#x20;IEEE&#x2F;CVF&#x20;CONFERENCE&#x20;ON&#x20;COMPUTER&#x20;VISION&#x20;AND&#x20;PATTERN&#x20;RECOGNITION&#x20;(CVPR)</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001062522102010</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85173939105</dcvalue>
</dublin_core>
