<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Tserendorj&#x20;Adiya</dcvalue>
<dcvalue element="contributor" qualifier="author">Jae&#x20;Shin&#x20;Yoon</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee&#x20;JeongEun</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim&#x20;Sang&#x20;Hun</dcvalue>
<dcvalue element="contributor" qualifier="author">Hwasup&#x20;Lim</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-05-22T07:01:15Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-05-22T07:01:15Z</dcvalue>
<dcvalue element="date" qualifier="created">2024-05-22</dcvalue>
<dcvalue element="date" qualifier="issued">2024-05-09</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;149864</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;iclr.cc&#x2F;virtual&#x2F;2024&#x2F;poster&#x2F;17420</dcvalue>
<dcvalue element="description" qualifier="abstract">We&#x20;introduce&#x20;a&#x20;method&#x20;to&#x20;generate&#x20;temporally&#x20;coherent&#x20;human&#x20;animation&#x20;from&#x20;a&#x20;single&#x20;image,&#x20;a&#x20;video,&#x20;or&#x20;a&#x20;random&#x20;noise.This&#x20;problem&#x20;has&#x20;been&#x20;formulated&#x20;as&#x20;modeling&#x20;of&#x20;an&#x20;auto-regressive&#x20;generation,&#x20;i.e.,&#x20;to&#x20;regress&#x20;past&#x20;frames&#x20;to&#x20;decode&#x20;future&#x20;frames.However,&#x20;such&#x20;unidirectional&#x20;generation&#x20;is&#x20;highly&#x20;prone&#x20;to&#x20;motion&#x20;drifting&#x20;over&#x20;time,&#x20;generating&#x20;unrealistic&#x20;human&#x20;animation&#x20;with&#x20;significant&#x20;artifacts&#x20;such&#x20;as&#x20;appearance&#x20;distortion.&#x20;We&#x20;claim&#x20;that&#x20;bidirectional&#x20;temporal&#x20;modeling&#x20;enforces&#x20;temporal&#x20;coherence&#x20;on&#x20;a&#x20;generative&#x20;network&#x20;by&#x20;largely&#x20;suppressing&#x20;the&#x20;appearance&#x20;ambiguity.To&#x20;prove&#x20;our&#x20;claim,&#x20;we&#x20;design&#x20;a&#x20;novel&#x20;human&#x20;animation&#x20;framework&#x20;using&#x20;a&#x20;denoising&#x20;diffusion&#x20;model:&#x20;a&#x20;neural&#x20;network&#x20;learns&#x20;to&#x20;generate&#x20;the&#x20;image&#x20;of&#x20;a&#x20;person&#x20;by&#x20;denoising&#x20;temporal&#x20;Gaussian&#x20;noises&#x20;whose&#x20;intermediate&#x20;results&#x20;are&#x20;cross-conditioned&#x20;bidirectionally&#x20;between&#x20;consecutive&#x20;frames.&#x20;In&#x20;the&#x20;experiments,&#x20;our&#x20;method&#x20;demonstrates&#x20;strong&#x20;performance&#x20;compared&#x20;to&#x20;existing&#x20;unidirectional&#x20;approaches&#x20;with&#x20;realistic&#x20;temporal&#x20;coherence.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">International&#x20;Conference&#x20;on&#x20;Learning&#x20;Representations&#x20;(ICLR)</dcvalue>
<dcvalue element="title" qualifier="none">Bidirectional&#x20;Temporal&#x20;Diffusion&#x20;Model&#x20;for&#x20;Temporally&#x20;Consistent&#x20;Human&#x20;Animation</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">International&#x20;Conference&#x20;on&#x20;Learning&#x20;Representations&#x20;(ICLR)</dcvalue>
<dcvalue element="citation" qualifier="title">International&#x20;Conference&#x20;on&#x20;Learning&#x20;Representations&#x20;(ICLR)</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">AU</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">오스트리아</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2024-05-07</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">International&#x20;Conference&#x20;on&#x20;Learning&#x20;Representations&#x20;(ICLR)</dcvalue>
</dublin_core>
