<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Shin,&#x20;Yejee</dcvalue>
<dcvalue element="contributor" qualifier="author">Lee,&#x20;Yeeun</dcvalue>
<dcvalue element="contributor" qualifier="author">Jang,&#x20;Hanbyol</dcvalue>
<dcvalue element="contributor" qualifier="author">Son,&#x20;Geonhui</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Hyeongyu</dcvalue>
<dcvalue element="contributor" qualifier="author">Hwang,&#x20;Dosik</dcvalue>
<dcvalue element="date" qualifier="accessioned">2026-02-25T00:30:09Z</dcvalue>
<dcvalue element="date" qualifier="available">2026-02-25T00:30:09Z</dcvalue>
<dcvalue element="date" qualifier="created">2026-02-20</dcvalue>
<dcvalue element="date" qualifier="issued">2025</dcvalue>
<dcvalue element="identifier" qualifier="issn">1063-6919</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;154351</dcvalue>
<dcvalue element="description" qualifier="abstract">Multi-contrast&#x20;magnetic&#x20;resonance&#x20;(MR)&#x20;images&#x20;offer&#x20;critical&#x20;diagnostic&#x20;information&#x20;but&#x20;are&#x20;limited&#x20;by&#x20;long&#x20;scan&#x20;times&#x20;and&#x20;high&#x20;cost.&#x20;While&#x20;diffusion&#x20;models&#x20;(DMs)&#x20;excel&#x20;in&#x20;medical&#x20;image&#x20;synthesis,&#x20;they&#x20;often&#x20;struggle&#x20;to&#x20;maintain&#x20;anatomical&#x20;consistency&#x20;and&#x20;utilize&#x20;the&#x20;diverse&#x20;characteristics&#x20;of&#x20;multi-contrast&#x20;MR&#x20;images&#x20;effectively.&#x20;We&#x20;propose&#x20;APT,&#x20;a&#x20;unified&#x20;diffusion&#x20;model&#x20;designed&#x20;to&#x20;generate&#x20;accurate&#x20;and&#x20;anatomically&#x20;consistent&#x20;multi-contrast&#x20;MR&#x20;images.&#x20;APT&#x20;introduces&#x20;a&#x20;mutual&#x20;information&#x20;fusion&#x20;module&#x20;and&#x20;an&#x20;anatomical&#x20;consistency&#x20;loss&#x20;to&#x20;preserve&#x20;critical&#x20;anatomical&#x20;structures&#x20;across&#x20;multiple&#x20;contrast&#x20;inputs.&#x20;To&#x20;enhance&#x20;synthesis,&#x20;APT&#x20;incorporates&#x20;a&#x20;two-stage&#x20;inference&#x20;process:&#x20;in&#x20;the&#x20;first&#x20;stage,&#x20;a&#x20;prior&#x20;codebook&#x20;provides&#x20;coarse&#x20;anatomical&#x20;structures&#x20;by&#x20;selecting&#x20;appropriate&#x20;guidance&#x20;based&#x20;on&#x20;precomputed&#x20;similarity&#x20;mappings&#x20;and&#x20;Bézier&#x20;curve&#x20;transformations.&#x20;The&#x20;second&#x20;stage&#x20;applies&#x20;iterative&#x20;unrolling&#x20;with&#x20;weighted&#x20;averaging&#x20;to&#x20;refine&#x20;the&#x20;initial&#x20;output,&#x20;enhancing&#x20;fine&#x20;anatomical&#x20;details&#x20;and&#x20;ensuring&#x20;structural&#x20;consistency.&#x20;This&#x20;approach&#x20;enables&#x20;the&#x20;preservation&#x20;of&#x20;both&#x20;global&#x20;structures&#x20;and&#x20;local&#x20;details,&#x20;resulting&#x20;in&#x20;realistic&#x20;and&#x20;diagnostically&#x20;valuable&#x20;synthesized&#x20;images.&#x20;Extensive&#x20;experiments&#x20;on&#x20;public&#x20;multi-contrast&#x20;MR&#x20;brain&#x20;images&#x20;demonstrate&#x20;that&#x20;our&#x20;approach&#x20;significantly&#x20;outperforms&#x20;state-of-the-art&#x20;methods.&#x20;The&#x20;source&#x20;codes&#x20;are&#x20;available&#x20;at&#x20;https:&#x2F;&#x2F;github.com&#x2F;yejees&#x2F;APT.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">IEEE&#x20;COMPUTER&#x20;SOC</dcvalue>
<dcvalue element="title" qualifier="none">Anatomical&#x20;Consistency&#x20;and&#x20;Adaptive&#x20;Prior-informed&#x20;Transformation&#x20;for&#x20;Multi-contrast&#x20;MR&#x20;Image&#x20;Synthesis&#x20;via&#x20;Diffusion&#x20;Model</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1109&#x2F;CVPR52734.2025.02879</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">2025&#x20;Conference&#x20;on&#x20;Computer&#x20;Vision&#x20;and&#x20;Pattern&#x20;Recognition-CVPR-Annual,&#x20;pp.30918&#x20;-&#x20;30927</dcvalue>
<dcvalue element="citation" qualifier="title">2025&#x20;Conference&#x20;on&#x20;Computer&#x20;Vision&#x20;and&#x20;Pattern&#x20;Recognition-CVPR-Annual</dcvalue>
<dcvalue element="citation" qualifier="startPage">30918</dcvalue>
<dcvalue element="citation" qualifier="endPage">30927</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Nashville,&#x20;TN</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2025-06-10</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">2025&#x20;IEEE&#x2F;CVF&#x20;CONFERENCE&#x20;ON&#x20;COMPUTER&#x20;VISION&#x20;AND&#x20;PATTERN&#x20;RECOGNITION&#x20;(CVPR)</dcvalue>
<dcvalue element="identifier" qualifier="wosid">001601181100639</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-105017098891</dcvalue>
</dublin_core>
