<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Choi,&#x20;Kihwan</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Sung&#x20;Won</dcvalue>
<dcvalue element="contributor" qualifier="author">Lim,&#x20;Joon&#x20;Seok</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-19T10:39:38Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-19T10:39:38Z</dcvalue>
<dcvalue element="date" qualifier="created">2022-03-07</dcvalue>
<dcvalue element="date" qualifier="issued">2018</dcvalue>
<dcvalue element="identifier" qualifier="issn">0277-786X</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;114385</dcvalue>
<dcvalue element="description" qualifier="abstract">This&#x20;paper&#x20;introduces&#x20;a&#x20;deep&#x20;learning&#x20;network&#x20;that&#x20;reconstructs&#x20;low-dose&#x20;CT&#x20;images&#x20;into&#x20;CT&#x20;images&#x20;of&#x20;a&#x20;high&#x20;quality&#x20;comparable&#x20;to&#x20;adaptive&#x20;statistical&#x20;iterative&#x20;reconstruction&#x20;(ASIR)&#x20;as&#x20;fast&#x20;as&#x20;filtered&#x20;backprojection&#x20;(FBP).&#x20;Fully&#x20;convolutional&#x20;networks&#x20;(FCNs)&#x20;are&#x20;adopted&#x20;to&#x20;denoise&#x20;the&#x20;low-dose&#x20;CT&#x20;images&#x20;reconstructed&#x20;with&#x20;FBP.&#x20;In&#x20;contrast&#x20;to&#x20;patch-based&#x20;convolutional&#x20;neural&#x20;networks&#x20;(CNNs),&#x20;we&#x20;train&#x20;the&#x20;FCN-based&#x20;denoising&#x20;network&#x20;with&#x20;full-size&#x20;images,&#x20;which&#x20;is&#x20;computationally&#x20;efficient&#x20;due&#x20;to&#x20;the&#x20;reuse&#x20;of&#x20;feature&#x20;maps&#x20;from&#x20;the&#x20;lower&#x20;layers.&#x20;To&#x20;guarantee&#x20;that&#x20;the&#x20;resultant&#x20;high-quality&#x20;images&#x20;are&#x20;consistent&#x20;with&#x20;the&#x20;input&#x20;images,&#x20;a&#x20;CNN-based&#x20;classifier&#x20;is&#x20;added&#x20;to&#x20;the&#x20;denoising&#x20;network&#x20;during&#x20;the&#x20;training&#x20;phase.&#x20;The&#x20;classifier&#x20;incorporates&#x20;the&#x20;CT&#x20;noise&#x20;model&#x20;and&#x20;evaluates&#x20;the&#x20;consistency&#x20;between&#x20;the&#x20;images&#x20;reconstructed&#x20;with&#x20;FBP&#x20;and&#x20;those&#x20;of&#x20;the&#x20;denoising&#x20;network.&#x20;This&#x20;supplementary&#x20;structure&#x20;makes&#x20;the&#x20;entire&#x20;network&#x20;a&#x20;class&#x20;of&#x20;generative&#x20;adversarial&#x20;networks&#x20;(GANs).&#x20;For&#x20;training&#x20;and&#x20;testing&#x20;the&#x20;network,&#x20;we&#x20;use&#x20;a&#x20;dataset&#x20;of&#x20;18&#x20;patients&#x20;who&#x20;have&#x20;undergone&#x20;abdominal&#x20;low-dose&#x20;CT&#x20;with&#x20;both&#x20;FBP&#x20;and&#x20;ASIR,&#x20;which&#x20;we&#x20;split&#x20;into&#x20;a&#x20;training&#x20;set&#x20;of&#x20;12&#x20;patients&#x20;and&#x20;a&#x20;validation&#x20;set&#x20;of&#x20;the&#x20;remaining&#x20;6&#x20;patients.&#x20;After&#x20;being&#x20;trained&#x20;with&#x20;FBP&#x20;and&#x20;ASIR&#x20;image&#x20;pairs,&#x20;the&#x20;GAN&#x20;successfully&#x20;recovers&#x20;the&#x20;high-quality&#x20;images&#x20;from&#x20;the&#x20;noisy&#x20;CT&#x20;images&#x20;reconstructed&#x20;with&#x20;FBP.&#x20;The&#x20;network,&#x20;by&#x20;using&#x20;a&#x20;moderate&#x20;GPU,&#x20;is&#x20;computationally&#x20;efficient&#x20;in&#x20;recovering&#x20;each&#x20;image&#x20;within&#x20;0.1&#x20;second.&#x20;It&#x20;is&#x20;also&#x20;remarkable&#x20;that&#x20;the&#x20;GAN&#x20;successfully&#x20;preserves&#x20;the&#x20;image&#x20;details,&#x20;whereas&#x20;ASIR&#x20;is&#x20;known&#x20;for&#x20;its&#x20;occasional&#x20;failure&#x20;to&#x20;recover&#x20;small&#x20;low-contrast&#x20;features.</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">SPIE-INT&#x20;SOC&#x20;OPTICAL&#x20;ENGINEERING</dcvalue>
<dcvalue element="title" qualifier="none">Real-Time&#x20;Image&#x20;Reconstruction&#x20;for&#x20;Low-Dose&#x20;CT&#x20;using&#x20;Deep&#x20;Convolutional&#x20;Generative&#x20;Adversarial&#x20;Networks&#x20;(GANs)</dcvalue>
<dcvalue element="type" qualifier="none">Conference</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1117&#x2F;12.2293420</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">Conference&#x20;on&#x20;Medical&#x20;Imaging&#x20;-&#x20;Physics&#x20;of&#x20;Medical&#x20;Imaging,&#x20;v.10573</dcvalue>
<dcvalue element="citation" qualifier="title">Conference&#x20;on&#x20;Medical&#x20;Imaging&#x20;-&#x20;Physics&#x20;of&#x20;Medical&#x20;Imaging</dcvalue>
<dcvalue element="citation" qualifier="volume">10573</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">US</dcvalue>
<dcvalue element="citation" qualifier="conferencePlace">Houston,&#x20;TX</dcvalue>
<dcvalue element="citation" qualifier="conferenceDate">2018-02-12</dcvalue>
<dcvalue element="relation" qualifier="isPartOf">MEDICAL&#x20;IMAGING&#x20;2018:&#x20;PHYSICS&#x20;OF&#x20;MEDICAL&#x20;IMAGING</dcvalue>
<dcvalue element="identifier" qualifier="wosid">000436173700104</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85049243141</dcvalue>
<dcvalue element="type" qualifier="docType">Proceedings&#x20;Paper</dcvalue>
</dublin_core>
