<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
<dcvalue element="contributor" qualifier="author">Shim,&#x20;Eungjune</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Joon&#x20;Yub</dcvalue>
<dcvalue element="contributor" qualifier="author">Yoon,&#x20;Jong&#x20;Pil</dcvalue>
<dcvalue element="contributor" qualifier="author">Ki,&#x20;Se-Young</dcvalue>
<dcvalue element="contributor" qualifier="author">Lho,&#x20;Taewoo</dcvalue>
<dcvalue element="contributor" qualifier="author">Kim,&#x20;Youngjun</dcvalue>
<dcvalue element="contributor" qualifier="author">Chung,&#x20;Seok&#x20;Won</dcvalue>
<dcvalue element="date" qualifier="accessioned">2024-01-19T16:34:37Z</dcvalue>
<dcvalue element="date" qualifier="available">2024-01-19T16:34:37Z</dcvalue>
<dcvalue element="date" qualifier="created">2021-09-02</dcvalue>
<dcvalue element="date" qualifier="issued">2020-09</dcvalue>
<dcvalue element="identifier" qualifier="issn">2045-2322</dcvalue>
<dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;pubs.kist.re.kr&#x2F;handle&#x2F;201004&#x2F;118187</dcvalue>
<dcvalue element="description" qualifier="abstract">Rotator&#x20;cuff&#x20;tear&#x20;(RCT)&#x20;is&#x20;one&#x20;of&#x20;the&#x20;most&#x20;common&#x20;shoulder&#x20;injuries.&#x20;When&#x20;diagnosing&#x20;RCT,&#x20;skilled&#x20;orthopedists&#x20;visually&#x20;interpret&#x20;magnetic&#x20;resonance&#x20;imaging&#x20;(MRI)&#x20;scan&#x20;data.&#x20;For&#x20;automated&#x20;and&#x20;accurate&#x20;diagnosis&#x20;of&#x20;RCT,&#x20;we&#x20;propose&#x20;a&#x20;full&#x20;3D&#x20;convolutional&#x20;neural&#x20;network&#x20;(CNN)&#x20;based&#x20;method&#x20;using&#x20;deep&#x20;learning.&#x20;This&#x20;3D&#x20;CNN&#x20;automatically&#x20;diagnoses&#x20;the&#x20;presence&#x20;or&#x20;absence&#x20;of&#x20;an&#x20;RCT,&#x20;classifies&#x20;the&#x20;tear&#x20;size,&#x20;and&#x20;provides&#x20;3D&#x20;visualization&#x20;of&#x20;the&#x20;tear&#x20;location.&#x20;To&#x20;train&#x20;the&#x20;3D&#x20;CNN,&#x20;the&#x20;Voxception-ResNet&#x20;(VRN)&#x20;structure&#x20;was&#x20;used.&#x20;This&#x20;architecture&#x20;uses&#x20;3D&#x20;convolution&#x20;filters,&#x20;so&#x20;it&#x20;is&#x20;advantageous&#x20;in&#x20;extracting&#x20;information&#x20;from&#x20;3D&#x20;data&#x20;compared&#x20;with&#x20;2D-based&#x20;CNNs&#x20;or&#x20;traditional&#x20;diagnosis&#x20;methods.&#x20;MRI&#x20;data&#x20;from&#x20;2,124&#x20;patients&#x20;were&#x20;used&#x20;to&#x20;train&#x20;and&#x20;test&#x20;the&#x20;VRN-based&#x20;3D&#x20;CNN.&#x20;The&#x20;network&#x20;is&#x20;trained&#x20;to&#x20;classify&#x20;RCT&#x20;into&#x20;five&#x20;classes&#x20;(None,&#x20;Partial,&#x20;Small,&#x20;Medium,&#x20;Large-to-Massive).&#x20;A&#x20;3D&#x20;class&#x20;activation&#x20;map&#x20;(CAM)&#x20;was&#x20;visualized&#x20;by&#x20;volume&#x20;rendering&#x20;to&#x20;show&#x20;the&#x20;localization&#x20;and&#x20;size&#x20;information&#x20;of&#x20;RCT&#x20;in&#x20;3D.&#x20;A&#x20;comparative&#x20;experiment&#x20;was&#x20;performed&#x20;for&#x20;the&#x20;proposed&#x20;method&#x20;and&#x20;clinical&#x20;experts&#x20;by&#x20;using&#x20;randomly&#x20;selected&#x20;200&#x20;test&#x20;set&#x20;data,&#x20;which&#x20;had&#x20;been&#x20;separated&#x20;from&#x20;training&#x20;set.&#x20;The&#x20;VRN-based&#x20;3D&#x20;CNN&#x20;outperformed&#x20;orthopedists&#x20;specialized&#x20;in&#x20;shoulder&#x20;and&#x20;general&#x20;orthopedists&#x20;in&#x20;binary&#x20;accuracy&#x20;(92.5%&#x20;vs.&#x20;76.4%&#x20;and&#x20;68.2%),&#x20;top-1&#x20;accuracy&#x20;(69.0%&#x20;vs.&#x20;45.8%&#x20;and&#x20;30.5%),&#x20;top-1&#x20;+&#x2F;-&#x20;1&#x20;accuracy&#x20;(87.5%&#x20;vs.&#x20;79.8%&#x20;and&#x20;71.0%),&#x20;sensitivity&#x20;(0.94&#x20;vs.&#x20;0.86&#x20;and&#x20;0.90),&#x20;and&#x20;specificity&#x20;(0.90&#x20;vs.&#x20;0.58&#x20;and&#x20;0.29).&#x20;The&#x20;generated&#x20;3D&#x20;CAM&#x20;provided&#x20;effective&#x20;information&#x20;regarding&#x20;the&#x20;3D&#x20;location&#x20;and&#x20;size&#x20;of&#x20;the&#x20;tear.&#x20;Given&#x20;these&#x20;results,&#x20;the&#x20;proposed&#x20;method&#x20;demonstrates&#x20;the&#x20;feasibility&#x20;of&#x20;artificial&#x20;intelligence&#x20;that&#x20;can&#x20;assist&#x20;in&#x20;clinical&#x20;RCT&#x20;diagnosis.Y</dcvalue>
<dcvalue element="language" qualifier="none">English</dcvalue>
<dcvalue element="publisher" qualifier="none">Nature&#x20;Publishing&#x20;Group</dcvalue>
<dcvalue element="title" qualifier="none">Automated&#x20;rotator&#x20;cuff&#x20;tear&#x20;classification&#x20;using&#x20;3D&#x20;convolutional&#x20;neural&#x20;network</dcvalue>
<dcvalue element="type" qualifier="none">Article</dcvalue>
<dcvalue element="identifier" qualifier="doi">10.1038&#x2F;s41598-020-72357-0</dcvalue>
<dcvalue element="description" qualifier="journalClass">1</dcvalue>
<dcvalue element="identifier" qualifier="bibliographicCitation">Scientific&#x20;Reports,&#x20;v.10,&#x20;no.1</dcvalue>
<dcvalue element="citation" qualifier="title">Scientific&#x20;Reports</dcvalue>
<dcvalue element="citation" qualifier="volume">10</dcvalue>
<dcvalue element="citation" qualifier="number">1</dcvalue>
<dcvalue element="description" qualifier="isOpenAccess">Y</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scie</dcvalue>
<dcvalue element="description" qualifier="journalRegisteredClass">scopus</dcvalue>
<dcvalue element="identifier" qualifier="wosid">000615370900002</dcvalue>
<dcvalue element="identifier" qualifier="scopusid">2-s2.0-85091409589</dcvalue>
<dcvalue element="relation" qualifier="journalWebOfScienceCategory">Multidisciplinary&#x20;Sciences</dcvalue>
<dcvalue element="relation" qualifier="journalResearchArea">Science&#x20;&amp;&#x20;Technology&#x20;-&#x20;Other&#x20;Topics</dcvalue>
<dcvalue element="type" qualifier="docType">Article</dcvalue>
</dublin_core>
