DOI QR코드

DOI QR Code

치매 진단을 위한 Faster R-CNN 활용 MRI 바이오마커 자동 검출 연동 분류 기술 개발

Alzheimer's Disease Classification with Automated MRI Biomarker Detection Using Faster R-CNN for Alzheimer's Disease Diagnosis

  • Son, Joo Hyung (Department of Computer and Electronic Systems Engineering, Hankuk University of Foreign Studies) ;
  • Kim, Kyeong Tae (Department of Computer and Electronic Systems Engineering, Hankuk University of Foreign Studies) ;
  • Choi, Jae Young (Department of Computer and Electronic Systems Engineering, Hankuk University of Foreign Studies)
  • 투고 : 2019.06.13
  • 심사 : 2019.10.02
  • 발행 : 2019.10.31

초록

In order to diagnose and prevent Alzheimer's Disease (AD), it is becoming increasingly important to develop a CAD(Computer-aided Diagnosis) system for AD diagnosis, which provides effective treatment for patients by analyzing 3D MRI images. It is essential to apply powerful deep learning algorithms in order to automatically classify stages of Alzheimer's Disease and to develop a Alzheimer's Disease support diagnosis system that has the function of detecting hippocampus and CSF(Cerebrospinal fluid) which are important biomarkers in diagnosis of Alzheimer's Disease. In this paper, for AD diagnosis, we classify a given MRI data into three categories of AD, mild cognitive impairment, and normal control according by applying 3D brain MRI image to the Faster R-CNN model and detect hippocampus and CSF in MRI image. To do this, we use the 2D MRI slice images extracted from the 3D MRI data of the Faster R-CNN, and perform the widely used majority voting algorithm on the resulting bounding box labels for classification. To verify the proposed method, we used the public ADNI data set, which is the standard brain MRI database. Experimental results show that the proposed method achieves impressive classification performance compared with other state-of-the-art methods.

키워드

1. 서론

치매(Alzheimer'sDisease) 진단에는 환자 병력, 신체 및 신경 생물학 검사 등 의학적 진단이 필요하다. 치매는 뇌 피질의 수축 및 뇌 심실의 확장을 유발하며 그 크기는 질병 진행 단계에 달려 있다. 치매의 단계에서는 3차원 MRI 영상을 통해 해마 및 대뇌피질의 심한 수축뿐만 아니라 크게 확대된 심실을 확인 할 수 있다. 하지만 정상적인 사람과 치매 환자의 MRI 영상에서 시각적 차이를 확인하려면 전문적인 임상 지식과 경험이 필요하다[1,21]. 치매 진단과 예방을 위해서는 3차원 MRI 영상을 분석하고 분석된 내용에 기반을 두어 환자에게 최적화된 치료법을 제공하는 것이 중요하다. 이를 위해 3차원 MRI 영상을 활용하여 건강한 대상자의 뇌와 치매 질환을 갖는뇌를 구별하기 위한 컴퓨터 지원진단(Computer-Aided Diagnosis, CAD) 알고리즘 기술의 개발은 의사 및 임상의에게 매우 큰 도움이 된다[2]. 또한 치매질환의 단계를 분류할 수 있고, 중요한 바이오마커(biomarker)를 검출할 수 있는 딥러닝과 같은 강력한 기계학습 알고리즘은 의사 및 임상의가 치매 뇌 질환을 진단하는 데 도움이 되어 치매 환자의 정확하고, 시의 적절한 진단에 매우 큰 역할이 될 수 있다.

MRI 영상에 기반한 임상적 치매 질환 단계를 치매(Alzheimer's Disease, AD), 경도인지장애(Mild Cognitive Impairment, MCI), 정상(Normal Control, NC)으로 분류한다. 따라서 딥 러닝과 같은 인공지능 기술을 적용하여 치매 질환 진료 및 예방을 위해 세 단계(치매, 경도인지장애, 정상)로 분류하는 기술은 치매 컴퓨터 지원진단 시스템 개발을 위한 핵심기술이라 할 수 있다[2]. 최근 딥러닝 중에 심층합성곱신경망(Deep Convolutional Neural Network) 방법은 현재까지 활발한 연구가 진행되며, 매우 우수한 분류 성능을 보이는 것으로 보고되고 있으며, 특히 영상 내 객체 탐지 및 검출을 위해서는 FasterR-CNN[3]최신 기술이 매우 우수한 성능을 보이고 있다. Faster R-CNN은 Fast R-CNN[15]의 Region Proposal을 만드는데 많은 시간이 소요되는 것을 보완한 기술이다. 기존에는 SelectiveSearch[16]를 사용한 경우 영상 당 수초가 소요되기 때문에 실시간 분석은 불가능하다. 하지만 RegionProposalNetworks(RPNs)[3]을 통해 영상 당 대략 0.01초 속도로 region proposal을 추출 가능하며,RPNs과 FastR-CNN의 조합을 통해 매우 빠른 속도로 영상을 처리할 수 있도록 구현이 가능하다. 특히 FasterR-CNN의 경우 분류 정확도가 기존의 SelectiveSearch와 Fast R-CNN의 조합보다 더욱 높게 나타난다. 즉, 정확도와 속도 모두를 향상시킬 수 있는 방법이 Faster R-CNN이다. 본 논문에서는 FasterR-CNN 모델을 이용하여 3DMRI 영상을 분류하고, 치매 분류에 있어 중요한 생물학적 지표인 해마와 척수액(Cerebrospinal fluid, CSF)를 검출하는 기술을 제안한다. 제안한 MRI 해마 및 CSF 검출 연동 치매 분류 방법은 기존 관련 방법들과 비교하여 다음과 같은 독창성과 기술적 특징을 갖는다.

∙기존의 치매 분류 컴퓨터 지원진단 시스템에서는 심층합성곱신경망(Deep Convolutional Neural Network)을 MRI 단면 영상(sliceimages)에 적용하여 치매, 경도인지장애, 정상으로 분류하지만 이를 통해 치매에 중요한 생물학적 지표(biomarkers)인해마, CSF(Cerebrospinal fluid) 를 표시해 주기는 어려웠다. 하지만 본 연구에서 개발된 치매 분류 및 바이오마커 검출 시스템은 검출과 분류를 동시에 할수 있도록 개발되었고 또한 분류 성능이 개선되도록 설계되어 되었다.

∙ 의료영상에서 바이오마커를 빠른 속도로 검출하기 위해 FasterR-CNN 구조를 활용하여 MRI 데이터(MRI 슬라이스(slice)150장 기준) 하나 당 검출, 분류를 포함한 모든 과정을 처리하는데 평균적으로 약 63초(1장 당 0.42초)를 달성했다. 진단 정확도 성능면에서는 치매 병변 분류에 대한 참고문헌[4,5]에서 보고된 분류 성능 ‘경도인지장애와 정상’,‘치매와 경도인지장애’ 경우와 비교 했을 때(참고문헌[5]의 경우 NC vs MCI: 71.25%, AD vs MCI: 69.53%, 참고문헌[4]의 경우는 NC vs MCI: 90.13%, AD vs MCI: 82.24%) 제안 방법은 높은 분류 성능을 달성했다. 구체적으로 제안방법을 통해 경도인지장애와 정상(NCvs MCI)의 경우 91.81%, 치매와 경도인지장애(AD vs MCI)의 경우 90.43%로 향상시킬 수 있었다.

2. 제안 방법

제안한 방법의 전체도(overallframework)가 Fig. 1의 (a)에 보여지며 Fig.1의 (b) 사용한 Faster R-CNN의 구조(architecture)를 구체적으로 표현한 그림이다. Fig. 1의 (a)에 제시한 것 같이 Faster R-CNN[3]을 활용하여 문턱치(threshold) 처리된 각각의 바이오마커 영역 레이블에 대해 ‘majority voting & rsquo;분류 방법[17]을 수행하여 치매 병변을 예측한다. 제안한 방법에서 활용한 네트워크는 Faster R-CNN[3]이라 불리며 객체 검출 및 분류에 많이 활용되고 있다. Faster R-CNN은 Fig.1(b)에서 볼 수 있듯이 크게 Region Proposal Network(RPN)과 Fast R-CNN 두 개의 구성요소들로 구성되어있다. 첫 번째 구성요소는 바이오마커 후보영역들을 제공하는 심층합성곱신경망 모듈인 RPN이며, 두 번째 구성요소는 제공된 바이오마커 영역들에 대해 실제 바이오마커 영역을 검출하는 FastR-CNN이다. 전체 시스템은 객체 검출을 위한 단일의 통합 네트워크로 이루어져 있다. RPN에 기반한 신경망의 정보를 Fast R-CNN 모델이 참고하여 어느 영역을 탐색 및 검출해야 하는가에 관한 정보를 제공한다.

Fig. 1. (a) overall framework of the proposed AD classification method based on Faster R-CNN network architecture coupled with automated MRI biomarker detection. (b) Detailed architecture of Faster R-CNN component shown in Fig. 1(a).

2.1 Region Proposal Network 및 Fast R-CNN 소개

RPN(RegionProposalNetwork)은 영상에서 각 객체에 대해 신뢰도 점수(confidencescore)가 있는 직사각형 형태의 집합을 출력하며, 이 프로세스를 심층합성곱신경망으로 모델링하였다[7]. Faster R-CNN은 FastR-CNN 객체 검출 ​네트워크와 연산을 공유하는 것이므로, 두 네트워크가 공통적인 합성곱(Convolution) 계층 집합을 공유한다고 가정한다. 본 논문 실험에서는 13개의 공유 가능한 합성곱 계층이 있는 VGG-16 모델을 사용했다[8]. 영역 제안(region proposal)을 생성하기 위해, 제안 방법에서는 마지막 공유 가능한 합성곱 계층에 의해 출력된 합성곱 특징맵(featuremap)을 뒤에 추가하였다. 이 네트워크는n×n 크기인 합성곱 특징 맵을 입력으로 사용하며 각 슬라이딩 윈도우(sliding-window)로 하위 차원 특징(VGG의 경우 512차원)에 매핑된다. 이 특징은 회귀(regression) 계층과 분류(classification) 계층이라는 두 개의 완전 연결(fullyconnected) 계층에 사용되며 최종적으로 특징 벡터(경계 영역의 좌표)를 추출하게 된다. 이 특징 벡터는 ROI 통합 계층에 연결되어 Fast R-CNN에 입력으로 들어가게 된다. RegionofInterest(ROI) 통합(pooling) 과정은 VGG의 마지막 합성곱 특징 맵에서 최대 통합(maxpool-ing)을 하여 같은 사이즈의 결과 값이 나오게 한다. VGG의 경우 7×7의 결과가 나오게 되며 결과적으로 7×7×512의 크기에 입력이 완전 연결 계층(fully connected)으로 전달되고, 완전 연결 계층의 출력 계층(outputlayer)에서는 영상 내부의 각 객체에 대한softmax값 계산과 객체가 존재하는 영역의 네 점의 좌표 (x, y, h, w)를 출력하며(x, y)는 ROI의 좌측 상단의 좌표,(h, w)는 ROI의 높이와 너비를 나타낸다.

2.2 Faster R-CNN 학습

학습에 사용한 MRI3D 영상을 MRI2D 단면 영상으로 전처리 후[18] 학습한다. 최상위에 있는 합성곱특징 맵에서 합성곱 필터를 512×3×3개 사용한다. 특징 맵에서 1×1 필터를 객체 분류에는 9×2개, 경계 영역 회귀에는 9×4개를 사용하여 합성곱을 수행해서 객체인지를 분류하는 네트워크 한 개, 경계 영역 회귀 네트워크 한 개를 만든다. 영역에 대한 초기영역 제안(regionproposal)을 만드는 것이 첫 번째 목적이다. 여기서 경계 영역이 슬라이딩 윈도우 방식으로 합성곱 특징 맵에 계산을 수행할 때 사용하는 박스가 9개의 앵커 영역(anchorregion)이다[15]. 앵커 영역을 사용하여 학습시키는 기준은 IoU(Intersection over Union)을 사용하는데 실제 레이블 영역과 앵커 영역이 겹치는 비율이 0.7 이상이면 positive로 판단하고,0.3 이하는 negative로 판단한다. 그 사이의 값은 학습에 제외시킨다.positive한 앵커 영역과 negative한 앵커영역의 비율을 50:50의 비율로 학습시킨다[3]. 이러한 정의에 따라 Fast R-CNN에서 손실 함수는 다음과 같이 정의된다[15].

\(L\left(p_{i}, t_{i}\right)=\frac{1}{N_{c l s}} \sum_{i} L_{d s}\left(p_{i}, p_{i}^{*}\right)+\lambda \frac{1}{N_{r e g}} \sum_{i} p_{i}^{*} L_{r e g}\left(t_{i}, t_{i}^{*}\right)\)        (1)

여기서 \(i\)는 미니배치(minibatch)에서 앵커의 인덱스이고 pi는 앵커가 객체가 될 확률이다. 실제 레이블 \(p_{i}^{*}\)는 앵커가 positive이면 1이고 negative이면 0이다. \(t_{i}\)는 예측된 경계 영역의 4개의 파라미터화된 좌표를 나타내는 벡터이고, \(t_{i}^{*}\)는 positive 앵커와 연관된 실제 박스의 파라미터이다. 분류 손실을 나타내는 \(L_{cls}\)는 두 클래스(객체 혹은 비객체)에 대한 로그 손실이다. 회귀 손실에 대해 참고문헌[15]에 정의된 R(smooth \(L_{1}\))이 있는 곳에 \(L_{r e g}\left(t_{i}, t_{i}^{*}\right)=R\left(t_{i}-t_{i}^{*}\right)\)를 사용한다. \(p_{i}^{*} L_{r e g}\)는 회귀 손실이 positive 앵커에 대해서만 활성화되고 그렇지 않은 경우에는 비활성화된다. 분류(cls) 및 회귀(reg) 계층의 출력은 각각 {pi} 및 {ti} 로 구성되며 \(N_{cls}\)\(N_{reg}\)에 의해 정규화되고 균형매개 변수 \(\lambda\)에 의해 가중치가 매겨진다. 실험에서 cls 항은 미니 배치 크기(\(N_{c l s}=256\))로 정규화되며 ref항은 앵커가 제안된 수로 정규화한다. 본 연구에서는 [15]의 내용을 참고하여 \(\lambda\)의 값은 10으로 설정하였고, 따라서 cls 와 reg 항은 대략 동등하게 가중된다. 경계 영역 회귀를 위해서 [9]를 참고하여 4개의 좌표에 대해 식 (2)와 같이 매개 변수화를 채택하였다.

여기서 x, y, g 및 h는 상자의 중심좌표와 폭 및 높이를 나타낸다. 변수 x, xa 및 x*는 예측된 영역, 앵커영역 및 실제 레이블에 해당하는 영역에 대한 것이다. 이것은 앵커 영역에서 근처의 레이블 영역까지 경계 영역 회귀로 생각할 수 있다.

\(\begin{aligned} &t_{x}=\left(x-x_{a}\right) / w_{a}, \quad t_{y}=\left(y-y_{a}\right) / h_{a}\\ &t_{w}=\log \left(w / w_{a}\right), t_{h}=\log \left(h / h_{a}\right)\\ &t_{x}^{*}=\left(x^{*}-x_{a}\right) / w_{a}, t_{y}^{*}=\left(y^{*}-y_{a}\right) / h_{a}\\ &t_{w}^{*}=\log \left(w^{*} / w_{a}\right), t_{h}=\log \left(h^{*} / h_{a}\right) \end{aligned}\)       (2)

2.3 바이오마커 자동 검출 연동 치매 병변 분류 기술

논문의 레이블(label) 개수는 치매, 정상, 경도 인지 장애 3가지 경우에 따라 각각의 해마와 CSF를 분류하는 것이 목적이기 때문에 총 9개의 레이블이지만 배경까지 포함해서 학습에는 10개의 레이블로 학습된다. 본 논문에서는 치매, 정상, 경도인지장애세 가지 경우의 분류 정확도를 높이기 위해 완전 연결 계층의 결과로 나온 각 경계 영역 회귀의 레이블에 대한 majorityvoting을 수행하여 분류 정확도를 향상시켰다. majority voting 방법을 기술하는 수식은 다음과 같다.

\(L_{k i}=\left\{\begin{array}{l} 1 \text { if } P\left(w_{k} | x_{i}\right)=\max _{j=1}^{M} p\left(w_{j} | x_{i}\right) \\ 0 \text { otherwise } \end{array}\right.\)       (3)

식 (3)에서 \(L_{k i}\)\(x_{i}\)라는 경계 영역에 대한 \(w\)(레이블, label)일 확률인 \(P\left(w_{k} | x_{i}\right)\) 중 가장 큰 값을 해당 경계 영역에 대한 레이블로 지정하는 것이다. 여기서 M은 주어진 레이블의 개수이다. i는 경계 영역의 개수를 나타낸다.

\(\sum_{i=1}^{R} L_{k i}=\max _{k=1}^{M} \sum_{i=1}^{R} L_{k i}\)       (4)

식 (4)는 식 (3)에서 구한 각각의 경계 영역 레이블에 대한 majorityvoting를 수행한 수식이다. 총 경계영역의 개수인 R개 중 레이블이 나타난 빈도를 다더한 값을 비교해서 가장 많이 나타난 값을 최종 레이블로 지정한다. Fig.2는 제안한 majority voting 기반 분류 방법에 대한 실제 처리과정을 시각화한 예시이다. 정규화된 MRI 영상이 Faster R-CNN에 입력되면 해마와 CSF의 위치를 검출 및 분류를 하게 된다. 이때, Faster R-CNN의 출력결과를 시각화하기 위해 검출된 영역과 분류 결과에 대해 색상과 태그로 표시된다. 마지막으로 Faster R-CNN의 출력 결과(해마와 CSF의 분류 레이블)들은 majority voting 방법을 사용하여 최종 레이블을 출력하게 된다.

Fig. 2. Visualization for illustrating the process of the proposed majority voting based algorithm for AD classification. When normalized MRI slice images are input to Faster R-CNN, the position of hippocampus and CSF bio- markers is first detected and subsequently classified. For illustration, the 'detected areas' and 'classification results' are marked with colored boxes and class names (with labels), respectively. Finally, the majority voting method is used to produce the final AD classification label by combining the results of hippocampus and CSF biomarkers.

3. 실험 결과 및 분석

3.1 데이터 구성 및 전처리

본 연구에서는 Alzheimer'sDisease Neuroimag-ing Initiative (ADNI) [18]의 데이터 집합을 사용하였다. ADNI의 데이터 집합은 18세에서 96세 사이의6,000명 이상의 피험자로 구성되어있다. 연구에서는 65세에서 96세 사이의 1,826명의 피실험자를 선택했으며, 선택한 피실험자는 ADNI 프로토콜에 정의된 기준을 충족했다. 실험에 사용된 데이터베이스 구성은 Table1과 같이 AD(Alzheimer'sDisease), MCI(Mild Cognitive Impairment), NC(Normal Control)의 피실험자의 수(Num.ofSubject), 나이(Age), 성(Gender)이 균형 잡힌 데이터 집합을 구축했다. ADNI 데이터베이스에서는 치매에서 중요한 지표라할 수 있는 해마와 CSF의 정보가 없기 때문에 해마와 CSF의 Ground-truth 구축 및 영상의 전처리를 위해 많이 활용되는 FreeSurfer[18]를 활용했다.  FreeSurfer[18]는 뇌의 구역을 효과적으로 분리할 수 있도록 설계된 애플리케이션이다.Fig.3은 FeeSurfer[18]의 해마와 CSF의 검출 및 전처리 예시를 보여준다. 전처리는 촬영 시 생기는 잡음 제거 및 뇌의 방향 및 중심을 정렬하게 되며, 해마와 CSF의 영역은 위치 좌표를 제공해준다.Fig.3의 (c)에서 표시된 노란색 색상 혹은 박스로 표시된 뇌의 영역들이 해마 및CSF 바이오마커를 나타낸다.

Table 1. Summary of participant demographics as well as mini-mental state examination (MMSE)

Fig. 3. Illustration of pre-processing of MRI Images, as well as their corresponding detection results of CSF and hippocampus biomarkers using FreeSurfer [18]. (a) MRI image before normalization. (b) Normalized MRI image. (c)Example of detected CSF and hippocampus biomarkers using FreeSurfer application program.

3.2 실험결과 및 분석

본 연구에서는 ADNI 치매 MRI 데이터베이스[18]를 활용하여 치매 진단분류결과를 제시한 최신 관련 연구[5,11-14]들을 제안방법 성능과의 비교를 위해 참고하였다. ADNI 데이터베이스를 활용하여 실험결과를 도출한 기존 연구들[5,11-14]은 ADNIMRI 데이터셋 구성이 서로 동일하지 않은데 MRI 데이터 선택 기준이 명확하게 정립되어 있지 않기 때문이다[10]. 이런 사실에도 불구하고, 대부분의 치매 진단 연구는 ADNI 데이터베이스에서 MRI 데이터 집합을 구성하여 성능평가 실험에 활용한다[5,11-14]. 따라서 본 연구에서는 ADNI 데이터베이스에서 MRI 데이터들을 선택하고 데이터셋을 구성하여 제안 방법의 유효성을 검증하고 기존 방법들과 비교하는 실험을 수행하였다(기존 방법들의 실험결과 수치 값들은 해당 논문에서 발취해서 제안논문에 제시함). 실험결과 비교의 신뢰성과 유효성을 확보하기 위해 본 연구에서는 다른 최신 연구와 비교할 때 더 많은 MRI 데이터 개수로 성능평가 실험을 수행하였다.

실험은 AD vs MCI, MCI vs NC, NCvs AD의 3가지 경우에 대해 성능을 평가하였고 실험 결과와최신 논문의 성능 비교를 Table2와 Table3에 제시하였다. 테스트 성능은 AD,MCI,NC 부류 각각에 대해 훈련 데이터와 테스트 데이터 개수(Table 1에 제시) 비율을 6:4를 가지는 무작위 선택방식(random selection)을 10번 수행하여 획득한 평균결과이다. 테스트 시에 검출하는 경계 영역에 대한 문턱치(thres-hold)는 0.99를 적용해서 예측된 경계 영역이 실제 레이블와 같은 확률이 99% 이상 되는 박스만 표시하게 했다. 문턱치는 0부터 1.0까지 0.05 단위로 변경해서 검출한 결과 0.99 값이 최적으로 판명되었다. 기존 연구 결과와 비교했을 때 세 가지 분류 작업 유형(types of three classification tasks)에서 제안 방법이 높은 분류 성능을 나타내고 있음을 볼 수 있다. 참고문헌[5]의 경우 치매 분류를 위해 해마 영역을 ROI로 추출해서 CNN으로 분류시킨 결과이며 치매와 정상의 분류에서 높은 정확도를 달성했다. 참고문헌[11]의 경우 치매 분류를 위해 뇌실,CSF, 해마의 크기와 모양을 SVM으로 분류하여 92.2%의 결과를 달성하면서 해마의 모양과 크기,CSF가 치매 분류에 있어 좋은 지표가 된다는 것을 보여준다. 참고문헌[12]의 경우 DTI(DiffusionTensorImaging)와 MRI로부터 바이오마커를 추출하여 다중 커널 학습(Multiple Kernel Learning) 프레임워크를 사용하여 치매 분류 연구를 수행한다. 참고문헌[13]의 경우 치매 분류를 위해 3D 영상을 분해하여 3DPET 영상의 특징을 학습하는 2D-CNN과 RNN을 결합한 모델을 사용한 실험을 하여 치매와 정상의 경우 91.90% 정상과 경도인지장애의 경우 78.86%의 정확도를 달성하고 치매와 경도인지장애에 대한 실험은 따로 진행되지 않았다. 참고문헌[14]의 경우에는 3D 볼륨의 해마 ROI를 입력으로 사용하고,MRI와 DTI의 두 가지 영상을 기반해 특징을 추출한다.3DInception 기반 네트워크를 사용하여 치매를 분류하는 연구를 진행했다.

Table 2. Comparison of other state-of-the-art AD classification methods and proposed classification method

최신 연구 방법과 비교했을 때 치매와 경도인지장애 사이의 분류는 3.73%, 치매와 정상은 1.92%, 정상과 경도인지장애는 12.39% 정도 제안방법에 의해 향상되었다. 높은 분류성능을 얻을 수 있는 주 요인은 기존 분류 방법에서는 MRI 영상 전체를 학습시키는 방법으로 치매를 분류하였지만 제안한 방법에서는 치매에서 중요한 생물학적 지표라 할 수 있는 해마와 CSF를 ROI 영역을 잡아 훈련하여 분류를 수행하기 때문이다.

해마와 CSF에 대한 검출 성능은 TPR(True Posi-tive Rate), FPR(False Positive Rate)로 나타내었을 때 Table3와 같이 나타낸다.Table3에 제시한 TPR과 FPR 결과에 기반 할 때 해마와 CSF 검출 성능이 매우 우수함을 볼 수 있고,FPR 등 검출 오류를 고려하여 분류 성능을 계산하였다.

Table 3. Performance of biomarker detection obtained using our proposed method

Fig.4는 테스트를 진행했을 때 표시되는 영상의 예시를 나타낸다. 예측된 박스와 실제 해마 혹은 CSF를 포함하는 박스(ground-truthbox) 정확도는 두 박스의 겹치는 부분이 80% 이상이면 올바르게 예측했다고 판단하였고 Fig.3에서 표시된 박스들은 모두 올바르게 검출된 해마와 CSF를 나타낸다. 제안방법 실행시간(executiontime) 평가 시 3.4GHz Core Xeon CPU,64GBRAM, Titan XP(12GB) GPU를 사용했으며 테스트 영상에 검출과 분류를 동시에 진행한다. 실행시간(executiontime)은 MRI 데이터 하나 당 검출, 분류를 포함한 모든 과정을 처리하는데평균적으로 약 63초(MRI 슬라이스(slice)150장 기준) 소요된다. 이 실행시간은 참고문헌[20]의 내용을 고려할 때 제안 방법이 알츠하이머 진단지원시스템(Computer Aided System, CAD)에 진단 알고리즘으로 탐재되는데 실행시간 측면에서는 무리가 없다.

Fig. 4. Visualization result of test images obtained using our proposed MRI biomarker detection based on Faster R-CNN.

4. 결론

치매 진단을 위해서는 MRI 영상을 분석하고 분석된 내용에 기반을 두어 환자에게 최적화된 치료법을 제공하는 것이 중요하다. 본 논문에서는 MRI 영상을 토대로 치매(AlzheimerDisease), 경도인지장애(Mild Cognitive Impairment), 정상(NormalCase)을 분류하고 치매 진단에 있어 중요한 바이오마커인 해마와 CSF를 검출하는 FasterR-CNN 기반 MRI 바이오마커 자동 검출 연동 분류 방법을 제안하였다. 제안한 방법과 최신 분류방법과의 비교실험 결과 기존 방법보다는 최소 1.92%, 최대 12.39%가 향상되었고, MRI 데이터 하나 당 검출, 분류를 포함한 모든 과정을 처리하는데 평균적으로 약 63초(MRI 슬라이스(slice) 150장 기준) 소요된다. 기존 분류 방법에서는 MRI 영상 전체를 학습시키는 방법으로 치매를 분류하였지만 제안한 방법에서는 치매에서 중요한 생물학적 지표라 할 수 있는 해마와 CSF를 ROI 영역을 잡아 훈련하여 기존 분류 성능보다 높은 분류 성능을 보인다.

현재 제안한 방법은 입력을 2차원 MRI영상을 사용하다 보니 해마와 CSF의 일부 영역만 사용되고 있다. 향후 연구에서는 3차원 MRI영상이 입력 될 수 있도록 기존 FasterR-CNN의 2차원 합성곱 및 통합 연산방법을 3차원 연산 방법으로 개선하여 해마와 CSF의 단면이 아닌 전체 영역을 학습하여 분류 성능을 고도화하는 연구를 수행할 것이다.ADNI 데이터베이스는 치매진단 전문의 검토에 의해 만들어진 데이터베이스이고 치매 진단 분류연구에서 가장 많이 활용되고 있는 신뢰성 높은 MRI 데이터베이스이다. 제안 방법의 검증을 위해, 향후 연구에서는 국내 치매 전문의와의 협력연구를 통해 제안방법 및 실험결과가 치매 진단에 있어 임상학적으로 의사들을 보조할 수 있는지 검증 및 평가를 수행할 계획이다.

참고문헌

  1. R. Brookmeyer, E. Johnson, K. Ziegler-Graham, and H.M. Arrighi, "Forecasting the Global Burden of Alzheimer's Disease," Alzheimer's and Dementia, Vol. 3, No. 3, pp. 186-191, 2007. https://doi.org/10.1016/j.jalz.2007.04.381
  2. C. Grady, S. Sarraf, C. Saverino, and K. Campbell, "Age Differences in the Functional Interactions among the Default, Frontoparietal Control, and Dorsal Attention Networks," Neurobiology of Aging, Vol. 41, pp. 159-172, 2016. https://doi.org/10.1016/j.neurobiolaging.2016.02.020
  3. S. Ren, K. He, R. Girshick, and J. Sun, "Faster R-cnn: Towards Real-time Object Detection with Region Proposal Networks," Advances in Neural Information Processing Systems, pp. 91-99, 2015.
  4. A. Payan and G. Montana, "Predicting Alzheimer's Disease: a Neuroimaging Study with 3D Convolutional Neural Networks," arXiv Preprint arXiv:1502.02506, 2015.
  5. K. Aderghal, J. Benois-Pineau, and K. Afdel, "Classification of sMRI for Alzheimer's Disease Diagnosis with CNN: Single Siamese Networks with 2D+? Approach and Fusion on ADNI," Proceeding of the 2017 ACM on International Conference on Multimedia Retrieval, pp. 494-498, 2017.
  6. C.R. Jack, M.A. Bernstein, N.C. Fox, P. Thompson, G. Alexander, D. Harvey, et al., "The Alzheimer's Disease Neuroimaging Initiative(ADNI): MRI Methods," Journal of Magnetic Resonance Imaging: An Official Journal of the International Society for Magnetic Resonance in Medicine, Vol. 27, No. 4, pp. 685-691, 2008. https://doi.org/10.1002/jmri.21049
  7. J. Long, E. Shelhamer, and T. Darrell, "Fully Convolutional Networks for Semantic Segmentation," Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 3431-3440, 2015.
  8. K. Simonyan and A. Zisserman, "Very Deep Convolutional Networks for Large-scale Image Recognition," arXiv Preprint arXiv:1409.1556, 2014.
  9. R. Girshick, J. Donahue, T. Darrell, and J. Malik, "Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation," Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 580-58, 2014.
  10. J. Samper-Gonzalez, N. Burgos, S. Bottani, S. Fontanella, P. Lu, A. Marcoux, et al., "Reproducible Evaluation of Classification Methods in Alzheimer's Disease: Framework and Application to MRI and PET Data," NeuroImage, Vol. 183, pp. 504-521, 2018. https://doi.org/10.1016/j.neuroimage.2018.08.042
  11. X. Yang, M.Z. Tan, and A. Qiu, "CSF and Brain Structural Imaging Markers of the Alzheimer's Pathological Cascade," PloS one, Vol. 7, No. 12, pp. e47406-e47406, 2012. https://doi.org/10.1371/journal.pone.0047406
  12. O.B. Ahmed, J. Benois-Pineau, M. Allard, G. Catheline, and C.B. Amar, “Recognition of Alzheimer's Disease and Mild Cognitive Impairment with Multimodal Image-derived Biomarkers and Multiple Kernel Learning,” Neurocomputing, Vol. 100, No. 220, pp. 98-110, 2017.
  13. D. Cheng and L. Manhua, "Combining Convolutional and Recurrent Neural Networks for Alzheimer's Disease Diagnosis Using PET Images," Proceeding of 2017 IEEE International Conference on Imaging Systems and Techniques, pp. 18-20, 2017.
  14. A. Khvostikov, K. Aderghal, A. Krylov, G. Catheline, and J. Benois-Pineau, "3D Inception-based CNN with sMRI and MD-DTI Data Fusion for Alzheimer's Disease Diagnostics," arXiv Preprint arXiv:1809.03972, 2018.
  15. R. Girshick, "Fast R-CNN," Proceeding of the IEEE International Conference on Computer Vision, pp. 1440-1448, 2015.
  16. J.R. Uijlings, V.D. Sande, K.E. Gevers, and A.W. Smeulders, "Selective Search for Object Recognition," International Journal of Computer Vision, Vol. 104, No. 2, pp. 154-171, 2013. https://doi.org/10.1007/s11263-013-0620-5
  17. D. Ruta and B. Gabrys, “Classifier Selection for Majority Voting,” Information Fusion, Vol. 6, No. 1, pp. 63-81, 2005. https://doi.org/10.1016/j.inffus.2004.04.008
  18. B. Fischl, D.H. Salat, E. Busa, M. Albert, M. Dieterich, C. Haselgrove, et al., "Whole Brain Segmentation: Automated Labeling of Neuroanatomical Structures in the Human Brain," Neuron, Vol. 33, No. 3 pp. 341-355, 2002. https://doi.org/10.1016/S0896-6273(02)00569-X
  19. M.W. Weiner, D.P. Veitch, P.S. Aisen, L.A. Beckett, N.J. Caims, J. Cedarbaum, et al., "2014 Update of the Alzheimer's Disease Neuroimaging Initiative: A Review of Papers Published since Its Inception," Alzheimers Dement, Vol. 11, No. 6, pp. e1-e120, 2015. https://doi.org/10.1016/j.jalz.2014.11.001
  20. A.S. Lundervold and A. Lundervold, “An Overview of Deep Learning in Medical Imaging Focusing on MRI,” Zeitschrift fur Medizinische Physik, Vol. 29, No. 2, pp. 102-127, 2019. https://doi.org/10.1016/j.zemedi.2018.11.002
  21. N. Madusanka, Y.Y. Choi, K.Y. Choi, K.H. Lee, and H.K. Choi, "Hippocampus Segmentation and Classification in Alzheimer's Disease and Mild Cognitive Impairment Applied on MR Images," Journal of Korea Multimedia Society, Vol. 20, No. 2, pp. 205-215. 2017. https://doi.org/10.9717/kmms.2017.20.2.205