DOI QR코드

DOI QR Code

데이터 효율적 이미지 분류를 통한 안질환 진단

Data Efficient Image Classification for Retinal Disease Diagnosis

  • Honggu Kang (Dept. of AI Systems Engineering, Sungkyunkwan University) ;
  • Huigyu Yang (Convergence Research Institute, Sungkyunkwan University) ;
  • Moonseong Kim (Dept. of IT Convergence Software, Seoul Theological University) ;
  • Hyunseung Choo (Dept. of Electrical and Computer Engineering, Sungkyunkwan, University)
  • 투고 : 2024.03.28
  • 심사 : 2024.05.20
  • 발행 : 2024.06.30

초록

전 세계적인 인구 고령화 현상으로, 녹내장, 백내장, 황반변성과 같은 실명을 초래할 수 있는 주요 안질환의 발병률이 상승하고 있다. 이에 안과 분야에서는 실명률을 줄이기 위해 예방이 어려운 질환의 진단에 관심이 집중되고 있다. 본 연구는 기존보다 적은 양의 데이터를 활용하여 안저 사진 내의 안질환을 정확하게 진단하는 딥러닝 방안을 제안한다. 이를 위해 적은 데이터로도 효과적인 학습이 가능한 Convolutional Neural Network (CNN) 모델을 선정하여 다양한 안질환 환자의 Conventional Fundus Image (CFI)를 분류 한다. 선정된 CNN 모델들은 Accuracy, Precision, Recall, F1-score에서 우수한 성능을 기록함으로써 CFI 내 안질환의 정확한 분류에 탁월한 성능을 보였다. 이러한 접근법은 안과 전문의들의 수작업 분석을 줄이고, 진료 시간을 단축하며, 리소스가 제한된 환경에서도 일관성 있는 진단 결과를 제공함으로써 의료 현장에 효율적이고 정확한 진단의 보조 도구로 기여할 수 있다.

The worldwide aging population trend is causing an increase in the incidence of major retinal diseases that can lead to blindness, including glaucoma, cataract, and macular degeneration. In the field of ophthalmology, there is a focused interest in diagnosing diseases that are difficult to prevent in order to reduce the rate of blindness. This study proposes a deep learning approach to accurately diagnose ocular diseases in fundus photographs using less data than traditional methods. For this, Convolutional Neural Network (CNN) models capable of effective learning with limited data were selected to classify Conventional Fundus Images (CFI) from various ocular disease patients. The chosen CNN models demonstrated exceptional performance, achieving high Accuracy, Precision, Recall, and F1-score values. This approach reduces manual analysis by ophthalmologists, shortens consultation times, and provides consistent diagnostic results, making it an efficient and accurate diagnostic tool in the medical field.

키워드

1. 서론

전 세계적인 인구 고령화에 따라 녹내장, 백내장, 황반변성과 같이 실명 초래 가능성이 높은 주요 안질환의 발병률이 증가하고 있다[1]. 이러한 질환들은 예방법이 명확하지 않지만, 관리 방안이 잘 갖춰져 있기에 질환의 정확한 진단과 신속한 치료가 중요하다. 안저검사는 이러한 안질환의 조기 발견과 진단에 있어 핵심적인 역할을 하는 방법이다[2]. 안저는 동공을 통해 볼 때 확인되는 안구의 안쪽면을 말하며, 눈을 통해 들어오는 시각 정보를 받아들이고 처리하는 중요한 부위이다. 안저검사를 통해 망막 변화, 시신경 손상, 혈관 이상과 같은 안질환의 징후를 발견할 수 있다. 예를 들어, 녹내장은 시신경 디스크 주변의 변화를 통해 진단되며[3], 당뇨병성 망막병증은 망막 혈관의 이상을 통해 확인된다[4]. 이처럼 안저검사는 안질환의 발견, 진단, 그리고 적절한 치료 방향 결정에 있어 중추적인 구실을 한다.

안과 전문의는 Conventional Fundus Image (CFI), Ultra-widefield Fundus Image (UFI), Optical Coherence Tomography(OCT) 등의 의료 데이터를 기반으로 안질환을 진단한다. CFI로 망막의 상태와 혈관의 구조를 확인하여 주로 녹내장, 백내장, 당뇨병성 망막병증, 망막 혈관 폐쇄와 같은 질환의 유무를 파악한다[5]. 망막의 주변부까지 넓은 범위를 촬영한 UFI를 통해 주변부 망막 병변, 망막박리 등을 확인하며[6], OCT를 통해 망막의 각 층을 미세하게 분석하여 주로 황반변성이나 망막의 부종과 같은 질환의 존재 여부를 파악한다[7]. 기본적인 CFI 검사는 5분 내외로 진행되지만, 검사의 복잡성에 따라 시간이 더 소요될 수 있다. 또한, 의사들이 같은 의학적 지식을 바탕으로 진단하더라도, 개별 의사의 경험 수준이나 진료 환경의 차이로 인해 검사 결과의 일관성이 저하될 수 있다. 최근에는 라식, 라섹과 같은 시력 교정술의 수요 증가로 안저 검사자가 늘어남에 따라 신속하고 정확성이 높은 진료의 필요성이 대두되고 있다. 딥러닝 모델을 기반으로 안저사진 내 안질환 존재 여부를 파악함으로써 검진 시간을 단축하고, 결과의 신뢰성을 높일 수 있다.

본 연구에서는 기존 방식에 비해 적은 양의 데이터를 활용하면서도 안질환 진단에서 높은 성능을 보이는 딥러닝 기반의 안저 사진 분류 방법을 제안한다. 다양한 안질환 환자의 CFI를 학습한 Convolutional Neural Network(CNN) 모델로 새로운 안저 사진을 분석하고, 해당 자료에서 나타나는 질환에 따라 정밀하게 분류하는 방식이다. 안저 사진을 활용한 안질환 진단 과정에서 안과 전문의들의 수작업 분석을 줄이는 것으로 진료 시간을 단축한다. 특히, 자원이 제한된 의료 환경에서도 일관성이 높은 진단 결과를 제공함으로써 의료 시스템에 효율적이고 정확한 진단 보조 도구로 작용할 수 있다.

논문의 구성은 다음과 같다. 2장과 3장에서는 관련된 연구를 소개하고, 실험에 사용한 데이터셋과 딥러닝 모델을 설명한다. 4장에서 실험 결과의 평가를 진행한 후 5장에서 결론을 맺는다.

2. 관련 연구

딥러닝 기반 기술의 발전은 안과 진료에서 정확성과 효율성을 향상시키고 있다. 특히, 안저 사진 내 복잡한 영상 패턴의 인식 및 해석 능력을 기반으로 안질환 식별과 분류에서 전문가의 수작업에 의존하는 기존 방식의 한계를 보완한다. 이러한 기술적 진보는 안과 의사들이 더 정밀한 진단을 내리고, 효과적인 치료 계획을 수립하는 데 중요한 정보를 제공한다. 딥러닝 모델의 활용은 안저 사진 분석을 통한 질병 진단의 정확도를 높이는 동시에, 진료 시간 단축에 이바지한다[8]. 이는 시간과 자원이 제한적인 의료 환경에서도 원활한 안질환 진단을 돕는다.

다양한 종류의 안저 사진과 딥러닝을 활용한 안질환 진단 기술이 나타나고 있다. Puneet et al.[9]은 MobileNet, Inception-v3, EfficientNet 등의 딥러닝 모델과 전이 학습을 통해 OCT에 있는 맥락막 신생혈관증, 당뇨병성 황반부종, 누진 등의 안과 질환을 효과적으로 분류했다. Cen et al.[10]은 CFI의 다중 안질환 감지를 위한 딥러닝 플랫폼을 구축하여 녹내장, 당뇨병성 망막병증 등 안저 질환 및 상태 39가지의 이상 유무를 파악했다. Zhang et al.[11]은 InceptionResNet-v2를 사용하여 UFI에서 망막 삼출물과 드루젠을 감지 및 분류했다.

딥러닝 모델을 활용한 CFI 내 주요 안질환의 정확한 진단을 목표로 한 연구들이 높은 성능을 보인다. Sahlsten et al.[12]의 ImageNet 데이터로 사전 훈련된 Inception-v3을 사용한 당뇨병성 망막병증 분류는 민감도 89.6%, 정밀도 97.4%를 보였다. Bitto et al.[13]은 CNN 모델 중 VGG-16, ResNet-50, Inception-v3을 활용하여 안구 사진에서 결막염, 백내장 등 안과 질환 분류에서 모든 클래스에 대해 95% 이상의 정확도를 보였다. Junayed et al.[14]은 CFI에 있는 백내장 감지를 위해 보다 적은 매개변수를 활용한 딥러닝 모델 CataractNet으로 평균 분류 정확도 99.13%를 보인다. Karthikeyan et al.[15]은 VGG19와 머신러닝 기술 중 K-Nearest Neighbor algorithm, Support Vector Machine을 통합적으로 활용하여, CFI 기반의 12가지 안질환 분류에서 평균 정확도 92%를 보였다.

3. 데이터셋 및 모델

3.1 데이터셋 및 전처리

CNN 모델 기반의 CFI 분류로 안질환을 진단한다. CFI는 그림 1과 같이 망막 구조와 혈관 패턴, 시신경의 모양과 눈 후방 부위의 이상 여부 등의 안저 영역을 포괄적으로 보여주는 자료이다. CFI에서 미세혈관의 변화를 관찰하여 당뇨병성 망막병증을 검사하며, 시신경 변형을 기반으로 녹내장을 진단한다. 또한, 렌즈의 혼탁 정도를 파악하여 백내장을 확인한다.

OTJBCD_2024_v25n3_19_3_f0001.png 이미지

(그림 1) CFI 예시

(Figure 1) The samples of CFI

실험에는 Indian Diabetic Retinopathy Image Dataset, Ocular Disease Recognition Dataset, High-Resolution Fundus Image Dataset 등 다양한 출처에서 수집된 Eye Diseases Classification Dataset을 사용한다. 이 데이터셋은 실명 유발률이 높은 백내장, 당뇨병성 망막병증과 같은 안질환과 정상 상태 클래스의 CFI로 구성되어 있으며, 각 클래스는 약 1,000개의 이미지를 포함한다. 다수의 데이터셋에서 추출 및 수집한 데이터는 실제 임상 환경에서 발견될 수 있는 광범위한 안구 상태를 반영함으로써, 연구에서 사용될 모델의 학습과 테스트에 포괄적인 자료를 제공한다.

데이터셋은 분할 및 전처리 과정을 거친다. CFI 4,217장을 85:15의 비율로 나누어 모델 학습과 테스트 데이터셋을 구성한다. 이러한 분할은 모델이 충분한 범위의 학습 데이터를 토대로 안저 사진의 특성에 대한 깊은 학습을 가능하게 하여 학습된 패턴의 일반화 능력 강화를 돕는다. 특히, 모델이 실제 임상 환경에서의 다양한 질병을 효과적으로 인식하고 처리할 수 있도록 하는 핵심적인 단계이다. 학습 데이터에는 무작위 수평, 수직 뒤집기 등의 증강기법을 적용하여 모델이 적은 양의 데이터에서도 다양한 측면과 배치에서 안저 사진을 효과적으로 인식하도록 한다[16]. 모든 이미지를 224x224 픽셀 크기로 조정함으로써, CNN 모델들의 일반적인 입력 크기에 맞춘다. 이 조정은 모델이 다양한 크기와 해상도의 안저 사진에서 일관된 특성 추출을 가능하게 하며, 각 안질환의 세밀한 차이를 정밀하게 포착하여 정확한 분류를 실현하는 데 중요한 역할을 한다.

3.2 모델 학습 및 실험

딥러닝 기술을 활용하여 CFI 내의 안질환과 연관된 부위들을 식별하고, 이상 여부를 확인한다. 그림 2와 같이 각 질병의 유무에 기반한 데이터 분류를 수행하며, 그 성능을 높이기 위해 분류 효과가 검증된 ResNet[17], DenseNet-121[18], EfficientNet-B0[19]과 같은 CNN 모델을 사용한다. 적은 양의 데이터로 모델 학습을 진행할 때 발생할 수 있는 과적합 문제를 방지하고, 효율적인 학습을 도모하기 위해 각 시리즈의 기반 모델이나 레이어 수가 상대적으로 적은 모델을 활용한다.

OTJBCD_2024_v25n3_19_3_f0002.png 이미지

(그림 2) 안저 사진 분류 구조

(Figure 2) The structure of fundus image classification

ResNet은 각 레이어에 residual learning을 적용하여 네트워크가 더 복잡한 패턴을 학습할 때 발생할 수 있는 성능 저하 문제를 효과적으로 해결한다. 또한, 추가 파라미터 없는 shortcut connection 구현으로 입력을 출력 레이어에 직접 전달하여 깊은 네트워크에서도 정보손실 없이 학습을 지속할 수 있게 한다. 실험에는 ResNet-18과 50을 사용한다. 두 모델은 각각 18개, 50개의 레이어로 구성된 ResNet이다. ResNet-18은 상대적으로 적은 수의 레이어를 가지고 있어 계산 효율이 높다. ResNet-50은 보다 많은 수의 레이어를 통해 더 복잡한 특징을 학습하며, 깊이에 따른 성능향상을 제공한다.

DenseNet-121은 각 레이어의 출력을 이전 모든 레이어의 출력과 직접 연결하는 direct connection으로 밀집 연결구조를 형성하여 네트워크에서 특징 맵의 재사용을 극대화한다. 네트워크의 깊이가 증가함에 따라 발생할 수 있는 특징 추출의 중복을 감소시키고, 학습 파라미터의 수를 최소화하여 gradient vanishing 문제를 효율적으로 완화함으로써 깊이 있는 네트워크 구조에서도 우수한 이미지 분류 성능을 보인다.

EfficientNet-B0은 EfficientNet 시리즈의 기반 모델로, 네트워크의 깊이, 너비 및 해상도를 동시에 조정하는 compound scaling을 활용한다. 이를 통해 요소 간의 균형을 고려하여 모델의 성능과 효율성을 동시에 최적화한다. 이러한 구조는 각 차원의 조정이 서로에게 미치는 영향을 상호 보완적으로 관리함으로써 성능의 향상을 보인다.

모델 학습에는 안질환 종류에 따라 구분된 4가지 클래스의 CFI 총 3,584장을 사용한다. 각 모델의 성능을 정밀하게 비교하기 위해 모든 학습 단계에서 batch size는 128, epoch는 30으로 고정하여 학습 하이퍼파라미터를 동일하게 설정한다.

4. 실험 결과

본 연구에서는 백내장, 당뇨병성 망막병증, 녹내장, 정상 클래스로 구성된 CFI 총 633장을 각 모델에 입력하여 분류한다. 그 결과를 실제 레이블과 비교해 Accuracy, Precision, Recall, F1-score로 평가한다. 해당 지표들은 이미지 분류 태스크의 정량적 평가지표로, 0 이상 1 이하의 값을 가진다. 1은 모든 이미지의 분류 결과와 실제 레이블의 일치함을, 0은 모두 불일치함을 나타낸다. Accuracy는 테스트 데이터셋 중 정확히 분류된 데이터의 비율로, True Positive (TP)와 True Negative (TN)의 합을 전체 데이터 수로 나누어 계산한다. Precision은 양성으로 분류된 데이터의 실제 양성 비중으로, TP와 False Positive (FP)의 합에 대한 TP의 비율로 산출한다. Recall은 실제 양성 중 모델이 양성으로 분류한 비중으로, TP와 False Negative(FN)의 합에 대한 TP의 비율로 측정한다. F1-score는 Precision과 Recall의 조화 평균을 의미한다. 위 4가지 지표는 다음과 같이 표현한다.

Accuracy = (TP + TN)/ Total

Precision = TP / (TP + FP)

Recall = TP / (TP + FN)

\(\begin{align}F 1-score=2 \times \frac{\text { Precision } \times \text { Recall }}{\text { Precision }+ \text { Recall }}\end{align}\)

표 1은 CNN 모델별 CFI 내 안질환 분류 결과이다. 대부분의 질환별 분류 성능 지표는 0.850 이상으로, 높은 수준의 정확도를 보인다. 백내장 분류에서는 ResNet-18이 Accuracy 0.962, Precision 0.929, Recall 0.917, F1-score 0.923으로 모든 지표에서 가장 우수한 성능을 보인다. 당뇨병성 망막병증의 경우, ResNet-50의 Accuracy가 0.992, Precision이 0.983, Recall이 0.988, F1-score이 0.985로 전반적으로 탁월한 성능을 보인다. 녹내장 분류에서는 ResNet-50이 Accuracy 0.926, Recall 0.796, F1-score 0.842로 높은 정확성을 보인다. 정상 CFI의 경우, ResNet-50이 Accuracy 0.937, Precision 0.839, F1-score 0.886으로 우수한 성능을 보인다.

(표 1) CNN 모델 4가지의 안질환 분류 성능 비교

(Table 1) Performance comparison among four different CNN models for ocular diseases classification

OTJBCD_2024_v25n3_19_4_t0001.png 이미지

실험에 사용된 CNN 모델들은 각기 다른 구조적 특성과 최적화 기법을 통해 적은 양의 데이터로도 효과적인 학습을 수행한다. ResNet은 잔차 연결을 통해 정보의 손실을 최소화함으로써 적은 양의 데이터로도 패턴을 안정적으로 학습하여 클래스 4개의 평가지표에서 높은 수치를 기록한다. 특히, ResNet-50은 4가지 모델 중 가장 우수한 성능을 보이며, ResNet-18도 그와 유사한 성능을 보인다. DenseNet은 밀집 연결 구조를 통해 데이터 특징 추출에서 학습 매개변수를 줄이고, EfficientNet은 compound scaling으로 모델의 규모를 데이터 크기에 맞게 조절을 통해 과적합을 최소화하여 효율적인 모델 학습을 수행한다. 두 모델은 지표 대부분에서 0.8 이상의 성능을 보임으로써 각 구조의 효율성을 입증하지만, ResNet에 비해 상대적으로 낮은 성능을 보인다.

클래스 4개의 평가지표 4개, 총 16가지 항목 중 11가지에서 가장 뛰어난 성능을 보인 ResNet-50의 자세한 테스트 결과는 그림 3을 통해 직관적으로 확인할 수 있다. 그림 3의 True, Predicted Labels에서 0~3은 각각 백내장, 당뇨병성 망막병증, 녹내장, 정상 상태의 CFI를 의미한다. ResNet-50이 가장 높은 성능을 기록한 당뇨병성 망막병증 분류에서는 테스트에 사용된 사진 170장 중 168장을 올바른 레이블로 판별한다. 또한, 다른 클래스의 CFI 분류에서도 평균 15개 미만의 오차를 기록하며, 실험에 사용된 모델 중 가장 우수한 분류 성능을 보인다.

OTJBCD_2024_v25n3_19_5_f0001.png 이미지

(그림 3) ResNet-50의 안질환 분류 Confusion Matrix

(Figure 3) Confusion matrix of retinal diseases classification by ResNet-50

5. 결론

4가지 CNN 모델의 CFI 내 안질환 분류 성능을 평가한다. 선정된 CNN 모델들은 이미지 분류 분야에서 각각 특화된 구조와 메커니즘을 바탕으로, 고도화된 특징 추출과 학습 능력을 보인다. 모든 모델은 같은 환경에서 다양한 안질환에 대해 레이블링된 CFI를 학습 및 분류하고, 4가지 평가지표로 성능을 확인한다. 대부분의 지표에서 0.90 이상의 높은 성능을 보이지만, 일부는 상대적으로 낮은, 0.80 미만의 수치를 보인다. 이는 연구에 사용한 데이터 수가 기존의 연구들에 비해 적기에 특정 모델의 학습 및 테스트에는 부족한 것에서 비롯된 사항으로, 적은 양의 데이터로 안질환을 분류하기 위한 모델 선택의 중요성을 강조한다. 각 CNN 모델 아키텍처의 고유 특성과 학습 방식을 데이터의 양과 연결 지어 특정 질환의 분류에 적합한 조합을 확인한다. 특히, ResNet은 residual learning을 통해 적은 양의 데이터로도 여러 질병의 복잡한 특성을 효과적으로 학습하여 높은 성능을 보인다.

향후 연구에는 데이터 증강기법을 추가로 활용하여 모델 학습의 효율을 높인 후, 테스트를 진행할 예정이다. 또한, CNN 모델의 다양성을 증가시켜 연구 주제에 가장 적합한 구조를 선정하는 작업도 수행함으로써 연구 결과를 향상시킬 계획이다. 최종 목표는 현재 사용 중인 상대적으로 적은 양의 데이터로 모든 클래스의 데이터 분류에서 0.95 이상의 높은 Accuracy, Precision, Recall, F1-score를 달성하는 딥러닝 기반 안질환 분류 모델을 제안하는 것이다. 이를 통해 안질환 환자 진단의 정확도 및 효율성을 높이는 데 기여하고자 한다.

참고문헌

  1. J. Banks, "Looking Disease in the Eye," IEEE pulse, Vol. 12, No. 6, pp. 10-13, 2021. https://doi.org/10.1109/MPULS.2021.3128976
  2. Poplin, R., Varadarajan, A.V., Blumer, K. et al. "Prediction of cardiovascular risk factors from retinal fundus photographs via deep learning," Nature Biomedical Engineering Vol. 2, pp. 158-164, 2018. https://doi.org/10.1038/s41551-018-0195-0
  3. Schuster AK, Erb C, Hoffmann EM, Dietlein T, and Pfeiffer N, "The Diagnosis and Treatment of Glaucoma," Deutsches Arzteblatt International, Vol. 117, No. 13, pp. 225-234, 2020. https://doi.org/10.3238/arztebl.2020.0225
  4. Norah Asiri, Muhammad Hussain, Fadwa Al Adel, Nazih Alzaidi, "Deep learning based computer-aided diagnosis systems for diabetic retinopathy: A survey," Artificial Intelligence in Medicine, Vol. 99, 2019. https://doi.org/10.1016/j.artmed.2019.07.009
  5. Keel S, Wu J, Lee PY, Scheetz J, and He M, "Visualizing Deep Learning Models for the Detection of Referable Diabetic Retinopathy and Glaucoma," JAMA Ophthalmology, Vol. 137, No. 3, pp. 288-292, 2019. https://doi.org/10.1001/jamaophthalmol.2018.6035
  6. V. -N. Pham, D. -T. Le, J. Bum, E. J. Lee, J. C. Han and H. Choo, "Attention-Aided Generative Learning for Multi-Scale Multi-Modal Fundus Image Translation," IEEE Access, Vol. 11, pp. 51701-51711, 2023. https://doi.org/10.1109/ACCESS.2023.3278596
  7. D. Romo-Bucheli, U. S. Erfurth and H. Bogunovic, "End-to-End Deep Learning Model for Predicting Treatment Requirements in Neovascular AMD From Longitudinal Retinal OCT Imaging," IEEE Journal of Biomedical and Health Informatics, Vol. 24, No. 12, pp. 3456-3465, 2020. https://doi.org/10.1109/JBHI.2020.3000136
  8. T. Guergueb and M. A. Akhloufi, "Ocular Diseases Detection using Recent Deep Learning Techniques," 43rd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC), Mexico, pp. 3336-3339, 2021. https://doi.org/10.1109/EMBC46164.2021.9629763
  9. Puneet, Kumar, R. and Gupta, M., "Optical coherence tomography image based eye disease detection using deep convolutional neural network," Health Inf Sci Syst, Vol. 10, No. 13, 2022. https://doi.org/10.1007/s13755-022-00182-y
  10. Cen, L. P., Ji, J., Lin, J. W., Ju, S. T., Lin, H. J., Li, T. P., ... and Zhang, M., "Automatic detection of 39 fundus diseases and conditions in retinal photographs using deep neural networks," Nature Communications, Vol. 12, No. 1, p. 4828, 2021. https://doi.org/10.1038/s41467-021-25138-w
  11. Li, Z., Guo, C., Nie, D., Lin, D., Cui, T., Zhu, Y., ... and Lin, H., "Automated detection of retinal exudates and drusen in ultra-widefield fundus images based on deep learning," Eye, Vol. 36, No. 8, pp. 1681-1686, 2022. https://doi.org/10.1038/s41433-021-01715-7
  12. Sahlsten, J., Jaskari, J., Kivinen, J., Turunen, L., Jaanio, E., Hietala, K., and Kaski, K., "Deep Learning Fundus Image Analysis for Diabetic Retinopathy and Macular Edema Grading," Scientific Reports, Vol. 9, No. 1, p. 10750, 2019. https://doi.org/10.1038/s41598-019-47181-w
  13. Abu Kowshir Bitto and Imran Mahmud, "Multi categorical of common eye disease detect using convolutional neural network: a transfer learning approach," Bulletin of Electrical Engineering and Informatics, Vol. 11, No. 4, pp. 2378-2387, 2022. https://doi.org/10.11591/eei.v11i4.3834
  14. M. S. Junayed, M. B. Islam, A. Sadeghzadeh and S. Rahman, "CataractNet: An Automated Cataract Detection System Using Deep Learning for Fundus Images," IEEE Access, Vol. 9, pp. 128799-128808, 2021. https://doi.org/10.1109/ACCESS.2021.3112938
  15. Karthikeyan, S., Sanjay, K. P., Madhusudan, R. J., Sundaramoorthy, S. K., and Krishnan Namboori, P. K., "Detection of multi-class retinal diseases using artificial intelligence: An expeditious learning using deep CNN with minimal data," Biomedical & Pharmacology Journal, Vol. 12, No. 3, pp. 1577-1586, 2019. https://doi.org/10.13005/bpj/1788
  16. S. Ko, H. Yang, M. Kim, and H. Choo, "3D Medical Image Data Augmentation for CT Image Segmentation," Journal of Internet Computing and Services, Vol. 24, No. 4, pp. 85-92, 2023. https://doi.org/10.7472/jksii.2023.24.4.85
  17. He, K., Zhang, X., Ren, S., and Sun, J., "Deep residual learning for image recognition," Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778, 2016. https://openaccess.thecvf.com/content_cvpr_2016/html/He_Deep_Residual_Learning_CVPR_2016_paper.html
  18. Huang, G., Liu, Z., Van Der Maaten, L., and Weinberger, K. Q., "Densely connected convolutional networks," Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 4700- 4708, 2017. https://openaccess.thecvf.com/content_cvpr_2017/html/Huang_Densely_Connected_Convolutional_CVPR_2017_ paper.html
  19. Tan, Mingxing, and Quoc Le., "Efficientnet: Rethinking model scaling for convolutional neural networks," International conference on machine learning, pp. 6105-6114, 2019. https://proceedings.mlr.press/v97/tan19a.html