• 제목/요약/키워드: Dice Similarity Coefficient (DSC)

검색결과 14건 처리시간 0.029초

이자 분할을 위한 노이즈 제거 알고리즘 기반 기존 임계값 기법 대비 U-Net 모델의 대체 가능성 (Substitutability of Noise Reduction Algorithm based Conventional Thresholding Technique to U-Net Model for Pancreas Segmentation)

  • 임세원;이영진
    • 한국방사선학회논문지
    • /
    • 제17권5호
    • /
    • pp.663-670
    • /
    • 2023
  • 본 연구에서는 기존의 노이즈 제거 알고리즘을 적용한 영역 확장 기반의 분할 방법과 U-Net을 이용한 분할 방법의 성능을 정량적 평가인자를 이용하여 비교평가 하고자 하였다. 먼저, 전산화단층검사 영상에 median filter, median modified Wiener filter, fast non-local means algorithm을 모델링하여 적용한 뒤 영역 확장 기반의 분할을 수행하였다. 그리고 U-Net 기반의 분할 모델로 훈련을 진행하여 분할을 수행하였다. 그 후, 노이즈 제거 알고리즘을 사용한 경우와 U-Net을 사용한 경우의 분할 성능을 비교 평가하기 위해 평균 제곱근 편차 (root mean square error, RMSE), 최대 신호 대 잡음비 (peak signal to noise ratio, PSNR), universal quality image index (UQI), 그리고 dice similarity coefficient (DSC)를 측정하였다. 실험 결과, U-Net을 이용하여 분할을 수행했을 때 분할 성능이 가장 향상되었다. RMSE, PSNR, UQI, 그리고 DSC 값은 각각 약 0.063, 72.11, 0.864, 그리고 0.982로 noisy한 영상에 비해 각각 1.97배, 1.09배, 5.30배, 그리고 1.99배 개선된 것을 확인할 수 있었다. 결론적으로, 전산화단층검사영상에서 U-Net이 노이즈 제거 알고리즘에 비해 분할 성능 향상에 효과적임을 입증하였다.

두개악안면 CBCT 영상에서 형상제약 정보를 사용한 하악골 자동 분할 (Automatic Segmentation of the Mandible using Shape-Constrained Information in Cranio-Maxillo-Facial CBCT Images)

  • 김주진;이민진;홍헬렌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권5호
    • /
    • pp.19-27
    • /
    • 2017
  • 본 논문에서는 두개악안면 CBCT 영상에서 형상제약 정보를 사용한 하악골 자동 분할 방법을 제안한다. 제안방법은 다음의 두 단계로 구생된다. 첫째, MDCT 영상을 사용하여 생성된 통계형상모델을 통해 전역적 형상정보 기반의 하악골 분할을 수행한다. 둘째, 하악골의 지역적 형태 정보 및 밝기값 특징을 고려하여 하악골 분할 개선을 수행한다. 제안 방법의 성능을 평가하기 위해 전문가에 의한 수동 분할 결과를 기준으로 제안방법을 정성적, 정량적으로 평가하였다. 실험결과 큰 곡률로 이루어진 좁은 영역을 포함한 하악골 체부 영역과 위치 변이가 큰 관절구 영역에서 제안방법의 다이스계수(DSC: Dice Similarity Coefficient)는 각각 95.64%, 90.97%를 보였다.

Corneal Ulcer Region Detection With Semantic Segmentation Using Deep Learning

  • Im, Jinhyuk;Kim, Daewon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.1-12
    • /
    • 2022
  • 안과 환자의 질병을 판단하기 위해서는 특수 촬영 장비를 통해 찍은 안구영상을 이용한 안과의사의 주관적 판단의 개입이 전통적으로 활용되고 있다. 본 연구에서는 안과 의료진이 질병을 판단할 때 보조적 도움이 될 수 있도록 객관적 진단결과를 제시해주는 각막궤양 의미론적 분할방법에 대하여 제안하였다. 이를 위해 DeepLab 모델을 활용하였고 그 중 Backbone network으로 Xception과 ResNet 네트워크를 이용하였다. 실험결과를 나타내기 위한 평가지표로 다이스 유사계수와 IoU 값을 이용하였고 ResNet101 네트워크를 사용하였을 때 'crop & resized' 이미지에 대해 최대 평균 정확도 93%의 다이스 유사계수 값을 보였다. 본 연구는 객체 검출을 위한 의미론적 분할모델 또한 안구의 각막궤양 부분과 같은 불규칙하고 특이한 모양을 추출하고 분류하는데 뛰어난 결과를 도출할 수 있는 성능을 보유하고 있음을 보여주었다. 향후 학습용 Dataset을 양적으로 보강하여 실험결과의 정확도를 제고할 수 있도록 하고 실제 의료진단 환경에서 구현되어 사용되어 질 수 있도록 할 계획이다.

건선 영역 분할기법 비교분석 (Comparative Analysis of Segmentation Methods in Psoriasis Area)

  • 유현종;이지원;문초이;김은빈;백유상;장상훈;이언석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.657-659
    • /
    • 2019
  • 본 논문에서는 피부 이미지에서 건선 병변만을 가장 효과적으로 분할 할 수 있는 분할기법 선별을 목표로 한다. Interactive graph cuts (IGC)와 Level set method (LSM)를 사용하여 건선 영역을 분할한 후 Jaccard Index (JI)와 Dice Similarity Coefficient (DSC)을 사용하여 건선 영역에 효과적인 분할 방법을 제안한다.

딥 러닝 기반의 영상분할 알고리즘을 이용한 의료영상 3차원 시각화에 관한 연구 (Three-Dimensional Visualization of Medical Image using Image Segmentation Algorithm based on Deep Learning)

  • 임상헌;김영재;김광기
    • 한국멀티미디어학회논문지
    • /
    • 제23권3호
    • /
    • pp.468-475
    • /
    • 2020
  • In this paper, we proposed a three-dimensional visualization system for medical images in augmented reality based on deep learning. In the proposed system, the artificial neural network model performed fully automatic segmentation of the region of lung and pulmonary nodule from chest CT images. After applying the three-dimensional volume rendering method to the segmented images, it was visualized in augmented reality devices. As a result of the experiment, when nodules were present in the region of lung, it could be easily distinguished with the naked eye. Also, the location and shape of the lesions were intuitively confirmed. The evaluation was accomplished by comparing automated segmentation results of the test dataset to the manual segmented image. Through the evaluation of the segmentation model, we obtained the region of lung DSC (Dice Similarity Coefficient) of 98.77%, precision of 98.45%, recall of 99.10%. And the region of pulmonary nodule DSC of 91.88%, precision of 93.05%, recall of 90.94%. If this proposed system will be applied in medical fields such as medical practice and medical education, it is expected that it can contribute to custom organ modeling, lesion analysis, and surgical education and training of patients.

요추 특징점 추출을 위한 영역 분할 모델의 성능 비교 분석 (A Comparative Performance Analysis of Segmentation Models for Lumbar Key-points Extraction)

  • 유승희;최민호 ;장준수
    • 대한의용생체공학회:의공학회지
    • /
    • 제44권5호
    • /
    • pp.354-361
    • /
    • 2023
  • Most of spinal diseases are diagnosed based on the subjective judgment of a specialist, so numerous studies have been conducted to find objectivity by automating the diagnosis process using deep learning. In this paper, we propose a method that combines segmentation and feature extraction, which are frequently used techniques for diagnosing spinal diseases. Four models, U-Net, U-Net++, DeepLabv3+, and M-Net were trained and compared using 1000 X-ray images, and key-points were derived using Douglas-Peucker algorithms. For evaluation, Dice Similarity Coefficient(DSC), Intersection over Union(IoU), precision, recall, and area under precision-recall curve evaluation metrics were used and U-Net++ showed the best performance in all metrics with an average DSC of 0.9724. For the average Euclidean distance between estimated key-points and ground truth, U-Net was the best, followed by U-Net++. However the difference in average distance was about 0.1 pixels, which is not significant. The results suggest that it is possible to extract key-points based on segmentation and that it can be used to accurately diagnose various spinal diseases, including spondylolisthesis, with consistent criteria.

Automated Segmentation of Left Ventricular Myocardium on Cardiac Computed Tomography Using Deep Learning

  • Hyun Jung Koo;June-Goo Lee;Ji Yeon Ko;Gaeun Lee;Joon-Won Kang;Young-Hak Kim;Dong Hyun Yang
    • Korean Journal of Radiology
    • /
    • 제21권6호
    • /
    • pp.660-669
    • /
    • 2020
  • Objective: To evaluate the accuracy of a deep learning-based automated segmentation of the left ventricle (LV) myocardium using cardiac CT. Materials and Methods: To develop a fully automated algorithm, 100 subjects with coronary artery disease were randomly selected as a development set (50 training / 20 validation / 30 internal test). An experienced cardiac radiologist generated the manual segmentation of the development set. The trained model was evaluated using 1000 validation set generated by an experienced technician. Visual assessment was performed to compare the manual and automatic segmentations. In a quantitative analysis, sensitivity and specificity were calculated according to the number of pixels where two three-dimensional masks of the manual and deep learning segmentations overlapped. Similarity indices, such as the Dice similarity coefficient (DSC), were used to evaluate the margin of each segmented masks. Results: The sensitivity and specificity of automated segmentation for each segment (1-16 segments) were high (85.5-100.0%). The DSC was 88.3 ± 6.2%. Among randomly selected 100 cases, all manual segmentation and deep learning masks for visual analysis were classified as very accurate to mostly accurate and there were no inaccurate cases (manual vs. deep learning: very accurate, 31 vs. 53; accurate, 64 vs. 39; mostly accurate, 15 vs. 8). The number of very accurate cases for deep learning masks was greater than that for manually segmented masks. Conclusion: We present deep learning-based automatic segmentation of the LV myocardium and the results are comparable to manual segmentation data with high sensitivity, specificity, and high similarity scores.

전립선암 영상유도 방사선 치료시 골반내장기의 체적변화에 따른 표적장기의 변화 (Inter-fractional Target Displacement in the Prostate Image-Guided Radiotherapy using Cone Beam Computed Tomography)

  • 동갑상;백창욱;정윤정;배재범;최영은;성기훈
    • 대한방사선치료학회지
    • /
    • 제28권2호
    • /
    • pp.161-169
    • /
    • 2016
  • 목 적 : 전립선암 방사선치료에서 방광과 직장의 체적변화에 따른 전립선의 위치 및 모양변화를 파악하여 이들 변화가 표적체적에 미치는 영향을 파악하고자 하였다. 대상 및 방법 : 본원 전립선암 protocol에 따라 방사선치료를 시행한 환자 6명을 대상으로 후향적 영상자료분석 및 윤곽설정을 시행하였다. 설계용 computed tomography (pCT)와 분할치료 시 획득된 cone-beam CT (CBCT)를 이용하여 전립선, 방광, 그리고 직장의 윤곽을 설정(contouring)하였다. 두 영상자료의 골격구조 기반 조사영역맞춤을 통해 전립선의 위치변화를 관찰하였으며, 전립선의 위치변화, 모양변형, 그리고 크기변화를 종합적으로 분석하기 위해 Dice similarity coefficient(DSC)를 이용하였다. 결 과 : 전립선의 체적은 pCT에서 평균 37.2cm3 로 측정되었으며 약 5% 이내의 크기변화를 나타내었고, 전립선의 DSC는 평균 89.9%로 환자마다 다양한 분포양상이 관측되었다. 방광의 체적변화에 따른 전립선의 DSC 변화를 상관분석한 결과 관련성을 찾을 수 없었지만(r=-0.084,p=0.268), 방광체적의 증감에 따른 층화분석 시 방광의 체적이 증가한 경우에서 DSC 와 방광변화량 간에 통계적으로 유의한 음의 상관관계를 관찰할 수 있었다(r=-0.230,p=0.049). 직장의 체적변화에 따른 전립선의 DSC 변화를 분석한 결과 직장의 체적변화가 증가함에 따라 DSC가 감소하는 것으로 나타났다(r=-0.162,p=0.032). 직장체적에 대한 층화분석에서는 체적이 pCT보다 증가한 경우에 강한 상관관계를 나타내었다 (r=-0.240,p=0.020). 결 론 : 방광과 직장의 체적을 일정하게 유지하는 것이 치료의 정확도를 보장하는 것은 아닌 것으로 나타났다. 따라서 전립선암의 방사선치료 시 CBCT를 이용한 연조직 기반의 조사영역맞춤이 중요하며, 직장풍선(rectal balloon) 등을 이용한 체적관리가 치료정확도를 유지하는데 역할을 할 것으로 사료된다.

  • PDF

흉부 CT 영상에서 심층 감독 및 하이브리드 병변 초점 손실 함수를 활용한 폐암 분할 개선 (Enhanced Lung Cancer Segmentation with Deep Supervision and Hybrid Lesion Focal Loss in Chest CT Images)

  • 이민진;오윤선;홍헬렌
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제30권1호
    • /
    • pp.11-17
    • /
    • 2024
  • 폐암은 크기가 다양하고 유사한 밝기값을 갖는 주변 구조물이 존재하기 때문에 흉부 CT 영상에서 폐암을 정확하게 분할하는 것이 어렵다. 이러한 문제를 해결하기 위해 본 논문에서는 심층 감독을 포함하고 UNet3+를 백본으로 사용하는 폐암 분할 네트워크를 제안한다. 또한, 픽셀 기반, 영역 기반 및 형태 기반의 3가지 구성 요소로 이루어진 하이브리드 병변 초점 손실함수를 제안한다. 이를 통해 배경에 비해 작은 영역을 차지하는 폐암 부분에 집중하고, 불명확한 경계를 처리하는데 도움이 되는 형태 정보를 고려할 수 있다. 제안 방법을 UNet 및 UNet3+와 비교 실험을 통해 검증하였고, 제안 방법은 모든 폐암 크기에서 DSC 측면에서 가장 우수한 성능을 보였다.

Deep learning-based automatic segmentation of the mandibular canal on panoramic radiographs: A multi-device study

  • Moe Thu Zar Aung;Sang-Heon Lim;Jiyong Han;Su Yang;Ju-Hee Kang;Jo-Eun Kim;Kyung-Hoe Huh;Won-Jin Yi;Min-Suk Heo;Sam-Sun Lee
    • Imaging Science in Dentistry
    • /
    • 제54권1호
    • /
    • pp.81-91
    • /
    • 2024
  • Purpose: The objective of this study was to propose a deep-learning model for the detection of the mandibular canal on dental panoramic radiographs. Materials and Methods: A total of 2,100 panoramic radiographs (PANs) were collected from 3 different machines: RAYSCAN Alpha (n=700, PAN A), OP-100 (n=700, PAN B), and CS8100 (n=700, PAN C). Initially, an oral and maxillofacial radiologist coarsely annotated the mandibular canals. For deep learning analysis, convolutional neural networks (CNNs) utilizing U-Net architecture were employed for automated canal segmentation. Seven independent networks were trained using training sets representing all possible combinations of the 3 groups. These networks were then assessed using a hold-out test dataset. Results: Among the 7 networks evaluated, the network trained with all 3 available groups achieved an average precision of 90.6%, a recall of 87.4%, and a Dice similarity coefficient (DSC) of 88.9%. The 3 networks trained using each of the 3 possible 2-group combinations also demonstrated reliable performance for mandibular canal segmentation, as follows: 1) PAN A and B exhibited a mean DSC of 87.9%, 2) PAN A and C displayed a mean DSC of 87.8%, and 3) PAN B and C demonstrated a mean DSC of 88.4%. Conclusion: This multi-device study indicated that the examined CNN-based deep learning approach can achieve excellent canal segmentation performance, with a DSC exceeding 88%. Furthermore, the study highlighted the importance of considering the characteristics of panoramic radiographs when developing a robust deep-learning network, rather than depending solely on the size of the dataset.