• 제목/요약/키워드: Image deep learning

검색결과 1,806건 처리시간 0.025초

전산화단층영상 기반 뇌출혈 검출을 위한 YOLOv5s 성능 평가 (Performance Evaluation of YOLOv5s for Brain Hemorrhage Detection Using Computed Tomography Images)

  • 김성민;이승완
    • 한국방사선학회논문지
    • /
    • 제16권1호
    • /
    • pp.25-34
    • /
    • 2022
  • 뇌 전산화단층촬영은 비침습성, 3차원 영상 제공, 저방사선량 등의 장점 때문에 뇌출혈과 같은 질병 진단을 위해 시행된다. 하지만 뇌 전산화단층영상 판독을 위한 전문의의 인력 공급 부족 및 막대한 업무량으로 인해 수많은 판독 오류 및 오진이 발생하고 있다. 이와 같은 문제를 해결하기 위해 객체 검출을 위한 다양한 인공지능 기술이 개발되고 있다. 본 연구에서는 뇌 전산화단층영상으로부터 뇌출혈 검출을 위한 딥러닝 기반 YOLOv5s 모델의 적용 가능성을 확인하였다. 또한 YOLOv5s 모델 학습 시 초매개변수를 변화시켜 학습된 모델의 성능을 평가하였다. YOLOv5s 모델은 backbone, neck 및 output 모듈로 구성하였고, 입력 CT 영상 내 뇌출혈로 의심되는 부위를 검출하여 출력할 수 있도록 하였다. YOLOv5s 모델 학습 시 활성화함수, 최적화함수, 손실함수 및 학습 횟수를 변화시켰고, 학습된 모델의 뇌출혈 검출 정확도 및 학습 시간을 측정하였다. 연구결과 학습된 YOLOv5s 모델은 뇌출혈로 의심되는 부위에 대한 경계 박스 및 해당 경계박스에 대한 정확도를 출력할 수 있음을 확인하였다. Mish 활성화함수, stochastic gradient descent 최적화함수 및 completed intersection over union 손실함수 적용 시 YOLOv5s 모델의 뇌출혈 검출 정확도 향상 및 학습 시간이 단축되는 결과를 확인하였다. 또한 YOLOv5s 모델의 뇌출혈 검출 정확도 및 학습 시간은 학습 횟수에 비례하여 증가하는 결과를 확인하였다. 따라서 YOLOv5s 모델은 뇌 전산화단층영상을 이용한 뇌출혈 검출을 위해 활용할 수 있으며, 최적의 초매개변수 적용을 통해 성능을 향상 시킬 수 있다.

위상 잠금 열화상 기법을 이용한 콘크리트 마감재 내부 균열 검출 (Concrete Crack Detection Inside Finishing Materials Using Lock-in Thermography)

  • 이명훈;우욱용;최하진;김종찬
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제27권6호
    • /
    • pp.30-38
    • /
    • 2023
  • 안전점검 대상 노후 건축물이 증가함에 따라 안전관리 주체인 지정기관 및 관리주체의 부담이 증가하고 있다. 이에 안전점검 대상 건축물 선정에 있어 적절한 안전전검 기준과 그에 따르는 적절한 기술은 필수적이다. 현행 노후 건축물 대상 안전점검 수행 기준은 마감재로 인해 구조 부재 균열 등의 손상 확인이 어려울 경우 낮은 점수를 부여하고 있다. 이는 구조물의 실체 안전상태와 관계없이 평가 결과가 과소평가되어 안전점검 대상 노후화 건축물을 증가시키는 원인이다. 이에 본 연구에서는 마감재 내부의 균열 탐지를 위해 비파괴·비접촉 검사인 열화상 기법을 제안하였다. 열화상 카메라를 이용한 마감재 내부 균열 관측을 위해 콘크리트 시편을 제작하였으며, 콘크리트 표면 및 균열부에 열원을 가진하여 열화상 데이터를 계측하였다. 계측 결과, 너비 0.3mm, 0.5mm, 0.7mm의 마감재 내부 균열 관측이 가능함을 확인하였으나, 표면 박리, 도배지 들뜸으로 인한 불균일한 온도 분포로 인해 균열 판단이 어렵다. 이에 열화상 데이터의 진폭 및 위상 차이를 도출하여 데이터 분석을 수행한 결과, 0.5mm, 0.7mm 균열에 대해 선명한 균열 계측이 가능하였다. 본 연구를 토대로 추후 마감재 내부 균열 손상 진단에 있어 빅 데이터 기반 딥러닝을 이용한 기술개발을 통해 현장적용 및 분석의 효율성을 증대시키고자 한다.

3DentAI: 파노라마 X-ray로부터 3차원 구강구조 복원을 위한 U-Nets (3DentAI: U-Nets for 3D Oral Structure Reconstruction from Panoramic X-rays)

  • ;문성용;유원상
    • 정보처리학회 논문지
    • /
    • 제13권7호
    • /
    • pp.326-334
    • /
    • 2024
  • 파노라마 X-ray (PX) 및 Cone Beam Computed Tomography (CBCT)와 같은 구강 영상 기술은 영상 촬영 시 환자의 편의성과 전체 치아 정보를 시각화할 수 있는 능력으로 인해 치과 진료소에서 가장 선호되는 영상 기법이다. PX는 일상적인 임상 치료에 선호되고, CBCT는 복잡한 수술 및 임플란트 치료에 선호된다. 그러나 PX는 3차원 공간정보가 부족하다는 한계가 있는 반면 CBCT는 환자에게 높은 방사선 노출을 초래한다. PX가 이미 사용 가능한 경우 PX로부터 3D강 구강구조를 복원함으로써 추가 비용을 줄이고 방사선량을 피할 수 있다. 본 논문에서는 PX 이미지로부터 구강구조의 3차원 복원을 위한 U-Net 기반 딥러닝 프레임워크인 3DentAI를 제안한다. 제안된 프레임워크는 PX 이미지에서 깊이를 추정하기 위한 Attention U-Net 기반 재구성 모듈, 사전 정의된 초점 골 및 광선 데이터를 사용하여 예측된 편평 볼륨을 턱 모양에 정렬하기 위한 재정렬 모듈과, 구강의 원활한 표현을 얻기 위해 누락된 정보를 보간하는 3D U-Net 기반 개선 모듈의 세 가지 모듈로 구성된다. 네트워크를 훈련하기 위해, 쌍을 이루는 PX 및 CBCT 데이터셋 대신에 광선 추적 및 렌더링을 통해 CBCT로 부터 합성한 PX 데이터를 사용하였다. 600명의 환자로 구성된 다양한 데이터셋으로 모델을 훈련한 결과, 낮은 계산 복잡도에도 GAN 기반 모델에 비해 우수한 성능을 보였다.

픽셀 단위 컨볼루션 네트워크를 이용한 복부 컴퓨터 단층촬영 영상 기반 골전이암 병변 검출 알고리즘 개발 (Development of Bone Metastasis Detection Algorithm on Abdominal Computed Tomography Image using Pixel Wise Fully Convolutional Network)

  • 김주영;이시영;김규리;조경원;유승민;소순원;박은경;조백환;최동일;박훈기;김인영
    • 대한의용생체공학회:의공학회지
    • /
    • 제38권6호
    • /
    • pp.321-329
    • /
    • 2017
  • This paper presents a bone metastasis Detection algorithm on abdominal computed tomography images for early detection using fully convolutional neural networks. The images were taken from patients with various cancers (such as lung cancer, breast cancer, colorectal cancer, etc), and thus the locations of those lesions were varied. To overcome the lack of data, we augmented the data by adjusting the brightness of the images or flipping the images. Before the augmentation, when 70% of the whole data were used in the pre-test, we could obtain the pixel-wise sensitivity of 18.75%, the specificity of 99.97% on the average of test dataset. With the augmentation, we could obtain the sensitivity of 30.65%, the specificity of 99.96%. The increase in sensitivity shows that the augmentation was effective. In the result obtained by using the whole data, the sensitivity of 38.62%, the specificity of 99.94% and the accuracy of 99.81% in the pixel-wise. lesion-wise sensitivity is 88.89% while the false alarm per case is 0.5. The results of this study did not reach the level that could substitute for the clinician. However, it may be helpful for radiologists when it can be used as a screening tool.

데이터 증강기법을 이용한 음성 위조 공격 탐지모형의 성능 향상에 대한 연구 (Data augmentation in voice spoofing problem)

  • 최효정;곽일엽
    • 응용통계연구
    • /
    • 제34권3호
    • /
    • pp.449-460
    • /
    • 2021
  • 본 논문에서는 음성위조공격탐지(Voice spoofing detection) 문제에 데이터 증강을 적용한다. ASVspoof 2017은 리플레이 공격 탐지에 대해 다루며 진짜 사람의 음성과 환경이나 녹음·재생 장치의 조건들을 다르게 하여 위조한 가짜 음성을 분류하는 것을 목적으로 한다. 지금까지 이미지 데이터에 대한 데이터 증강 연구가 활발히 이루어졌으며 음성에도 데이터 증강을 시도하는 여러 연구가 진행되어왔다. 하지만 음성 리플레이 공격에 대한 데이터 증강시도는 이루어지지 않아 본 논문에서는 데이터 증강기법을 통한 오디오 변형이 리플레이 공격 탐지에 어떠한 영향을 미치는지에 대해 탐구해본다. 총 7가지의 데이터 증강기법을 적용해보았으며 그 중 DVC, Pitch 음성 증강기법이 성능향상에 도움되었다. DVC와 Pitch는 기본 모델 EER의 약 8% 개선을 보여주었으며, 특히 DVC는 57개의 환경변수 중 일부 환경에서 눈에 띄는 정확도 향상이 있었다. 가장 큰 폭으로 증가한 RC53의 경우 DVC가 기본 모델 정확도의 약 45% 향상을 이끌어내며 기존에 탐지하기 어려웠던 고사양의 녹음·재생 장치를 잘 구분해냈다. 본 연구를 토대로 기존에 증강기법의 효과에 대한 연구가 이루어지지 않았던 음성 위조 탐지 문제에서 DVC, Pitch 데이터 증강기법이 성능 향상에 도움이 된다는 것을 알아내었다.

Hellinger 거리 IoU와 Objectron 적용을 기반으로 하는 객체 감지 (Object Detection Based on Hellinger Distance IoU and Objectron Application)

  • 김용길;문경일
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.63-70
    • /
    • 2022
  • 2D 객체 감지 시스템은 최근 몇 년 동안 심층 신경망과 대규모 이미지 데이터세트의 사용으로 크게 개선되었지만, 아직도 범주 내에서 데이터 부족, 다양한 외관 및 객체 형상 때문에 자율 탐색 등과 같은 로봇 공학과 관련된 응용에서 2D 물체 감지 시스템은 적절하지 않다. 최근에 소개되고 있는 구글 Objectron 또한 증강 현실 세션 데이터를 사용하는 새로운 데이터 파이프라인이라는 점에서 도약이라 할 수 있지만, 3D 공간에서 2D 객체 이해라는 측면에서 마찬가지로 한계가 있다. 이에 본 연구에서는 더 성숙한 2D 물체 감지 방법을 Objectron에 도입하는 3D 물체 감지 시스템을 나타낸다. 대부분의 객체 감지 방법은 경계 상자를 사용하여 객체 모양과 위치를 인코딩한다. 본 작업에서는 가우스 분포를 사용하여 객체 영역의 확률적 표현을 탐색하는데, 일종의 확률적 IoU라 할 수 있는 Hellinger 거리를 기반으로 하는 가우스 분포에 대한 유사성 측도를 제시한다. 이러한 2D 표현은 모든 객체 감지기에 원활하게 통합할 수 있으며, 실험 결과 데이터 집합에서 주석이 달린 분할 영역에 더 가까워서 Objectron의 단점이라 할 수 있는 3D 감지 정확도를 높일 수 있다.

YOLOv5와 YOLOv7 모델을 이용한 해양침적쓰레기 객체탐지 비교평가 (A Comparative Study on the Object Detection of Deposited Marine Debris (DMD) Using YOLOv5 and YOLOv7 Models)

  • 박강현;윤유정;강종구;김근아;최소연;장선웅;박수호;공신우;곽지우;이양원
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1643-1652
    • /
    • 2022
  • 해양생태계 및 수산자원, 해상안전에 부정적인 영향을 미치는 해양침적쓰레기는 주로 음파탐지기, 인양틀 및 잠수부를 통해 탐지되고 있다. 시간과 비용을 고려하여 최근에는 수중영상과 인공지능을 결합한 방법이 시도되고 시작했다. 본 연구에서는 효율적이고 정확한 해양침적쓰레기 탐지를 위하여, 수중영상과 딥러닝 객체탐지 모델인 You Only Look Once Version 5 (YOLOv5)와 You Only Look Once Version 7 (YOLOv7)을 학습 및 비교평가를 수행하였다. 유리, 금속, 어망, 타이어, 나무, 플라스틱 등의 객체탐지에 있어, 두 모델 모두 0.85 이상의 Mean Average Precision (mAP@0.5)를 기록하였다. 향후 영상자료 용량이 충분해지면, 보다 객관적인 성능평가 및 모델 개선이 가능할 것으로 사료된다.

데이터 확장을 통한 토지피복분류 U-Net 모델의 성능 개선 (The Performance Improvement of U-Net Model for Landcover Semantic Segmentation through Data Augmentation)

  • 백원경;이명진;정형섭
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1663-1676
    • /
    • 2022
  • 최근 딥러닝을 활용한 토지피복분류 기법 연구가 다수 수행되고 있다. 그런데 양질의 토지피복 학습데이터를 충분하게 구축되지 못하여 성능이 저하되는 양상이 확인되었다. 이에 따라 본 연구에서는 데이터 확장 기법의 적용을 통한 토지피복분류 성능의 향상을 확인하였다. 분류 모델로는 U-Net이 활용되었으며 AI Hub에서 제공하는 토지피복 위성 이미지 자료를 연구자료로 활용하였다. 원본 데이터로 학습한 모델과 데이터 확장 기법이 적용된 데이터로 학습한 모델의 픽셀 정확도는 각각 0.905와 0.923이었으며 평균 F1 스코어는 각각 0.720과 0.775로 데이터 확장 기법을 적용하였을 때가 보다 우수한 성능을 나타내는 사실을 확인할 수 있었다. 또한 원본 학습데이터를 활용하여 학습한 모델의 경우 건물, 도로, 논, 밭, 산림, 비대상 지역 클래스에 대한 F1 스코어가 0.770, 0.568, 0.733, 0.455, 0.964 그리고 0.830이었으며, 데이터 확장을 적용하였을 때에 각 클래스에 대한 F1 스코어는 각각 0.838, 0.660, 0.791, 0.530, 0.969 그리고 0.860으로 모든 클래스에 대해 데이터 확장이 성능향상에 유효하다는 사실을 확인하였다. 또한, 클래스 균형에 대한 고려없이 데이터 확장을 적용했음에도 불구하고 데이터 불균형에 의한 클래스별 성능 왜곡을 완화할 수 있다는 사실을 확인할 수 있었다. 이는 절대적인 학습데이터의 양이 증가했기 때문이라 판단된다. 본 연구 결과는 다양한 영상 처리 분야에서 데이터 확장 기법의 중요성과 효과를 증명하는 기반 자료의 역할을 수행할 것으로 기대한다.

인공지능을 활용한 흉부 엑스선 영상의 코로나19 검출 및 분류에 대한 분석 연구 (Analysis Study on the Detection and Classification of COVID-19 in Chest X-ray Images using Artificial Intelligence)

  • 윤명성;권채림;김성민;김수인;조성준;최유찬;김상현
    • 한국방사선학회논문지
    • /
    • 제16권5호
    • /
    • pp.661-672
    • /
    • 2022
  • COVID-19를 발생시키는 SARS-CoV2 바이러스가 발생한 후 전염병은 전 세계로 확산되며, 감염 사례와 사망자의 수가 빠르게 증가함에 따라 의료자원의 부족 문제가 야기되었다. 이것을 해결하려는 방법으로 인공지능을 활용한 흉부 X-ray 검사가 일차적인 진단 방법으로 관심을 받게 되었다. 본 연구에서는 인공지능을 통한 COVID-19 판독 방식들에 대해 종합적으로 분석하는 것에 목적을 두고 있다. 이 목적을 달성하기 위해 292개의 논문을 일련의 분류 방법을 거처 수집했다. 이러한 자료들을 토대로 Accuracy, Precision, Area Under Curve(AUC), Sensitivity, Specificity, F1-score, Recall, K-fold, Architecture, Class를 포함한 성능 측정정보를 분석했다. 그 결과로 평균 Accuracy, Precision, AUC, Sensitivity, Specificity 값은 각각 95.2%, 94.81%, 94.01%, 93.5%, 93.92%로 도출되었다. 연도별 성능 측정정보는 점차 증가하는 값을 나타냈고 이 외에도 Class 수, 이미지 데이터 수에 따른 변화율, Architecture 사용 비율, K-fold에 관한 연구를 진행했다. 현재 인공지능을 활용한 COVID-19의 진단은 독자적으로 사용되기에는 여러 문제가 존재하지만, 의사의 보조수단으로써 사용됨에는 부족함이 없을 것으로 예상된다.

감정 분류를 이용한 표정 연습 보조 인공지능 (Artificial Intelligence for Assistance of Facial Expression Practice Using Emotion Classification)

  • 김동규;이소화;봉재환
    • 한국전자통신학회논문지
    • /
    • 제17권6호
    • /
    • pp.1137-1144
    • /
    • 2022
  • 본 연구에서는 감정을 표현하기 위한 표정 연습을 보조하는 인공지능을 개발하였다. 개발한 인공지능은 서술형 문장과 표정 이미지로 구성된 멀티모달 입력을 심층신경망에 사용하고 서술형 문장에서 예측되는 감정과 표정 이미지에서 예측되는 감정 사이의 유사도를 계산하여 출력하였다. 사용자는 서술형 문장으로 주어진 상황에 맞게 표정을 연습하고 인공지능은 서술형 문장과 사용자의 표정 사이의 유사도를 수치로 출력하여 피드백한다. 표정 이미지에서 감정을 예측하기 위해 ResNet34 구조를 사용하였으며 FER2013 공공데이터를 이용해 훈련하였다. 자연어인 서술형 문장에서 감정을 예측하기 위해 KoBERT 모델을 전이학습 하였으며 AIHub의 감정 분류를 위한 대화 음성 데이터 세트를 사용해 훈련하였다. 표정 이미지에서 감정을 예측하는 심층신경망은 65% 정확도를 달성하여 사람 수준의 감정 분류 능력을 보여주었다. 서술형 문장에서 감정을 예측하는 심층신경망은 90% 정확도를 달성하였다. 감정표현에 문제가 없는 일반인이 개발한 인공지능을 이용해 표정 연습 실험을 수행하여 개발한 인공지능의 성능을 검증하였다.