• 제목/요약/키워드: Image deep learning

검색결과 1,776건 처리시간 0.031초

Automatic Detection and Classification of Rib Fractures on Thoracic CT Using Convolutional Neural Network: Accuracy and Feasibility

  • Qing-Qing Zhou;Jiashuo Wang;Wen Tang;Zhang-Chun Hu;Zi-Yi Xia;Xue-Song Li;Rongguo Zhang;Xindao Yin;Bing Zhang;Hong Zhang
    • Korean Journal of Radiology
    • /
    • 제21권7호
    • /
    • pp.869-879
    • /
    • 2020
  • Objective: To evaluate the performance of a convolutional neural network (CNN) model that can automatically detect and classify rib fractures, and output structured reports from computed tomography (CT) images. Materials and Methods: This study included 1079 patients (median age, 55 years; men, 718) from three hospitals, between January 2011 and January 2019, who were divided into a monocentric training set (n = 876; median age, 55 years; men, 582), five multicenter/multiparameter validation sets (n = 173; median age, 59 years; men, 118) with different slice thicknesses and image pixels, and a normal control set (n = 30; median age, 53 years; men, 18). Three classifications (fresh, healing, and old fracture) combined with fracture location (corresponding CT layers) were detected automatically and delivered in a structured report. Precision, recall, and F1-score were selected as metrics to measure the optimum CNN model. Detection/diagnosis time, precision, and sensitivity were employed to compare the diagnostic efficiency of the structured report and that of experienced radiologists. Results: A total of 25054 annotations (fresh fracture, 10089; healing fracture, 10922; old fracture, 4043) were labelled for training (18584) and validation (6470). The detection efficiency was higher for fresh fractures and healing fractures than for old fractures (F1-scores, 0.849, 0.856, 0.770, respectively, p = 0.023 for each), and the robustness of the model was good in the five multicenter/multiparameter validation sets (all mean F1-scores > 0.8 except validation set 5 [512 x 512 pixels; F1-score = 0.757]). The precision of the five radiologists improved from 80.3% to 91.1%, and the sensitivity increased from 62.4% to 86.3% with artificial intelligence-assisted diagnosis. On average, the diagnosis time of the radiologists was reduced by 73.9 seconds. Conclusion: Our CNN model for automatic rib fracture detection could assist radiologists in improving diagnostic efficiency, reducing diagnosis time and radiologists' workload.

뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스 연구: 암묵적 적합성 피드백 활용을 중심으로 (Digital Library Interface Research Based on EEG, Eye-Tracking, and Artificial Intelligence Technologies: Focusing on the Utilization of Implicit Relevance Feedback)

  • 김현희;김용호
    • 정보관리학회지
    • /
    • 제41권1호
    • /
    • pp.261-282
    • /
    • 2024
  • 본 연구는 디지털 도서관의 콘텐츠를 탐색하는 동안 이용자의 암묵적 적합성 피드백을 활용하여 적합성을 판단하기 위해 뇌파 기반 및 시선추적 기반 방법들을 제안하고 평가해 보았다. 이를 위해서 32명을 대상으로 하여 동영상, 이미지, 텍스트 데이터를 활용하여 뇌파/시선추적 실험들을 수행하였다. 제안된 방법들의 유용성을 평가하기 위해서, 딥러닝 기반의 인공지능 방법들을 경쟁 기준으로 사용하였다. 평가 결과, 주제에 적합한 동영상과 이미지(얼굴/감정)를 선택하는 데에는 뇌파 컴포넌트 기반 방법들(av_P600, f_P3b)이 높은 분류 정확도를 나타냈고, 이미지(객체)와 텍스트(신문 기사)를 선택하는 데에는 인공지능 기반 방법 즉, 객체 인식 기반 방법과 자연언어 처리 방법이 각각 높은 분류 정확도를 나타냈다. 끝으로, 뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스를 구현하기 위한 지침 즉, 암묵적 적합성 피드백에 기반한 시스템 모형을 제안하고, 분류 정확도를 향상시키기 위해서 미디어별로 적합한 뇌파 기반, 시선추적 기반 및 인공지능 기반 방법들을 제시하였다.

CNN 기반 스펙트로그램을 이용한 자유발화 음성감정인식 (Spontaneous Speech Emotion Recognition Based On Spectrogram With Convolutional Neural Network)

  • 손귀영;권순일
    • 정보처리학회 논문지
    • /
    • 제13권6호
    • /
    • pp.284-290
    • /
    • 2024
  • 음성감정인식(Speech Emotion Recognition, SER)은 사용자의 목소리에서 나타나는 떨림, 어조, 크기 등의 음성 패턴 분석을 통하여 감정 상태를 판단하는 기술이다. 하지만, 기존의 음성 감정인식 연구는 구현된 시나리오를 이용하여 제한된 환경 내에서 숙련된 연기자를 대상으로 기록된 음성인 구현발화를 중심의 연구로 그 결과 또한 높은 성능을 얻을 수 있지만, 이에 반해 자유발화 감정인식은 일상생활에서 통제되지 않는 환경에서 이루어지기 때문에 기존 구현발화보다 현저히 낮은 성능을 보여주고 있다. 본 논문에서는 일상적 자유발화 음성을 활용하여 감정인식을 진행하고, 그 성능을 향상하고자 한다. 성능평가를 위하여 AI Hub에서 제공되는 한국인 자유발화 대화 음성데이터를 사용하였으며, 딥러닝 학습을 위하여 1차원의 음성신호를 시간-주파수가 포함된 2차원의 스펙트로그램(Spectrogram)로 이미지 변환을 진행하였다. 생성된 이미지는 CNN기반 전이학습 신경망 모델인 VGG (Visual Geometry Group) 로 학습하였고, 그 결과 7개 감정(기쁨, 사랑스러움, 화남, 두려움, 슬픔, 중립, 놀람)에 대해서 성인 83.5%, 청소년 73.0%의 감정인식 성능을 확인하였다. 본 연구를 통하여, 기존의 구현발화기반 감정인식 성능과 비교하면, 낮은 성능이지만, 자유발화 감정표현에 대한 정량화할 수 있는 음성적 특징을 규정하기 어려움에도 불구하고, 일상생활에서 이루어진 대화를 기반으로 감정인식을 진행한 점에서 의의를 두고자 한다.

YOLO 알고리즘 기반 국토위성영상의 선박 모니터링 가능성 평가 연구: 부산 신항과 캘리포니아 오클랜드항을 대상으로 (A Study on Evaluating the Possibility of Monitoring Ships of CAS500-1 Images Based on YOLO Algorithm: A Case Study of a Busan New Port and an Oakland Port in California)

  • 박상철;박영빈;장소영;김태호
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1463-1478
    • /
    • 2022
  • 한국 수출입의 99.7%는 해상운송이 차지하고 있으며, 항만의 효율적 운영을 위해 해운 물류 모니터링 시스템 개발 필요성이 대두되고 있다. 현재 automatic identification system (AIS)를 기반으로 선박의 정보를 조회하여 해상 물동량 추정 연구가 진행되고 있지만, AIS를 운영하지 않는 선박들에 대한 모니터링은 불가능하다는 한계가 있다. 고해상도 광학 위성 영상은 광역의 범위에서 AIS 미운영 선박 및 소형 선박을 식별할 수 있기 때문에 AIS 기반 물동량 모니터링의 공백을 보완할 수 있다. 그러므로 선박 및 물동량 모니터링에 활용하기 위해, 고해상도 광학 위성영상에서 선박을 탐지하고 화물선 및 소형 선박을 분류하는 연구가 필요하다. 본 연구는 초기 국토위성영상을 이용하여 생산된 학습 자료 기반으로 인공지능 모델을 훈련시키고 다른 영상에서 탐지를 수행함으로써, 국토위성영상의 딥러닝 학습 자료 생산 및 선박 모니터링 활용 가능성을 알아보고자 하였다. 학습 자료는 황해 및 황해 주요 항만 구역 내 선박들을 추출하여 제작했으며, You Only Look Once (YOLO) 알고리즘을 사용하여 탐지 모델은 구축하고 국내외 주요 항만 각 1개소를 대상으로 선박 탐지 성능을 평가하였다. 항만 접안 및 해상 정박중인 선박을 대상으로 탐지 모델에 적용한 결과를 AIS의 선종 정보와 비교하였고, 국내 항만에서 85.5%와 89%, 국외 항만에서 70%의 선종 분류 정확도를 확인하였다. 본 연구 결과는 정박중인 선박을 중심으로 고해상도 국토위성영상을 활용하여 모니터링이 가능함을 확인하였다. 향후 지속적인 학습 자료 구축을 통해 탐지 모델의 정확도를 향상시킨다면 전세계 주요 항만에서 선박 및 물동량 모니터링 분야에 활용할 수 있을 것으로 기대된다.

Hybrid CNN-LSTM 알고리즘을 활용한 도시철도 내 피플 카운팅 연구 (A Study on People Counting in Public Metro Service using Hybrid CNN-LSTM Algorithm)

  • 최지혜;김민승;이찬호;최정환;이정희;성태응
    • 지능정보연구
    • /
    • 제26권2호
    • /
    • pp.131-145
    • /
    • 2020
  • 산업혁신의 흐름에 발맞추어 다양한 분야에서 활용되고 있는 IoT 기술은 빅데이터의 접목을 통한 새로운 비즈니스 모델의 창출 및 사용자 친화적 서비스 제공의 핵심적인 요소로 부각되고 있다. 사물인터넷이 적용된 디바이스에서 누적된 데이터는 사용자 환경 및 패턴 분석을 통해 맞춤형 지능 시스템을 제공해줄 수 있어 편의 기반 스마트 시스템 구축에 다방면으로 활용되고 있다. 최근에는 이를 공공영역 혁신에 확대 적용하여 CCTV를 활용한 교통 범죄 문제 해결 등 스마트시티, 스마트 교통 등에 활용하고 있다. 그러나 이미지 데이터를 활용하는 기존 연구에서는 개인에 대한 사생활 침해 문제 및 비(非)일반적 상황에서 객체 감지 성능이 저하되는 한계가 있다. 본 연구에 활용된 IoT 디바이스 기반의 센서 데이터는 개인에 대한 식별이 불필요해 사생활 이슈로부터 자유로운 데이터로, 불특정 다수를 위한 지능형 공공서비스 구축에 효과적으로 활용될 수 있다. 대다수의 국민들이 일상적으로 활용하는 도시철도에서의 지능형 보행자 트래킹 시스템에 IoT 기반의 적외선 센서 디바이스를 활용하고자 하였으며 센서로부터 측정된 온도 데이터를 실시간 송출하고, CNN-LSTM(Convolutional Neural Network-Long Short Term Memory) 알고리즘을 활용하여 구간 내 보행 인원의 수를 예측하고자 하였다. 실험 결과 MLP(Multi-Layer Perceptron) 및 LSTM(Long Short-Term Memory), RNN-LSTM(Recurrent Neural Network-Long Short Term Memory)에 비해 제안한 CNN-LSTM 하이브리드 모형이 가장 우수한 예측성능을 보임을 확인하였다. 본 논문에서 제안한 디바이스 및 모델을 활용하여 그간 개인정보와 관련된 법적 문제로 인해 서비스 제공이 미흡했던 대중교통 내 실시간 모니터링 및 혼잡도 기반의 위기상황 대응 서비스 등 종합적 메트로 서비스를 제공할 수 있을 것으로 기대된다.

Landsat 위성 영상으로부터 Modified U-Net을 이용한 백두산 천지 얼음변화도 관측 (Observation of Ice Gradient in Cheonji, Baekdu Mountain Using Modified U-Net from Landsat -5/-7/-8 Images)

  • 이어루;이하성;박순천;정형섭
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1691-1707
    • /
    • 2022
  • 한반도와 중국 경계에 위치한 백두산의 칼데라호인 천지호는 계절에 따라 해빙과 결빙을 반복한다. 천지 아래에는 마그마 챔버가 존재하며 마그마 챔버의 변화에 의해 온천수의 온도 및 수압 변화와 같은 화산 전조현상이 발생한다. 이에 따라, 천지호 내에서 다른 부분보다 해빙이 빠르며 결빙기에도 늦게 얼며 물표면 온도가 높은 이상지역이 존재하게 된다. 해당 이상지역은 온천수 방출 지역으로, 이상지역의 얼음변화도 값을 통해 화산활동을 모니터링 할 수 있다. 그러나 지리적, 정치적 그리고 공간적 문제로 천지의 이상지역을 주기적으로 관측하기에는 한계가 존재한다. 따라서 본 연구에서는 Landsat -5/-7/-8 광학위성영상으로부터 Modified U-Net 회귀모델을 이용하여 이상지역내의 얼음변화도를 정량적으로 관측하였다. 1985년 1월 22일부터 2020년 12월 8일까지 이상지역을 갖는 83장의 Landsat 영상의 Visible and Near Infrared (VNIR)대역을 활용하였다. 얼음 변화도를 정량적으로 관측을 위해 VNIR대역에서 수체와 얼음과의 상대적인 분광반사도를 활용하여 새로운 데이터를 만들었다. 가시광선대역과 근적외선 대역이 가지고 있는 정보를 최대한 유지하기 위해 2개의 인코더를 가진 U-Net에 적용하여 얼음변화도를 관측하였으며 Root Mean Square Error (RMSE) 140, 상관계수 0.9968의 높은 예측 성능을 보여주었다. 따라서 Modified U-Net을 활용하면 추후 Landsat 영상으로부터 얼음변화도 값을 높은 정확도로 관측하므로 백두산 화산활동을 모니터링하는 방법 중 하나로 사용될 수 있으며, 다른 화산 모니터링 기법과 더불어 활용한다면 더욱 정밀한 화산감시체계 구축이 가능할 것이다.