• 제목/요약/키워드: 3D U-Net

검색결과 68건 처리시간 0.029초

Automated Lung Segmentation on Chest Computed Tomography Images with Extensive Lung Parenchymal Abnormalities Using a Deep Neural Network

  • Seung-Jin Yoo;Soon Ho Yoon;Jong Hyuk Lee;Ki Hwan Kim;Hyoung In Choi;Sang Joon Park;Jin Mo Goo
    • Korean Journal of Radiology
    • /
    • 제22권3호
    • /
    • pp.476-488
    • /
    • 2021
  • Objective: We aimed to develop a deep neural network for segmenting lung parenchyma with extensive pathological conditions on non-contrast chest computed tomography (CT) images. Materials and Methods: Thin-section non-contrast chest CT images from 203 patients (115 males, 88 females; age range, 31-89 years) between January 2017 and May 2017 were included in the study, of which 150 cases had extensive lung parenchymal disease involving more than 40% of the parenchymal area. Parenchymal diseases included interstitial lung disease (ILD), emphysema, nontuberculous mycobacterial lung disease, tuberculous destroyed lung, pneumonia, lung cancer, and other diseases. Five experienced radiologists manually drew the margin of the lungs, slice by slice, on CT images. The dataset used to develop the network consisted of 157 cases for training, 20 cases for development, and 26 cases for internal validation. Two-dimensional (2D) U-Net and three-dimensional (3D) U-Net models were used for the task. The network was trained to segment the lung parenchyma as a whole and segment the right and left lung separately. The University Hospitals of Geneva ILD dataset, which contained high-resolution CT images of ILD, was used for external validation. Results: The Dice similarity coefficients for internal validation were 99.6 ± 0.3% (2D U-Net whole lung model), 99.5 ± 0.3% (2D U-Net separate lung model), 99.4 ± 0.5% (3D U-Net whole lung model), and 99.4 ± 0.5% (3D U-Net separate lung model). The Dice similarity coefficients for the external validation dataset were 98.4 ± 1.0% (2D U-Net whole lung model) and 98.4 ± 1.0% (2D U-Net separate lung model). In 31 cases, where the extent of ILD was larger than 75% of the lung parenchymal area, the Dice similarity coefficients were 97.9 ± 1.3% (2D U-Net whole lung model) and 98.0 ± 1.2% (2D U-Net separate lung model). Conclusion: The deep neural network achieved excellent performance in automatically delineating the boundaries of lung parenchyma with extensive pathological conditions on non-contrast chest CT images.

U-net기반 동적 연기 탐지 기법 (Tracking Method of Dynamic Smoke based on U-net)

  • 곽경민;노영주
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.81-87
    • /
    • 2021
  • 4차 산업혁명 시대에 맞추어 인공지능 기술은 눈에 띄게 발전하고 있다. 그 중 CNN 등을 활용한 시각 데이터 기반의 인공지능이 활발히 연구 진행 중이다. 시각 기반 모델 중 하나인 U-net은 Semantic Segmentation에 강한 정확도를 보이고 있다. 기존의 U-net을 활용하여 여러 가지 연구들이 진행 되어왔지만 가스, 연기와 같이 외곽선이 뚜렷하지 않은 연구들은 아직 부족한 실정이다. 또한 이와 대조적으로 가스, 연기 탐지에 대해 많은 연구들이 진행이 되어왔지만 U-net 등을 활용하여 단순한 Detection이 아닌 Segmentation 연구는 부족하다. 이를 토대로 본 연구에서는 U-net을 활용하여 가스, 연기 등을 탐지하는 연구를 진행하였다. 본 논문에서는 설정한 실험환경에서 3D camera를 활용하여 데이터를 수집하고 학습 및 테스트 셋을 생성한 방법을 기술하고, U-net을 적용한 방법과 얻은 결과를 검증한 내용을 서술하고, 마지막으로 활용방안 등에 대하여 논하였다.

ATLAS V2.0 데이터에서 의료영상 분할 모델 성능 비교 (Comparison of Performance of Medical Image Semantic Segmentation Model in ATLASV2.0 Data)

  • 우소연;구영현;유성준
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.267-274
    • /
    • 2023
  • 의료영상 공개 데이터는 수집에 한계가 있어 데이터셋의 양이 부족하다는 문제점이 있다. 때문에 기존 연구들은 공개 데이터셋에 과적합 되었을 우려가 있다. 본 논문은 실험을 통해 8개의 (Unet, X-Net, HarDNet, SegNet, PSPNet, SwinUnet, 3D-ResU-Net, UNETR) 의료영상 분할 모델의 성능을 비교함으로써 기존 모델의 성능을 재검증하고자 한다. 뇌졸중 진단 공개 데이터 셋인 Anatomical Tracings of Lesions After Stroke(ATLAS) V1.2과 ATLAS V2.0에서 모델들의 성능 비교 실험을 진행한다. 실험결과 대부분 모델은 V1.2과 V2.0에서 성능이 비슷한 결과를 보였다. 하지만 X-net과 3D-ResU-Net는 V1.2 데이터셋에서 더 높은 성능을 기록했다. 이러한 결과는 해당 모델들이 V1.2에 과적합 되었을 것으로 해석할 수 있다.

유비쿼터스 홈네트워크를 위한 LonRF 디바이스 기반의 센서 네트워크 설계 및 응용 (Design and Application of a LonRF Device based Sensor Network for an Ubiquitous Home Network)

  • 노광현;이병복;박애순
    • 융합신호처리학회논문지
    • /
    • 제7권3호
    • /
    • pp.87-94
    • /
    • 2006
  • 유비쿼터스 홈네트워크 ( uHome-net) 구현을 위해서는 다양한 센서들이 통합된 유무선 센서 네트워크에 연결될 수 있어야 한다. 본 논문은 제어 네트워크에 널리 사용되고 있는 LonWorks 기술을 uHome-net의 유무선 센서 네트워크에 적용한 사례를 소개하고, LonTalk 프로토콜이 탑재된 뉴런칩, 433.92MHz RF 트랜시버, 센서와 응용 프로그램으로 구성되는 LonRF 디바이스의 설계 및 응용 서비스 구현 결과를 설명한다. LonRF 디바이스의 응용 예로 실내에서 물체의 3차원 좌표를 측정할 수 있고 uHome-net과 연동되는 LonRF 스마트배지를 개발하였다. LonRF 디바이스 기반의 위치인식 서비스, 원격검침서비스, 원격경비서비스 등의 홈네트워크 서비스를 uHome-net 테스트베드에 구현하였다. 본 연구는 LonWorks 기술 기반의 센서 네트워크가 유비쿼터스 홈네트워크의 제어 네트워크로 적용할 수 있고, 개발된 LonRF 디바이스가 센서 네트워크의 무선 노드로 사용될 수 있음을 보였다.

  • PDF

워터쉐드와 U-net을 이용한 마네킹 패션 이미지의 자동 3D 데이터 추출 방법 (Automatic 3D data extraction method of fashion image with mannequin using watershed and U-net)

  • 박영민
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.825-834
    • /
    • 2023
  • 인터넷 쇼핑에서 상품의 사진과 동영상을 대체해 3D콘텐츠와 웹 3D 소프트웨어로 사용자에게 친숙한 이미지를 제공하려는 시도가 이어지고 있다 본 연구에서는 2D 이미지를 3D로 변환하여 고객들이 다양한 위치에서 상품을 파악할 수 있는 웹 3D 기술에 접목시키고 변환에 필요한 비용과 계산 시간을 줄일 수 있는 자동 변환기술을 제안하였다. 단 8대의 카메라 만을 사용하여 마네킹을 회전하는 턴테이블 위에 올려 놓고 촬영하는 시스템을 개발하였다. 이러한 시스템에서 촬영한 이미지에서 옷 부분만 추출하기 위해 U-net을 이용하여 마커를 제거하고, 배경 영역과 마네킹 영역의 컬러 특징 정보를 파악하여 옷 영역만을 추출하는 알고리즘을 제안하였다. 이 알고리즘을 이용하면 이미지를 촬영한 후 옷 영역만을 추출하는데 걸리는 시간이 이미지 하나당 2.25초며, 한 개의 옷에 대해 64장의 이미지를 촬영하는 경우에 총 144초(2분 4초)가 소요되어 매우 우수한 성능으로 3D오브젝트를 추출할 수 있다.

중층트롤의 깊이바꿈과 소해심도의 안정성 (Depth Control and Sweeping Depth Stability of the Midwater Trawl)

  • 장지원
    • 수산해양기술연구
    • /
    • 제9권1호
    • /
    • pp.1-18
    • /
    • 1973
  • 중층트를 어구(漁具)의 소해심도(掃海深度)를 일정(一定)한 적정어획속도(適正漁獲速度)에서 기동성(機動性)있게 변화(變化)시키기 위하여 기초적인 모형어구(模型漁具)의 수조실험(水槽實驗)과 특별(特別)히 고안한 깊이바꿈틀을 이용(利用)한 이차(二次)에 걸친 해상시험(海上試驗)을 통(通)하여 연구한 결과를 요약(要約)하면 다음과 같다. 1. 중층(中層)트롤의 그물어구의 깊이 y는 끌줄의 길이 L과 단위(單位) 길이의 끌줄, 깊이바꿈틀 및 그물의 각(各) 수중중량(水中重量) $W_r,\;W_o,\;W_n$과 각(各) 항력(抗力) $R_r,\;R_o,\;R_n$ 사이의 관계(關係)는 차원해석법(次元解析法)에 의하면 다음과 같다. $$y=kLf(\frac{W_r}{R_r},\;\frac{W_o}{R_o},\;\frac{W_n}{R_n})$$ 단(但), k는 상수(常數)이고 f는 함수이다. 2. 단위 길이당(當)의 수중중량(水中重量) $W_r$, 길이 L인 끌줄 끝에 항력(抗力) $D_n$, 수중중량(水中重量) $W_n$d인 수중저항분를 매달고 끌줄의 다른 한 끝을 수면(水面)에서 예인(曳引)할 때,. 끌줄의 형상(形狀)을 현수곡선이라고 보면, 수중저항분의 깊이 y는 다음과 같다. $$y=\frac{1}{W_r}\{\sqrt{{D_n^2}+{(W_n+W_rL)^2}}-\sqrt{{D_n^2+W_n}^2\}$$ 3. 중층(中層)트롤의 그물어구(漁具)깊이의 변화(變化) ${\Delta}y$는 예강(曳綱)의 길이 L을 바꾸거나 추(錘) ${\Delta}W_n$를 부가(附加)하면 다음과 같다. $${\Delta}y{\approx}\frac{W_n+W_{r}L}{\sqrt{D_n^2+(W_n+W_{r}L)^2}}{\Delta}L$$ $${\Delta}y{\approx}\frac{1}{W_r}\{\frac{W_n+W_rL}{\sqrt{D_n^2+(W_n+W_{r}L)^2}}-{\frac{W_n}{\sqrt{D_n^2+W_n^2}}\}{\Delta}W_n$$ 단(但), $D_n$은 그물어구의 항력(抗力)이다. 4. 끌줄 상(上)의 중간점(中間点)에 추(錘) $W_s$를 부가(附加)할 때 중층(中層)트롤 그물어구의 깊이바꿈 ${\Delta}y$$${\Delta}y=\frac{1}{W_r}\{(T_{ur}'-T_{ur})-T_u'-T_u)\}$$ 단(但) $$T_{ur}^l=\sqrt{T_u^2+(W_s+W_{r}L)^2+2T_u(W_s+W_{r}L)sin{\theta}_u$$ $$T_{ur}=\sqrt{T_u^2+(W_{r}L)^2+2T_uW_{r}L\;sin{\theta}_u$$ $$T_{u}'=\sqrt{T_u^2+W_s^2+2T_uW_{s}\;sin{\theta}_u$$ $T_u$ 추(錘)를 부가(附加)하지 않았을 때 끌줄 상(上)의 중간점(中間点)에 있어서의 예인어선(曳引漁船) 쪽을 향하는 장력(張力)이고, ${\theta}_u$는 장력(張力) $T_u$와 수평방향(水平方向)과 이루는 각도(角度)이다. 5. 어떠한 형태(形態)의 저예강용(底曳綱用) 전개판(展開板)도 성능(性能)에 있서어 차이는 있으나 전중량(全重量)을 가볍게 하고 저변(底邊)에 무게를 달아 안정(安定)시키면 중층예강용(中層曳綱用)으로 사용(使用)할 수 있다는 것이 모형(模型) 실험(實驗)결과 밝혀졌다. 6. 모형(模型) 그물(Fig.6)의 수조실험(水槽實驗)에서는 예강속도(曳綱速度) v m/sec, 강고(綱高) H cm 및 수유저항(水流抵抗) R kg 사이에는 다음과 같은 간단(簡單)한 관계식(關係式)이 성립(成立)한다. $$H=8+\frac{10}{0.4+v}$$$R=3+9v^2$$ 7. 특별(特別)히 고안한 십자(十字)날개형(型) 깊이바꿈틀과 H날개형(型) 깊이 바꿈틀을 비교(比較)한 결과(結果) 전자(前者)보다 안정성(安定性)이 우월하였다. 8. 그물어구(漁具)의 유수저항(流水抵抗)이 매우 크며 또 거의가 항력(抗力)으로 볼 수 있으므로 깊이바꿈틀의 종류에 관계없이 그물어구의 소해심도(掃海深度)는 대단히 안정(安定)된 상태를 유지하였다. 9. H날개형(型) 깊이바꿈틀의 수평(水平)날개 면적율 $1.2{\times}2.4m^2$로 하였을 때 유수저항(流水抵抗) 2 ton의 그물 어구를 2.3kts로 예인(曳引)하면서 영각(迎角)을 $0^{\circ}{\sim}30^{\circ}$로 변화(變化)시킨 결과(結果), 끌줄의 길이에 관계없이 약(約) 20m의 깊이바꿈을 얻을 수 있었다.

  • PDF

Automatic Volumetric Brain Tumor Segmentation using Convolutional Neural Networks

  • Yavorskyi, Vladyslav;Sull, Sanghoon
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.432-435
    • /
    • 2019
  • Convolutional Neural Networks (CNNs) have recently been gaining popularity in the medical image analysis field because of their image segmentation capabilities. In this paper, we present a CNN that performs automated brain tumor segmentations of sparsely annotated 3D Magnetic Resonance Imaging (MRI) scans. Our CNN is based on 3D U-net architecture, and it includes separate Dilated and Depth-wise Convolutions. It is fully-trained on the BraTS 2018 data set, and it produces more accurate results even when compared to the winners of the BraTS 2017 competition despite having a significantly smaller amount of parameters.

  • PDF

회류수조를 이요한 자루그물의 가상질량 추정 (Estimation of the Virtual Mass of Conical Nets using Circulating Water Channel)

  • 김현영
    • 수산해양기술연구
    • /
    • 제36권1호
    • /
    • pp.60-65
    • /
    • 2000
  • 수중에서 운동하는 그물어구의 가상질량은 어구의 운동을 해석하고 제어하는데 중요한 파라미터이다. 본 연구에서는 트롤어구의 가상질량을 추정하기 위해서 현재 트롤 어구에서 사용되고 있는 여러 종류의 그물감을 이용해서 자루그물을 제작하여 속도제어가 가능한 회류수조를 이용하여 가상 질량이 망지의 규격 및 망사의 부피 등과 어떤 관계가 있는지를 분석하였고, 실제어구의 가상질량 계산에 적용하여 보았다. 본 연구에서 얻어진 결과를 요약하면 다음과 같다. 1. 재료의 양은 같이 하고 순수하게 영각만을 달리한 각 그물에 대해 영각이 클수록 저항이 더 크게 나타났다. 2. 저항계수 (C 하(d))는 레이놀즈수(Re)에 따라 점점 감소하는 경향을 보이며, 식으로 나타내면 다음과 같았다. C 하(d)=0.039Re 상(-0.1474) 3. 망지의 표면적(TSA, Twine Surface Area)이 클수록 저항 값이 크게 나타났으며 식으로 나타내면 다음과 같다. R=21.398TSA 상(-0.4219) 4. 질량계수(C 하(M))는 유속(U)이 증가함에 따라 증가하는 경향을 나타내며 실험식은 다음과 같다. C 하(M)=37.557U-8.9684 5. 가상질량은 망사의 체적(V)과 d/l에 각각 비례관계를 나타냈다.

  • PDF

다중 확장된 컨볼루션 U-Net 을 사용한 간 영역 분할 (Liver Segmentation using Multi-dilated U-Net)

  • 신하 쉬르티카;오강한;파티마 보드;정환정;오일석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 추계학술발표대회
    • /
    • pp.1036-1038
    • /
    • 2020
  • This paper proposes a novel automated liver segmentation using Multi-Dilated U-Nets. The proposed multidilation segmentation model has the advantage of considering both local and global shapes of the liver image. We use the CT images subject-wise, every 2D image is concatenated to 3D to calculate the IOU score and DICE score. The experimental results on Jeonbuk National University hospital dataset achieves better performance than the conventional U-Net.

LonRF 지능형 디바이스 기반의 유비쿼터스 홈네트워크 테스트베드 개발 (Development of a LonRF Intelligent Device-based Ubiquitous Home Network Testbed)

  • 이병복;박애순;김대식;노광현
    • 제어로봇시스템학회논문지
    • /
    • 제10권6호
    • /
    • pp.566-573
    • /
    • 2004
  • This paper describes the ubiquitous home network (uHome-net) testbed and LonRF intelligent devices based on LonWorks technology. These devices consist of Neuron Chip, RF transceiver, sensor, and other peripheral components. Using LonRF devices, a home control network can be simplified and most devices can be operated on LonWorks control network. Also, Indoor Positioning System (IPS) that can serve various location based services was implemented in uHome-net. Smart Badge of IPS, that is a special LonRF device, can measure the 3D location of objects in the indoor environment. In the uHome-net testbed, remote control service, cooking help service, wireless remote metering service, baby monitoring service and security & fire prevention service were realized. This research shows the vision of the ubiquitous home network that will be emerged in the near future.