• 제목/요약/키워드: Image multi-class segmentation

검색결과 15건 처리시간 0.021초

시멘틱 세그멘테이션을 활용한 이미지 오브젝트의 효율적인 영역 추론 (Efficient Inference of Image Objects using Semantic Segmentation)

  • 임헌영;이유림;지민규;고명현;김학동;김원일
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.67-76
    • /
    • 2019
  • 본 연구에서는 다중 라벨링이 되어 있는 이미지 데이터를 대상으로 시멘틱 세그멘테이션을 활용한 효율적인 오브젝트별 영역 분류 기법을 연구한다. 이미지 데이터에 포함된 색상 정보, 윤곽선, 명암, 채도 등 다양한 픽셀 단위 정보와 프로세싱 기법뿐만 아니라 각 오브젝트들이 위치한 세부 영역을 의미 있는 단위로 추출하여 추론 결과에 반영하는 실험을 진행하고 그 결과에 대해 논의한다. 이미지 분류에서 훌륭한 성능을 검증받은 뉴럴 네트워크를 활용하여 비정형성이 심하고 다양한 클래스 오브젝트가 포함된 이미지 데이터를 대상으로 어떤 오브젝트가 어디에 위치하였는지 파악하는 작업을 진행한다. 이러한 연구를 기반으로 향후 다양한 오브젝트가 포함된 복잡한 이미지의 실시간 세부 영역 분류를 진행하는 인공지능 서비스 제공을 목표로 한다.

Residual Multi-Dilated Recurrent Convolutional U-Net을 이용한 전자동 심장 분할 모델 분석 (Fully Automatic Heart Segmentation Model Analysis Using Residual Multi-Dilated Recurrent Convolutional U-Net)

  • 임상헌;이명숙
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권2호
    • /
    • pp.37-44
    • /
    • 2020
  • 본 논문에서는 딥 러닝 기반의 전-자동 심장 분할 알고리즘을 제안한다. 본 논문에서 제안하는 딥 러닝 모델은 기존 U-Net에 residual recurrent convolutional block과 residual multi-dilated convolutional block을 삽입하여 성능을 개선한 모델이다. 모델의 성능은 테스트 데이터 세트를 전-자동 분할한 결과와 영상의학 전문가의 수동 분할 결과를 비교하여 분석하였다. CT 영상에서 평균 96.88%의 DSC, 95.60%의 precision과 97.00%의 recall 결과를 얻었다. 분할된 영상은 3차원 볼륨 렌더링 기법을 적용하여 시각화한 후 관찰하여 분석할 수 있었다. 실험 결과를 통해 제안된 알고리즘이 다양한 심장 하부 구조를 분할하기에 효과적인 것을 알 수 있었다. 본 논문에서 제안하는 알고리즘이 전문의 또는 방사선사의 임상적 보조역할을 수행할 수 있을 것으로 기대한다.

Otsu의 방법을 개선한 멀티 스래쉬홀딩 방법 (A Multi-thresholding Approach Improved with Otsu's Method)

  • 이철학;김상운
    • 전자공학회논문지CI
    • /
    • 제43권5호
    • /
    • pp.29-37
    • /
    • 2006
  • 스레쉬홀딩(thresholding)은 영상 화소의 군집이나 강도를 이용하여 영상을 분할하는 기본 기술이다. Otsu의 스레쉬홀딩 방법에서는 정규화 된 히스토그램을 이산 밀도함수로 보아 화소의 클래스 간 분산을 최대화시키는 판별식을 이용한다. 그러나 Otsu의 방법에서는 여러 객체로 이루어진 영상에서 최적의 스레쉬홀드를 찾기 위하여 그레이레벨 전 구간에 대해 모든 가능한 분산 값을 반복적으로 계산해 보아야 하기 때문에 계산 시간이 길게 걸리는 문제가 있다. 본 논문에서는 Otsu의 방법을 개선하여 간단하지만 고속으로 멀티-레벨의 스레쉬홀드 값을 구할 수 있는 방법을 제안한다. 전체 그레이 구간 영역에 대하여 Otsu의 방법을 적용시키기 보다는 먼저 그레이 영역을 작은 부분-구간으로 나눈 다음 Otsu의 방법을 적용시키는 처리를 반복하여 원하는 개수의 스레쉬홀드를 구하는 방법이다. 본 제안 방법에서는 맨 처음 대상 영상의 그레이 구간을 2부류로 나눈다. 이 때, 분할을 위한 스레쉬홀드는 전 구간을 대상으로 Otsu의 방법을 적용하여 구한다. 그 다음에는 전체 구간이 아닌 분할된 부분-구간을 대상으로 Otsu의 방법을 적용하여 두 부류를 4부류로 나눈다. 이와 같은 처리를 원하는 개수의 스레쉬홀드를 얻을 때 까지 반복한다. 세 종류 벤취마크 영상과 50개 얼굴영상에 대해 실험한 결과, 제안 방법은 대상 영상을 특성에 맞게 고속으로 잘 분할하였으며, 패턴 매칭이나 얼굴인식에 이용될 수 있는 가능성을 확인하였다.

Bayes의 복합 의사결정모델을 이용한 다중에코 자기공명영상의 context-dependent 분류 (Context-Dependent Classification of Multi-Echo MRI Using Bayes Compound Decision Model)

  • 전준철;권수일
    • Investigative Magnetic Resonance Imaging
    • /
    • 제3권2호
    • /
    • pp.179-187
    • /
    • 1999
  • 목적 : 본 논문은 Bayes의 복합 의사결정모델을 이용한 효과적인 다중에코 자기공명영상의 분류방법을 소개한다. 동질성을 갖는 영역 혹은 경계선부위 등 영역을 명확히 분할하기 위하여 영상 내 국소 부위 이웃시스댐상의 주변정보(contextual information)를 이용한 분류 방법을 제시한다. 대상 및 방법 : 통계학적으로이질적 성분들로 구성된 영상을 대상으로 한 주변정보를 이용한 분류결과는 영상내의 국소적으로 정적인 영역들을이웃화소시스탬 내에서 정의되는 상호작용 인자의 메커니즘에 의해 분리함으로서 개선시킬 수 있다. 영상의 분류과정에서 분류결과의 정확도를 향상시키기 위하여 분류대상화소의 주변화소에 대한 분류패턴을 이용한다면 일반적으로 발생하는 분류의 모호성을 제거한다. 그러한 이유는 특정 화소와 인접한 주변의 데이터는 본질적으로 특정 화소와 상관관계를 내재하고 있으며, 만일 주변데이터의 특성을 파악할수 있다면, 대상화소의 성질을 결정하는데 도움을 얻을 수 있다. 본 논문에서는 분류 대상화소의 주변정보와 Bayes의 복합 의사결정모델을 이용한 context-dependent 분류 방법을 제시한다. 이 모델에서 주변 정보는 국소 부위 이웃시스댐으로부터 전이확률(tran­s sition probability)을 추출하여 화소간의 상관관계의 강도를 결정하는 상호인자 값으로 사용한다. 결과 : 본논문에서는 다중에코자기공명영상의 분류를 위하여 Bayes의 복합 의사결정모델을 이용한 분류방법을 제안하였다. 주변 데이터를 고려하지 않는 context-free 분류 방법에 비하여 특히 동질성을 강는 영역 혹은 경계선 부위 등에서의 분류결과가 우수하게 나타났으며, 이는 주변정보를이용한 결과이다. 결론 : 본 논문에서는클러스터링 분석과 복합 의사결정 Bayes 모델을 이용하여 다중에코 자기공명영상의 분류 결과를 향상시키기 위한 새로운 방법을 소개하였다.

  • PDF

A Computerized Doughty Predictor Framework for Corona Virus Disease: Combined Deep Learning based Approach

  • P, Ramya;Babu S, Venkatesh
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권6호
    • /
    • pp.2018-2043
    • /
    • 2022
  • Nowadays, COVID-19 infections are influencing our daily lives which have spread globally. The major symptoms' of COVID-19 are dry cough, sore throat, and fever which in turn to critical complications like multi organs failure, acute respiratory distress syndrome, etc. Therefore, to hinder the spread of COVID-19, a Computerized Doughty Predictor Framework (CDPF) is developed to yield benefits in monitoring the progression of disease from Chest CT images which will reduce the mortality rates significantly. The proposed framework CDPF employs Convolutional Neural Network (CNN) as a feature extractor to extract the features from CT images. Subsequently, the extracted features are fed into the Adaptive Dragonfly Algorithm (ADA) to extract the most significant features which will smoothly drive the diagnosing of the COVID and Non-COVID cases with the support of Doughty Learners (DL). This paper uses the publicly available SARS-CoV-2 and Github COVID CT dataset which contains 2482 and 812 CT images with two class labels COVID+ and COVI-. The performance of CDPF is evaluated against existing state of art approaches, which shows the superiority of CDPF with the diagnosis accuracy of about 99.76%.