• 제목/요약/키워드: 3차원 레이블링

검색결과 17건 처리시간 0.023초

Slice 정보에 기반한 3차원 볼륨 데이터의 레이블링 알고리즘 (A Slice Information Based Labeling Algorithm for 3-D Volume Data)

  • 최익환;최현주;이병일;최흥국
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권7호
    • /
    • pp.922-928
    • /
    • 2004
  • 본 논문에서는 볼륨데이타에서의 레이블링(labeling)을 위한 알고리즘을 제안하고자한다. 3차원 볼륨은 2차원 슬라이스 데이타의 연속으로 보고 각 슬라이스의 레이블링 정보를 바탕으로 하는 SIL(Slice Information based Labeling)방법을 제안한다. 이는 기존의 알고리즘에 비해 효율적인 메모리 사용이 가능하고 분석하고자 하는 데이타의 특성에 맞는 2차원 레이블링과의 조합이 가능한 장점이 있다. 기존 알고리즘과 제안하는 방법을 3차원 세포영상에서 비교하여 보았으며, SIL을 2차원 레이블링 CCCL(Contour based Connected Component Labeling)과 함께 볼륨데이타에 적용하여 본 결과 기존의 알고리즘 보다 약 2배 빠른 성능을 보였다. 다양한 3차원 레이블링 방법 중 적용되는 영상에 따라 각기 다른 결과를 얻었지만, 3차원 세포영상의 분석에서는 SIL 방법이 우수하다는 결론을 얻었다.

3차원 연결 성분 레이블링 알고리즘에 관한 연구 (A study on 3D connected component labeling algorigm)

  • 최익환;이병일;최현주;최흥국
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(상)
    • /
    • pp.245-248
    • /
    • 2003
  • 볼륨데이터에서 관심대상의 특징을 추출하기 위해서 3D레이블링을 3차원 세포영상의 분석에 적합한 레이블링 방법인 SIL(slice Information base labeling)을 제안하였다. SIL은 각 슬라이스 정보를 이용하여 레이블링을 수행하므로 영상의 특징에 안는 레이블링으로의 확장이 유용하고 메모리 효율이 높다. 몇 개의 실험 영상으로 다른 방법과 비교한 결과 성능면에서도 우수 결과를 얻었다. 또한 레이블링을 통해서 얻어진 피쳐값으로 세포 영상을 분석하였으며, 콘포컬 현미경 영상을 이용하였을때 실험영상에서 결과를 추출하는데 걸린 시간은 SIL방법이 기존 방법보다 2배 가량 빨랐다. 다양한 3차원 에이블링 방법 중 적용되는 영상에 따라 각기 다른 결과를 얻었지만,3차원 세포영상의 분석에는 SIL 방법이 우수하다는 결론을 얻었다.

  • PDF

자궁종양 세포의 3차원 형태학적 분석 (3D morphological analysis of uterine tumor cell)

  • 최익환;최현주;최흥국
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(상)
    • /
    • pp.277-280
    • /
    • 2003
  • 본 연구에서는 자궁종양 세포를 정상, 비정상으로 진단하기 위한 세포핵의 특성값 추출 방법으로 3차원 형태학적 분석 방법을 제안한다. 컨포컬 현미경을 이용하여 3차원 볼륭데이터를 획득하고 3차원 연결 성분 레이블링을 적용하였다 레이블링 후, 각각의 세포핵으로부터 3차원 형태학적 특성값을 추출하였으며 정상세포핵과 비정상세포핵의 3차원 형태계측에 대한 차이를 비교하였다. 이는 잘린 단면의 각도나 두께에 따라 서로 다른 분석 결과를 나타내는 2차원 영상분석방법의 한계를 극복할 수 있으며 실체에 가까운 계측으로 보다 객관적이고 정확한 병리진단을 위한 보조도구로써 활용될 수 있다.

  • PDF

2차 다항식을 이용한 3차원 물체의 형상 표현 (The shape representation of 3D object using a quadric polynomial)

  • 현대환;이선호;김태은;최종수
    • 한국통신학회논문지
    • /
    • 제26권9B호
    • /
    • pp.1251-1258
    • /
    • 2001
  • 본 논문은 2차 다항식을 이용하여 3차원 물체의 표면 특징을 추출하고 표현하는 방법을 제안한다. 본 연구는 수정된 스캔 라인 기법을 이용하여 에지 맵을 얻는다. 에지 맵으로부터 3차원 물체의 각 면들을 분리하기 위해 레이블링 연산을 하고 각 면에서 중심점과 모서리 점들을 추출한다. 그 다음에, 평면 방정식으로부터 각 면이 평면인지 곡면인지를 판단한다. 3차원 물체를 표현하기 위해 각 면의 평면 또는 곡면의 계수 및 특징들을 추출한다. 합성영상과 실측영상을 통해서 제안된 기법의 성능을 알아보았고, 또한 제안된 기법으로 3차원 물체를 재구성하였다.

  • PDF

흉부 CT 영상에서 폐 혈관 분할 및 정제 (Pulmonary Vessels Segmentation and Refinement On the Chest CT Images)

  • 김정철;조준호;황형수
    • 전자공학회논문지
    • /
    • 제50권11호
    • /
    • pp.188-194
    • /
    • 2013
  • 본 논문에서는 폐 영상에서 폐 혈관을 분할하고 정제하는 방법을 제안하였다. 제안된 방법은 다음과 같이 다섯 단계로 구성된다. 첫 번째, 폐 영상에서 히스토그램 변화율의 다항식 회귀 분석을 사용하여 임계값을 계산한다. 두 번째, 계산된 임계값으로 밝기값 기반 분할 방법을 사용하여 폐 혈관을 분할한다. 세 번째, 분할한 폐 혈관 영상에 2차원 연결 요소 레이블링 방법을 사용하고, 레이블링 요소의 크기와 이심률을 계산하여 좌측 및 우측 횡격막의 씨앗점을 결정한다. 네 번째, 결정된 씨앗점에서 3차원 영역 성장법을 사용하여 횡격막을 추출한다. 다섯 번째, 이진 영상의 3차원 연결 요소 레이블링 방법을 사용하여 폐 혈관 영상의 노이즈를 제거한다.

3차원 메이크업 시뮬레이션을 위한 자동화된 마스크 생성 (Automatic Mask Generation for 3D Makeup Simulation)

  • 김현중;김정식;최수미
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.397-402
    • /
    • 2008
  • 본 논문에서는 햅틱 인터랙션 기반의 3차원 가상 얼굴 메이크업 시뮬레이션에서 메이크업 대상에 대한 정교한 페인팅을 적용하기 위한 자동화된 마스크 생성 방법을 개발한다. 본 연구에서는 메이크업 시뮬레이션 이전의 전처리 과정에서 마스크를 생성한다. 우선, 3차원 스캐너 장치로부터 사용자의 얼굴 텍스쳐 이미지와 3차원 기하 표면 모델을 획득한다. 획득된 얼굴 텍스쳐 이미지로부터 AdaBoost 알고리즘, Canny 경계선 검출 방법과 색 모델 변환 방법 등의 영상처리 알고리즘들을 적용하여 마스크 대상이 되는 주요 특정 영역(눈, 입술)들을 결정하고 얼굴 이미지로부터 2차원 마스크 영역을 결정한다. 이렇게 생성된 마스크 영역 이미지는 3차원 표면 기하 모델에 투영되어 최종적인 3차원 특징 영역의 마스크를 레이블링하는데 사용된다. 이러한 전처리 과정을 통하여 결정된 마스크는 햅틱 장치와 스테레오 디스플레이기반의 가상 인터페이스를 통해서 자연스러운 메이크업 시뮬레이션을 수행하는데 사용된다. 본 연구에서 개발한 방법은 사용자에게 전처리 과정에서의 어떠한 개입 없이 자동적으로 메이크업 대상이 되는 마스크 영역을 결정하여 정교하고 손쉬운 메이크업 페인팅 인터페이스를 제공한다.

  • PDF

거리 영상에서 인식 특정을 이용한 경계선 검출 기법 (A method of extracting edge line from range image using recognition features)

  • 이강호
    • 한국컴퓨터정보학회논문지
    • /
    • 제6권2호
    • /
    • pp.14-19
    • /
    • 2001
  • 본 논문은 2차 다항식을 이용하여 3차원 물체의 표면 특징을 추출하고 표현하는 방법을 제안한다. 우리는 수정된 스캔 라인 기법을 이용하여 에지 맵을 얻는다. 에지 맵으로부터 3차원 물체의 각 면들을 분리하기 위해 레이블링 연산을 하고 각 면에서 중심점과 모서리 점들을 추출한다. 그 다음에, 평면 방정식으로부터 각 면이 평면인지 곡면인지를 판단하고, 3차원 물체를 표현하기 위해 각 면의 평면 또는 곡면의 계수 및 특징들을 추출한다. 그리고 합성영상과 실측영상을 통해서 제안된 기법의 성능을 알아보았다.

흉부 CT 영상에서 개선된 폐 및 폐혈관 분할과 괴사 세포 비율의 수치적 알고리즘 (Improved Lung and Pulmonary Vessels Segmentation and Numerical Algorithms of Necrosis Cell Ratio in Lung CT Image)

  • 조준호;문성룡
    • 디지털융복합연구
    • /
    • 제16권2호
    • /
    • pp.19-26
    • /
    • 2018
  • 흉부 CT 영상에서 폐 질환의 진단을 위해서 폐 분할, 폐혈관 분할과 폐 질환 부위에 대한 괴사 세포 비율의 수치적 계산을 제안 하였다. 첫 번째 단계는 흉부 CT 영상에서 3차원 레이블링 기법과 3차원 영역 성장법을 적용하여 폐와 기관지를 분리한다. 두 번째 단계는 폐혈관 분할은 1차 다항식 회귀(Polynomial Regression)를 사용한 변화율을 적용하여 분할한 다음, 잡음 제거를 실시하여 최종의 폐혈관을 분할한다. 세 번째 단계는 2단계 이미지 에서 질환 예상 인자를 발견하고, 괴사 세포의 비율을 계산하는 것이다. 질환 예상인자는 폐에 대해서 3차원 레이블링 기법을 적용하였고, 각 레이블 중심 값을 관측하여 변화가 없는 레이블을 찾는다. 이렇게 찾은 질환 예상 인자는 조영제 투입 전/후 영상을 정합한 뒤, 면적을 비교하면 폐의 괴사 세포 비율을 계산할 수 있다.

다중 축 슬라이싱 및 3 차원 재구성을 통한 갈비뼈 세그멘테이션 (Rib Segmentation via Biaxial Slicing and 3D Reconstruction)

  • 김현성;변규린;고성현;범정현;리덕타이;추현승
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.611-614
    • /
    • 2023
  • 갈비뼈 병변 진단 과정은 방사선 전문의가 CT 스캐너를 통해 생성된 2 차원 CT 이미지들을 해석하며 진행된다. 병변의 위치를 파악하고 정확한 진단을 내리기 위해 수백장의 2차원 CT 이미지들이 세밀하게 검토되며 갈비뼈를 분류한다. 본 연구는 이런 노동 집약적 작업의 문제점을 개선시키기 위해 Biaxial Rib Segmentation(BARS)을 제안한다. BARS 는 흉부 CT 볼륨의 관상면과 수평면으로 구성된 2 차원 이미지들을 U-Net 모델에 학습한다. 모델이 산출한 세그멘테이션 마스크들의 조합은 서로 다른 평면의 공간 정보를 보완하며 3 차원 갈비뼈 볼륨을 재건한다. BARS 의 성능은 DSC, Recall, Precision 지표를 사용해 평가하며, DSC 90.29%, Recall 89.74%, Precision 90.72%를 보인다. 향후에는 이를 기반으로 순차적 갈비뼈 레이블링 연구를 진행할 계획이다.

물체 탐지기와 위치 사전 확률 지도를 이용한 효율적인 3차원 장면 레이블링 (Efficient 3D Scene Labeling using Object Detectors & Location Prior Maps)

  • 김주희;김인철
    • 제어로봇시스템학회논문지
    • /
    • 제21권11호
    • /
    • pp.996-1002
    • /
    • 2015
  • In this paper, we present an effective system for the 3D scene labeling of objects from RGB-D videos. Our system uses a Markov Random Field (MRF) over a voxel representation of the 3D scene. In order to estimate the correct label of each voxel, the probabilistic graphical model integrates both scores from sliding window-based object detectors and also from object location prior maps. Both the object detectors and the location prior maps are pre-trained from manually labeled RGB-D images. Additionally, the model integrates the scores from considering the geometric constraints between adjacent voxels in the label estimation. We show excellent experimental results for the RGB-D Scenes Dataset built by the University of Washington, in which each indoor scene contains tabletop objects.