• 제목/요약/키워드: TPS Warping

검색결과 4건 처리시간 0.016초

영상보정 및 다단계 정합을 통한 전립선 MR 영상과 병리 영상간 융합 (Prostate MR and Pathology Image Fusion through Image Correction and Multi-stage Registration)

  • 정주립;조현희;홍헬렌
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권9호
    • /
    • pp.700-704
    • /
    • 2009
  • 본 논문은 영상보정 및 다단계 정합을 통한 전립선의 MR 영상과 병리 영상 간의 융합방법을 제안한다. 제안 방법은 영상보정, 강체 정합, 비강체 정합, 영상융합의 네 단계로 이루어진다. 첫째, 영상보정 단계에서 T2 MR 강조 영상의 출혈 부위의 자기값을 T1 MR 강조 영상의 자기값으로 대체시키고, 2, 4장으로 분리된 병리 영상을 한장의 영상으로 만든 후 MR 영상과 동일한 해상도로 줄인다. 둘째, 전립선의 T2 MR 강조 영상과 병리 영상 간에 자기간의 상호정보를 최적화하는 강체변환을 구한다. 셋째, TPS 와핑을 이용하여 병리 영상의 전립선 부위가 T2 MR 강조 영상의 전립선 부위에 정합되는 비강체변환을 구한다. 넷째, MR 영상과 변환을 적용시킨 병리 영상을 융합한다. 실험 결과 영상보정 및 다단계 정합 후의 전립선의 T2 MR 강조 영상과 병리 영상의 간의 평균 거리 오차는 0.8815 mm였고, 두 영상의 융합을 통해 T2 MR 강조 영상에서 전립선 암의 위치를 정확하게 볼 수 있었다.

애니메이션을 위한 통계적 모델에 기반을 둔 3D 얼굴모델링 (3D Face Modeling based on Statistical Model for Animation)

  • 오두식;김재민;조성원;정선태
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국지능시스템학회 2008년도 춘계학술대회 학술발표회 논문집
    • /
    • pp.435-438
    • /
    • 2008
  • 본 논문에서는 애니메이션을 위해서 얼굴의 특징표현(Action Units)의 조합하는 방법으로 얼굴 모델링을 하기 위한 3D대응점(3D dense correspondence)을 찾는 방법을 제시한다. AUs는 표정, 감정, 발음을 나타내는 얼굴의 특징표현으로 통계적 방법인 PCA (Principle Component Analysis)를 이용하여 만들 수 있다. 이를 위해서는 우선 3D 모델상의 대응점을 찾는 것이 필수이다. 2D에서 얼굴의 주요 특징 점은 다양한 알고리즘을 이용하여 찾을 수 있지만 그것만으로 3D상의 얼굴 모델을 표현하기에는 적합하지 않다. 본 논문에서는 3D 얼굴 모델의 대응점을 찾기 위해 원기둥 좌표계 (Cylinderical Coordinates System)을 이용하여 3D 모델을 2D로 투사(Projection)시켜서 만든 2D 이미지간의 워핑(Warping) 을 통한 대응점을 찾아 역으로 3D 모델간의 대응점을 찾는다. 이것은 3D 모델 자체를 변환하는 것보다 적은 연산량으로 계산할 수 있고 본래 형상의 변형이 없다는 장점을 가지고 있다.

  • PDF

3차원 위성영상과 센서영상의 정합에 의한 가상표적 Overlay 기법 (Virtual Target Overlay Technique by Matching 3D Satellite Image and Sensor Image)

  • 차정희;장효종;박용운;김계영;최형일
    • 정보처리학회논문지D
    • /
    • 제11D권6호
    • /
    • pp.1259-1268
    • /
    • 2004
  • 제한된 훈련장안에서 실전에 대비한 훈련이 되려면, 다양한 전투상황이 부여된 현실감 있는 모의훈련이 필수적이다. 본 논문에서는 현실감 있는 모의훈련을 위해 가상영상이 아닌 지상기반 CCD 카메라영상에 지정된 시나리오대로 가상표적을 전시하는 방법을 제안한다. 이를 위해 고해상도 GeoTIFF(Geographic Tag Image File Format) 위성 영상과 DTED(Digital Terrain Elevation Data)를 이용하여 현실감 있는 3차원 모델을 생성(운용자용)하고, 입력된 CCD 영상(운용자, 훈련자용)으로부터 도로를 추출하였다. 위성영상과 지상기반 센서영상은 관측위치, 분해능, 스케일 등에 많은 차이가 있어 특징기반 정합이 어렵다. 따라서 본 논문에서는 영상 워핑함수인 TPS(Thin-Plate Spline) 보간 함수를 일치하는 두개의 제어점 집합에 적용하여 3차원 모델에 표시된 이동경로를 따라 CCD 영상에서도 표적이 전시되는 이동 동기화 방법을 제안하였다. 실험환경은 Pentium4 1.8MHz(RAM 512M)의 PC 2대를 사용하였으며, 실험 영상은 대전지역의 위성영상과 CCD 영상을 이용, 제안한 알고리즘의 유효성을 입증하였다.

Keypoints-Based 2D Virtual Try-on Network System

  • Pham, Duy Lai;Ngyuen, Nhat Tan;Chung, Sun-Tae
    • 한국멀티미디어학회논문지
    • /
    • 제23권2호
    • /
    • pp.186-203
    • /
    • 2020
  • Image-based Virtual Try-On Systems are among the most potential solution for virtual fitting which tries on a target clothes into a model person image and thus have attracted considerable research efforts. In many cases, current solutions for those fails in achieving naturally looking virtual fitted image where a target clothes is transferred into the body area of a model person of any shape and pose while keeping clothes context like texture, text, logo without distortion and artifacts. In this paper, we propose a new improved image-based virtual try-on network system based on keypoints, which we name as KP-VTON. The proposed KP-VTON first detects keypoints in the target clothes and reliably predicts keypoints in the clothes of a model person image by utilizing a dense human pose estimation. Then, through TPS transformation calculated by utilizing the keypoints as control points, the warped target clothes image, which is matched into the body area for wearing the target clothes, is obtained. Finally, a new try-on module adopting Attention U-Net is applied to handle more detailed synthesis of virtual fitted image. Extensive experiments on a well-known dataset show that the proposed KP-VTON performs better the state-of-the-art virtual try-on systems.