• 제목/요약/키워드: 영상 와핑

검색결과 34건 처리시간 0.018초

이동 프로젝터 투사영역의 폐회로 기반 위치추적에 의한 인터랙티브 투사 (Interactive Projection by Closed-loop based Position Tracking of Projected Area for Portable Projector)

  • 박지영;이선민;김명희
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권1호
    • /
    • pp.29-38
    • /
    • 2010
  • 본 연구에서는 영상을 대형으로 디스플레이 함과 동시에 사용자가 보다 세밀하게 관찰하고자하는 관심영역을 이동 프로젝터로 투사함으로써 개선된 해상도와 밝기로 디스플레이 하는 인터랙티브 투사 기법을 제안한다. 사용자는 이동 프로젝터를 들고 움직이며 관심영역의 위치를 변경하게 되는데 이 때 적절히 투사영상을 업데이트하기 위해 폐회로(closed-loop) 기반 추적 방법을 제안한다. 먼저 대형 디스플레이 영상에 이동 프로젝터의 위치를 나타내는 표시자를 삽입하고 이를 이동 프로젝터에 부착된 카메라로 획득한 연속영상에서 추출한다. 표시자의 중심이 항상 카메라 영상의 중심과 일치하도록 하는 제약조건 하에서 이를 만족시키기 위해 대형 디스플레이 상에서 표시자의 위치를 지속적으로 업데이트 한다. 이렇게 계산된 표시자의 위치에 해당하는 사각형 영역을 이동 프로젝터가 투사하게 되며 이때 카메라와 이동 프로젝터 사이의 투사변환을 적용하여 와핑한다. 표시자 분할은 총 네 단계로 이루어지며 카메라 영상에 대해 HSI 기반 전처리, 직선 탐지, 사각형 조건 검사, 교차비(cross-ratio) 검사를 거쳐 최종 네 개의 코너점이 결정된다. 제안된 투사 기법을 적용하여 구현한 인터랙티브 투사 시스템은 약 24fps의 처리속도를 지원하며 사용자 평가 결과 높은 유용성을 나타냈다.

참조 이미지를 이용한 과장된 카투닝 (Exaggerated Cartooning using a Reference Image)

  • 한명훈;서상현;류승택;윤경현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제17권1호
    • /
    • pp.33-38
    • /
    • 2011
  • 본 논문에서는 입력 대상 이미지를 만화와 같은 영상으로 만드는 방법으로 참조 이미지를 사용하는 방법을 제안한다. 본 논문은 미리 정의된 참조 이미지를 사용하여 대상을 변형한다. 이를 위하여 통적 외형 모델(AAM)을 사용하여 대상 이미지로부터 특징점을 추출하고, 추출된 특징점과 선택된 참조 이미지의 특징점을 기준으로 대상 이미지를 와핑(warping)한다. 변형된 대상 이미지를 추상화(abstraction)한 뒤, 에지를 추출하고 명도 영역을 양자화(quantization)하는 것으로 만화와 같은 단순화된 결과 이미지를 생성한다. 과장되어 표현된 만화 스타일 이미지를 참조 이미지로 사용하는 것으로 만화의 두 주요한 특징인 과장된 표현과 단순화가 같이 적용된 결과 이미지틀 생성할 수 있다. 본 논문의 방법은 대상 이미지의 변형 정도를 조절하거나 변형에 사용할 참조 이미지를 바꾸는 것으로 다양하게 표현된 결과를 생성하는 것이 가능하다.

증강현실 환경에서 복합특징 기반의 강인한 마커 검출 알고리즘 (A Robust Marker Detection Algorithm Using Hybrid Features in Augmented Reality)

  • 박규호;이행석;한규필
    • 정보처리학회논문지A
    • /
    • 제17A권4호
    • /
    • pp.189-196
    • /
    • 2010
  • 본 논문에서는 모서리점, 경계선 및 영역, 적응적 임계값 등과 같은 복합특징을 이용하여 증강현실 시스템에서 마커의 차단현상이 발생되거나 어두운 환경에서도 사용 가능하면서 정합 성능을 개선한 마커검출 알고리즘을 제안한다. 기존의 ARToolkit에서는 마커의 일부분이 사용자에 의해 가려지거나 주위 조명 변화에 의해 입력영상의 밝기 변화가 크게 될 경우, 마커를 추출할 수 없는 반면 제안한 마커추적 알고리즘에서는 마커영역 추출시 적응적 임계값 기법을 사용하여 조명의 변화에 둔감하게 반응하여 정확한 마커영역만을 분리 추출할 수 있다. 그리고 모서리 여부를 판단하고 모서리점이 가려진 경우, 추출된 직선의 교점으로부터 모서리점을 추출하므로 차단에 의해 마커가 가려졌을 때에도 정확한 마커 영역을 추출할 수 있다. 또한, 등록된 마커와의 정합시, 와핑에서 발생되는 마커의 크기 및 중심위치 변화를 보정하는 기법을 추가하여 정합 성능을 개선 시켰다. 실험 결과 제안한 알고리즘은 주위 조명 변화와 차단 현상에 강인하게 마커를 검출하였으며, 유사한 마커 태그를 구분 할 수 있는 정합 유사도가 종전보다 30% 증가한 것을 확인 할 수 있었다.

비선형 피부색 변화 모델을 이용한 실감적인 표정 합성 (Synthesis of Realistic Facial Expression using a Nonlinear Model for Skin Color Change)

  • 이정호;박현;문영식
    • 전자공학회논문지CI
    • /
    • 제43권3호
    • /
    • pp.67-75
    • /
    • 2006
  • 얼굴의 표정은 얼굴의 구성요소같은 기하학적 정보와 조명이나 주름 같은 세부적인 정보들로 표현된다. 얼굴 표정은 기하학적 변형만으로는 실감적인 표정을 생성하기 힘들기 때문에 기하학적 변형과 더불어 텍스처 같은 세부적인 정보도 함께 변형해야만 실감적인 표현을 할 수 있다. 표정비율이미지 (Expression Ratio Image)같은 얼굴 텍스처의 세부적인 정보를 변형하기 위한 기존 방법들은 조명에 따른 피부색의 변화를 정확히 표현할 수 없는 단점이 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해 서로 다른 조명 조건에서도 실감적인 표정 텍스처 정보를 적용할 수 있는 비선형 피부색 모델 기반의 표정 합성방법을 제안한다. 제안된 방법은 동적 외양 모델을 이용한 자동적인 얼굴 특징 추출과 와핑을 통한 표정 변형 단계, 비선형 피부색 변화 모델을 이용한 표정 생성 단계, 유클리디 거리 변환 (Euclidean Distance Transform)에 의해 계산된 혼합 비율을 사용한 원본 얼굴 영상과 생성된 표정의 합성 등 총 3 단계로 구성된다. 실험결과는 제안된 방법이 다양한 조명조건에서도 자연스럽고 실감적인 표정을 표현한다는 것을 보인다.