• 제목/요약/키워드: 컬러 시스템 Animation

검색결과 8건 처리시간 0.02초

컬러 정보를 이용한 실시간 표정 데이터 추적 시스템 (Realtime Facial Expression Data Tracking System using Color Information)

  • 이윤정;김영봉
    • 한국콘텐츠학회논문지
    • /
    • 제9권7호
    • /
    • pp.159-170
    • /
    • 2009
  • 온라인 기반의 3차원 얼굴 애니메이션을 위해서 실시간으로 얼굴을 캡처하고 표정 데이터를 추출하는 것은 매우 중요한 작업이다. 최근 동영상 입력을 통해 연기자의 표정을 캡처하고 그것을 그대로 3차원 얼굴 모델에 표현하는 비전 기반(vision-based) 방법들에 대한 연구가 활발히 이루어지고 있다. 본 논문 에서는 실시간으로 입력되는 동영상으로부터 얼굴과 얼굴 특징점들을 자동으로 검출하고 이를 추적하는 시스템을 제안한다. 제안 시스템은 얼굴 검출과 얼굴 특징점 추출 및 추적과정으로 구성된다. 얼굴 검출은 3차원 YCbCr 피부 색상 모델을 이용하여 피부 영역을 분리하고 Harr 기반 검출기를 이용해 얼굴 여부를 판단한다. 얼굴 표정에 영향을 주는 눈과 입 영역의 검출은 밝기 정보와 특정 영역의 고유한 색상 정보를 이용한다. 검출된 눈과 입 영역에서 MPEG-4에서 정의한 FAP를 기준으로 10개의 특징점을 추출하고, 컬러 확률 분포의 추적을 통해 연속 프레임에서 특징점들의 변위를 구한다 실험 결과 제안 시스템 은 약 초당 8 프레임으로 표정 데이터를 추적하였다.

비사실적 렌더링 (NPR)을 위한 컬러기반 점묘화 기법 (Color-based Stippling for Non-Photorealistic Rendering)

  • 장석;홍현기
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권1_2호
    • /
    • pp.128-136
    • /
    • 2006
  • 점묘화(stippling)는 펜과 잉크를 이용한 수많은 점들로 대상을 표현하는 예술 기법이다. 기존 비사실적 렌더링(Non-Photorealistic Rendering; NPR)에서 점묘화 연구들은 단색의 점들을 사용하여 그레이 영상이나 표면의 재질 등을 표현하였다. 본 논문에서는 2차원 영상의 컬러 정보를 해석하여 다양한 컬러의 점들로 표현하는 새로운 점묘화 기법이 제안된다. 제안된 방법은 입력 영상의 HSV 모델로부터 해석된 정보를 이용하여 컬러 가중치 함수(weight function)를 정의한다. 그리고 정의된 컬러 가중치 함수를 통해 점의 적절한 개수와 크기를 자동으로 계산한다 제안된 방법은 컬러 가중치가 적용된 펜로즈(Penrose) 샘플링을 사용하여 점을 분포하기 위해 소요되는 처리시간을 크게 단축하였다. 그리고 먼셀(Munsell)의 색상모델에 기반한 컬러 지터링(jittering)으로 실제 컬러 점묘화에 가까운 표현을 구현하였다 제안된 컬러 점묘화 기법은 처리속도가 매우 빠르고 다양한 컬러 점들로 영상을 표현하므로 애니메이션, 디지털 아트, 컴퓨터 그래픽 도구 등에 다양하게 활용될 수 있다.

애니메이션 영화의 색채 변화 분석 - 미국 애니메이션을 중심으로 - (Analysis of Color Transform About Animation Film - Focused on the Hollywood Animation -)

  • 강대석;전정숙
    • 디자인학연구
    • /
    • 제17권2호
    • /
    • pp.55-66
    • /
    • 2004
  • 90년대 중반부터 이후(인어공주이후) 장편애니메이션은 미국의 대형 스튜디오를 중심으로 활발하게 제작되어 엔터테인먼트 산업의 한 축으로 자리잡고 있다. 하지만, 일본 애니메이션과 미국 애니메이션의 발전에 비해 우리나라의 애니메이션은 이렇다 할 특징을 보이지 못하고 있는 현실이다. 재정적인 문제와 더불어 아이들의 전유물이라고 생각하는 의식의 전환이 이루어지고 있지 않기 때문이기도 하다. 본 연구는 정보전달의 단계에서 이루어지는 색채정보를 중심으로 하며, 미국 내 대형스튜디오에서 제작되어진 장편애니메이션의 ‘이미지 색채’를 분석하기로 한다. 인간이 느끼는 감성자극 중 대량의 정보를 가장 빠르게 인지하는 시각적 감성요소인 색채를 중심으로 애니메이션의 과거와 현재와 미래를 예측한다. 미국 애니메이션의 색채를 분석해 봄으로서, 정교하고 섬세한 자극에 반응하는 감성적 색채요인을 찾아보고 발달되어진 애니메이션 기술에 표현되어지는 색을 감성산업에 적용한다.

  • PDF

비디오 데이터에서의 컬러 감성 정보 추출 방법 (A Method of Color KANSEI Information Extraction in Video Data)

  • 최준호;황명권;최창;김판구
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2008년도 추계종합학술대회 B
    • /
    • pp.532-535
    • /
    • 2008
  • 디지털 콘텐츠의 대부분을 차지하는 동영상에 대한 검색 서비스가 필수 기능으로 대두되고 있으며, 검색 서비스를 수행하는 시스템은 최신 기술을 접목시켜 보다 지능적이고, 의미적인 검색을 할 수 있는 검색 엔진이나 지능형 검색 기법 등의 필요성이 점차 증대되고 있다. 이에 본 논문에서는 디지털 콘텐츠 데이터에 대한 특성요소 분석 및 검색 기술과 구현, 감성어휘기반 분석 및 검색 방안을 위해 멀티미디어 콘텐츠 데이터의 구조 설계와 분석 관리 도구 및 의미론적 특성요소 추출기술과 콘텐츠 내 컬러 정보 기반 감성처리 알고리즘을 제안하였다.

  • PDF

2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션 (2D Image-Based Individual 3D Face Model Generation and Animation)

  • 김진우;고한석;김형곤;안상철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1999년도 학술대회
    • /
    • pp.15-20
    • /
    • 1999
  • 본 논문에서는 사람의 정면 얼굴을 찍은 컬러 동영상에서 얼굴의 각 구성 요소에 대한 특징점들을 추출하여 3차원 개인 얼굴 모델을 생성하고 이를 얼굴의 표정 움직임에 따라 애니메이션 하는 방법을 제시한다. 제안된 방법은 얼굴의 정면만을 촬영하도록 고안된 헬멧형 카메라( Head-mounted camera)를 사용하여 얻은 2차원 동영상의 첫 프레임(frame)으로부터 얼굴의 특징점들을 추출하고 이들과 3차원 일반 얼굴 모델을 바탕으로 3차원 얼굴 특징점들의 좌표를 산출한다. 표정의 변화는 초기 영상의 특징점 위치와 이 후 영상들에서의 특징점 위치의 차이를 기반으로 알아낼 수 있다. 추출된 특징점 및 얼굴 움직임은 보다 다양한 응용 이 가능하도록 최근 1단계 표준이 마무리된 MPEG-4 SNHC의 FDP(Facial Definition Parameters)와FAP(Facial Animation Parameters)의 형식으로 표현되며 이를 이용하여 개인 얼굴 모델 및 애니메이션을 수행하였다. 제안된 방법은 단일 카메라로부터 촬영되는 영상을 기반으로 이루어지는 MPEG-4 기반 화상 통신이나 화상 회의 시스템 등에 유용하게 사용될 수 있다.

  • PDF

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.

얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성 (3D Facial Model Expression Creation with Head Motion)

  • 권오륜;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

음성특징의 거리 개념에 기반한 한국어 모음 음성의 시각화 (Speech Visualization of Korean Vowels Based on the Distances Among Acoustic Features)

  • 복거철
    • 한국정보전자통신기술학회논문지
    • /
    • 제12권5호
    • /
    • pp.512-520
    • /
    • 2019
  • 음성을 시각적으로 표현하는 것은 외국어를 습득하는 과정의 학습자나 음성을 직접 들을 수 없는 청각장애자에게 매우 유용하며 기존에 다수의 연구가 이루어졌다. 그러나 기존의 연구들은 발음의 특징을 단지 컬러로 표현한다든가 입모양을 3차원 그래픽으로 표현하거나 입과 구강의 변화하는 형태를 애니메이션으로 보여 주는 방식에 머물러 있다. 따라서 이런 방식을 사용하는 학습자들은 자신의 발음이 표준 발음과 얼마나 멀리 떨어져 있는지 알 수가 없고 더 나아가서 학습 중에 스스로 교정을 해 나가는 시스템을 개발하기가 기술적으로 어려운 단점이 있다. 이를 극복하기 위해 본 논문에서는 음성 간의 상대적 거리를 토대로 음성을 시각화하는 모델을 제시하고, 이를 한국어 모음에 적용하여 모음의 음성적 특징을 이용한 시각화의 구체적인 구현 방법을 제시한다. 음성데이터에서 F1, F2, F3의 세 개의 포먼트를 구하고 이들 특징벡터를 코호넨 자기조직화맵 알고리즘으로 2차원 화면에 사상하여 각 음성을 화면 위의 각 점에 대응하여 표현하였다. 제안하는 시스템의 실제적인 구현은 인터넷에 공개된 음성처리 공개소프트웨어를 사용하고 한국인 교사의 표준 발음과 한국어를 배우고 있는 외국인 유학생의 음성을 이용하여 음성특징의 상호간 거리를 구하였으며, 사용자 인터페이스는 자바스크립트를 이용하여 구현하였다.