• 제목/요약/키워드: 표정상태벡터

검색결과 12건 처리시간 0.02초

간단한 사용자 인터페이스에 의한 벡터 그래픽 캐릭터의 자동 표정 생성 시스템 (Automatic facial expression generation system of vector graphic character by simple user interface)

  • 박태희;김재호
    • 한국멀티미디어학회논문지
    • /
    • 제12권8호
    • /
    • pp.1155-1163
    • /
    • 2009
  • 본 논문에서는 가우시안 프로세스 모델을 이용한 벡터 그래픽 캐릭터의 자동 표정 생성 시스템을 제안한다. 제안한 방법은 Russell의 내적 정서 상태의 차원 모형을 근거로 재정의된 캐릭터의 26가지 표정 데이터로 부터 주요 특징 벡터를 추출한다. 그리고 추출된 고차원의 특징 벡터에 대해 SGPLVM이라는 가우시안 프로세스 모델을 이용하여 저차원 특징 벡터를 찾고, 확률분포함수(PDF)를 학습한다. 확률분포함수의 모든 파라메타는 학습된 표정 데이터의 우도를 최대화함으로써 추정할 수 있으며, 이는 2차원 공간에서 사용자가 원하는 얼굴 표정을 실시간으로 선택하기 위해 사용된다. 시뮬레이션 결과 본 논문에서 제안한 표정 생성 프로그램은 얼굴 표정의 작은 데이터셋에도 잘 동작하며, 사용자는 표정과 정서간의 관련성에 관한 사전지식이 없이도 연속되는 다양한 캐릭터의 표정을 생성할 수 있음을 확인할 수 있었다.

  • PDF

간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 얼굴표정 생성 (The facial expression generation of vector graphic character using the simplified principle component vector)

  • 박태희
    • 한국정보통신학회논문지
    • /
    • 제12권9호
    • /
    • pp.1547-1553
    • /
    • 2008
  • 본 논문은 간소화된 주성분 벡터를 이용한 벡터 그래픽 캐릭터의 다양한 얼굴 표정 생성 방법을 제안한다. 먼저 Russell의 내적 정서 상태에 기반하여 재정의된 벡터 그래픽 캐릭터들의 9가지 표정에 대해 주성분 분석을 수행한다. 이를 통해 캐릭터의 얼굴 특성과 표정에 주된 영향을 미치는 주성분 벡터를 찾아내고, 간소화된 주성분 벡터로부터 얼굴 표정을 생성한다. 또한 캐릭터의 특성과 표정의 가중치 값을 보간함으로써 자연스러운 중간 캐릭터 및 표정을 생성한다. 이는 얼굴 애니메이션에서 종래의 키프레임 저장 공간을 상당히 줄일 수 있으며, 적은 계산량으로 중간 표정을 생성할 수 있다. 이에 실시간 제어를 요구하는 웹/모바일 서비스, 게임 등에서 캐릭터 생성 시스템의 성능을 상당히 개선할 수 있다.

Sammon 매핑을 사용한 모션 데이터의 대화식 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using Sammon's Mapping)

  • 김성호
    • 정보처리학회논문지A
    • /
    • 제11A권2호
    • /
    • pp.189-194
    • /
    • 2004
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이틀 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 Sammon 매핑을 이용하여 2차원 평면에 투영시켰다. 얼굴 애니메이션은 사용자 인터페이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

동영상에서의 모델기반 특징추출을 이용한 얼굴 표정인식 (Facial Expression Recognition using Model-based Feature Extraction in Image Sequence)

  • 박미애;최성인;임동악;고재필
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.343-345
    • /
    • 2006
  • 본 논문에서는 ASM(Active Shape Model)과 상태 기반 모델을 사용하여 동영상으로부터 얼굴 표정을 인식하는 방법을 제안한다. ASM을 이용하여 하나의 입력영상에 대한 얼굴요소 특징점들을 정합하고 그 과정에서 생성되는 모양 파라미터 벡터를 추출한다. 동영상에 대해 추출되는 모양 파라미터 벡터 집합을 세 가지상태 중 한 가지를 가지는 상태 벡터로 변환하고 분류기를 통해 얼굴의 표정을 인식한다. 분류단계에서는 분류성능을 높이기 위해 새로운 개체 기반 학습 방법을 제안한다. 실험에서는 새로이 제안한 개체 기반 학습 방법이 KNN 분류기보다 더 좋은 인식률을 나타내는 것을 보인다.

  • PDF

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

모델기반 특징추출을 이용한 지역변화 특성에 따른 개체기반 표정인식 (Facial Expression Recognition with Instance-based Learning Based on Regional-Variation Characteristics Using Models-based Feature Extraction)

  • 박미애;고재필
    • 한국멀티미디어학회논문지
    • /
    • 제9권11호
    • /
    • pp.1465-1473
    • /
    • 2006
  • 본 논문에서는 Active Shape Models(ASM)과 상태기반 모델을 사용하여 동영상으로부터 얼굴 표정을 인식하는 방법을 제시한다. ASM을 이용하여 하나의 입력 영상에 대한 얼굴요소특징점들을 정합하고, 그 과정에서 생성되는 모양변수벡터를 추출한다. 동영상에 대해 추출되는 모양변수벡터 집합을 세 가지 상태 중 한 가지를 가지는 상태벡터로 변환하고 분류기를 통해 얼굴의 표정을 인식한다. 분류단계에서는 표정별 표정변화에 따른 변화영역의 차이를 고려한 새로운 유사도 측정치를 제안한다. 공개데이터베이스 KCFD에 대한 실험에서는 제안한 측정치와 기존의 이친 측정치를 사용한 k-NN의 인식률이 k가 1일 때 각각 89.1% 및 86.2%을 보임으로써, 제안한 측정치가 기존의 이진 측정치보다 더 높은 인식률을 나타내는 것을 보인다.

  • PDF

CCA 투영기법을 사용한 모션 데이터의 대화식 얼굴 표정 애니메이션 (Interactive Facial Expression Animation of Motion Data using CCA)

  • 김성호
    • 인터넷정보학회논문지
    • /
    • 제6권1호
    • /
    • pp.85-93
    • /
    • 2005
  • 본 논문은 다량의 고차원 얼굴 표정 모션 데이터를 2차원 공간에 분포시키고, 애니메이터가 이 공간을 항해하면서 원하는 표정들을 실시간 적으로 선택함으로써 얼굴 표정 애니메이션을 생성하는 방법을 기술한다. 본 논문에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 표정공간의 생성은 임의의 두 표정간의 최단거리의 결정으로 귀결된다. 표정공간은 다양체 공간으로서 이 공간내의 두 점간의 거리는 다음과 같이 근사적으로 표현한다. 임의의 마커간의 거리를 표시하는 거리행렬을 사용하여 각 표정의 상태를 표현하는 표정상태벡터를 정의한 후, 두 표정이 인접해 있으면, 이를 두 표정 간 최단거리(다양체 거리)에 대한 근사치로 간주한다. 그리하여 인접 표정들 간의 인접거리가 결정되면, 이들 인접거리들을 연결하여 임의의 두 표정 상태간의 최단거리를 구하는데, 이를 위해 Floyd 알고리즘을 이용한다. 다차원 공간인 표정공간을 가시화하기 위해서는 CCA 투영기법을 이용하여 2차원 평면에 투영시켰다 얼굴 애니메이션은 사용자 인터베이스를 사용하여 애니메이터들이 2차원 공간을 항해하면서 실시간으로 생성한다.

  • PDF

카메라와 초기상태 정보가 없는 INS간 물리적 관계를 위한 수학적 모델링 (A Mathematical Modeling for the Physical Relationship between Camera and the Unknown Initial State of INS)

  • Chon Jae-Choon;Shibasaki Ryosuke;Zhao Huijing
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2006년도 춘계학술발표회 논문집
    • /
    • pp.145-149
    • /
    • 2006
  • 모바일 맹핑시스템에 장착되어 있는 카메라와 INS의 물리적 관계 (두 좌표축 간의 거리(lever-arm) 와 각도(boresight) 캘리브레이션은 카메라 영상의 지리적 정보를 생성하기 위해 필요로 한다. 이 목적을 위해 기존연구는 카메라 캘리브레이션을 통하여 이 물리적 관계를 추정하고 있다. 카메라 캘리브레이션은 3차원 좌표가 할당된 타겟을 이용하여 움직이는 카메라의 렌즈 왜곡과 내/외부 표정 계산하는 것이다. 이 추정에서, 저가의 INS의 초기상태인 자세, 각도는 사용자의 측량에 의해 결정이 된다. 만약 정교한 측량이 없을 경우, 카메라 영상의 지리적 정보는 잘못된 정보를 제공 할 것이다. 정교한 측량의 어려움을 피하기 위해, 본 논문은 카메라와 초기상태 정보가 없는 INS간의 물리적 관계를 위한 수학적 모델을 설계하였다. 시스템에 장착된 카메라와 INS의 초기 기준 좌표계의 관계는 lever-arm과 boresight을 이용한 좌표축 변환으로 정의 될 수 있으며, 이 시스템이 이동 후, 카메라 초기 기준 좌표계에서 INS의 위치는 두 개의 벡터 경로로 정의 될 수 있다. 이 두 벡터 경로는 카메라와 INS의 상대 외부표정의 관계를 이용하여 계산된 벡터들의 조합으로 정의된다. 본 논문은 여러 쌍의 경로로부터 lever-arm과 boresight을 추정하였다.

  • PDF

모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data)

  • 김성호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1478-1484
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 3차원 아바타의 실시간적 얼굴 표정을 제어하는 기법을 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 실시간적으로 제어한다. 이를 도와주기 위해 표정공간을 PCA투영 기법을 이용하여 2차원 공간으로 가시화했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 했는데, 본 논문은 그 결과를 평가한다.

  • PDF

모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권3호
    • /
    • pp.9-16
    • /
    • 2007
  • 본 논문은 Isomap 알고리즘을 사용하여 다량의 고차원 얼굴 모션 데이터를 2차원 평면에 분포시키는 방법론과, 사용자가 이 공간을 항해하면서 원하는 표정들을 선택함으로써 실시간적으로 얼굴 표정 제어가 가능한 사용자 인터페이스 기법에 대하여 기술한다. Isomap 알고리즘은 세 단계의 과정으로 처리된다. 첫째, 각 표정 데이터의 인접표정을 정의하고, 둘째, 각 표정들 사이의 다양체 거리를 계산하여 표정공간을 구성한다. 표정공간의 생성은 임의의 두 표정간의 최단거리(다양체 거리)의 결정으로 귀결되고, 이를 위해 플로이드 알고리즘을 이용한다. 셋째, 다차원 표정공간을 가시화하기 위해서 다차원 스케일링을 사용하며, 2차원 평면에 투영시킨다. 인접표정을 정의하기 위한 최소 인접거리는 피어슨의 상관계수를 이용한다. 3차원 아바타의 얼굴 표정 제어는 사용자 인터페이스를 사용하여 2차원 공간을 항해하면서 실시간으로 제어한다.