• 제목/요약/키워드: 3D avatar facial expressions

검색결과 12건 처리시간 0.023초

모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data)

  • 김성호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1478-1484
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 3차원 아바타의 실시간적 얼굴 표정을 제어하는 기법을 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 실시간적으로 제어한다. 이를 도와주기 위해 표정공간을 PCA투영 기법을 이용하여 2차원 공간으로 가시화했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 했는데, 본 논문은 그 결과를 평가한다.

  • PDF

표정 인식을 이용한 3D 감정 아바타 생성 및 애니메이션 (3D Emotional Avatar Creation and Animation using Facial Expression Recognition)

  • 조태훈;정중필;최수미
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1076-1083
    • /
    • 2014
  • We propose an emotional facial avatar that portrays the user's facial expressions with an emotional emphasis, while achieving visual and behavioral realism. This is achieved by unifying automatic analysis of facial expressions and animation of realistic 3D faces with details such as facial hair and hairstyles. To augment facial appearance according to the user's emotions, we use emotional templates representing typical emotions in an artistic way, which can be easily combined with the skin texture of the 3D face at runtime. Hence, our interface gives the user vision-based control over facial animation of the emotional avatar, easily changing its moods.

Realtime Facial Expression Representation Method For Virtual Online Meetings System

  • Zhu, Yinge;Yerkovich, Bruno Carvacho;Zhang, Xingjie;Park, Jong-il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.212-214
    • /
    • 2021
  • In a society with Covid-19 as part of our daily lives, we had to adapt ourselves to a new reality to maintain our lifestyles as normal as possible. An example of this is teleworking and online classes. However, several issues appeared on the go as we started the new way of living. One of them is the doubt of knowing if real people are in front of the camera or if someone is paying attention during a lecture. Therefore, we encountered this issue by creating a 3D reconstruction tool to identify human faces and expressions actively. We use a web camera, a lightweight 3D face model, and use the 2D facial landmark to fit expression coefficients to drive the 3D model. With this Model, it is possible to represent our faces with an Avatar and fully control its bones with rotation and translation parameters. Therefore, in order to reconstruct facial expressions during online meetings, we proposed the above methods as our solution to solve the main issue.

  • PDF

모션 데이터를 이용한 3차원 아바타 얼굴 표정 제어 (Facial Expression Control of 3D Avatar using Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권5호
    • /
    • pp.383-390
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간 적으로 선택하게 함으로써 3차원 아바타의 얼굴 표정을 제어하는 기법을 제안하고, 해당 시스템을 구축한다. 본 시스템에서는 얼굴 모션 캡쳐 데이터로 구성된 2400여개의 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정에서 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 이 경로를 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 원하는 표정을 실시간 적으로 선택함으로써 제어한다. 이를 도와주기 위해 표정공간을 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화 했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 해본 결과, 3차원 아바타의 실시간 얼굴 표정 제어가 필요한 각 분야에서 매우 유용하게 사용될 것으로 판단되었다.24시간 경과시킨 후 치아의 장축에 따라 절단하여 침투된 색소의 정도를 광학현미경상에서 40배로 관찰하였다. 각각의 실험결과는 ANOVA/Tukey's test 및 Kruskal-Wallis non-parametric independent analysis와 Mann-Whitney U test에 의하여 통계 분석하여 다음과 같은 결론을 얻었다. 1. 대조군에 있어서 혼합형 복합레진의 미세인장 결합강도는 미세혼합형에 비하여 높았으며, 실험군 사이에는 유의차를 보이지 않았다. 2.모든 복합레진의 미세인장 결합강도는 와동의 C-factor증가에 따라 감소하는 경향을 나타내었고, 혼합형 복합레진의 실험군은 대조군에 비하여 낮게 나타났으며, 미세혼합형 복합레진에서는 유의차를 보이지 않았다. 3. 절단측 및 치은측 변연부의 미세누출정도는 혼합형 복합레진이 미세혼합형에 비하여 대체로 높게 나타났다. 4. 모든 실험군에서 미세누출은 C-factor증가에 따라 증가하였고 절단측에 비하여 치은측 변연이 높게 나타났으나 통계학적 유의차는 보이지 않았다. C-factor의 변화에 대하여 필러함량과 탄성계수가 높은 혼합형 복합레진이 미세혼합형에 비하여 더 민감한 결과를 보인다. 이는 복합레진 수복시 재료의 선택과 중합수축의 적절한 조절이 중요한 요소임을 시사한다.s에서는 1주, 2주에서 강한 염증반응을 보였으나 12주에서는 염증반응이 감소하였다. 4) 새로 개발된 봉함제 Adseal-1,2는 1주, 2주에서는 가장 약한 염증반응을 보이나 4주, 12주 후에는 AH Plus와 비슷한 수준의 염증 반응을 보였다. 5) Pulp Canal Sealer를 제외한 모든 군에서 인정할 만한 생체친화성을 보였다. 6)

모션 데이터에 Isomap을 사용한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by Isomap of Motion Data)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권3호
    • /
    • pp.9-16
    • /
    • 2007
  • 본 논문은 Isomap 알고리즘을 사용하여 다량의 고차원 얼굴 모션 데이터를 2차원 평면에 분포시키는 방법론과, 사용자가 이 공간을 항해하면서 원하는 표정들을 선택함으로써 실시간적으로 얼굴 표정 제어가 가능한 사용자 인터페이스 기법에 대하여 기술한다. Isomap 알고리즘은 세 단계의 과정으로 처리된다. 첫째, 각 표정 데이터의 인접표정을 정의하고, 둘째, 각 표정들 사이의 다양체 거리를 계산하여 표정공간을 구성한다. 표정공간의 생성은 임의의 두 표정간의 최단거리(다양체 거리)의 결정으로 귀결되고, 이를 위해 플로이드 알고리즘을 이용한다. 셋째, 다차원 표정공간을 가시화하기 위해서 다차원 스케일링을 사용하며, 2차원 평면에 투영시킨다. 인접표정을 정의하기 위한 최소 인접거리는 피어슨의 상관계수를 이용한다. 3차원 아바타의 얼굴 표정 제어는 사용자 인터페이스를 사용하여 2차원 공간을 항해하면서 실시간으로 제어한다.

FCM 클러스터링을 이용한 표정공간의 단계적 가시화 (Phased Visualization of Facial Expressions Space using FCM Clustering)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제8권2호
    • /
    • pp.18-26
    • /
    • 2008
  • 본 논문은 사용자로 하여금 표정공간으로부터 일련의 표정들을 선택하게 함으로써 3차원 아바타의 표정을 제어할 수 있는 표정공간의 단계적 가시화 기법을 기술한다. 본 기법에 의한 시스템은 무표정 상태를 포함하여 11개의 서로 다른 모션들로 구성된 2400여개의 표정 프레임으로 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해함으로서 수행되어진다. 그러나 표정공간에서는 과격한 표정 변화에서부터 세밀한 표정 변화까지 다양한 표정 제어를 수행할 수 있어야하기 때문에 단계적 가시화 기법이 필요하다. 표정공간을 단계적으로 가시화하기 위해서는 퍼지 클러스터링을 이용한다. 초기 단계에서는 11개의 클러스터 센터를 가지도록 클러스터링하고, 단계가 증가될 때 마다 클러스터 센터의 수를 두 배씩 증가시켜 표정들을 클러스터링한다. 이때 클러스터 센터와 표정공간에 분포된 표정들의 위치는 서로 다른 경우가 많기 때문에, 클러스터 센터에서 가장 가까운 표정상태를 찾아 클러스터 센터로 간주한다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 단계적 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

SMS 메시지에 따른 모바일 3D 아바타의 입술 모양과 음성 동기화 (Lip and Voice Synchronization with SMS Messages for Mobile 3D Avatar)

  • 윤재홍;송용규;김은석;허기택
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.682-686
    • /
    • 2006
  • 모바일 3D 엔진을 탑재한 단말기의 등장과 모바일 콘텐츠 시장의 성장에 따라 3D 모바일 콘텐츠 서비스에 대한 관심이 고조되고 있다. 모바일 3D 아바타는 개인화된 모바일 기기 사용자의 개성을 표출할 수 있는 가장 효과적인 상품이다. 그러나 3D 아바타 표현 방법은 PC기반의 가상환경에서 캐릭터의 얼굴 표정 및 입술 모양 변화에 따른 자연스럽고 사실적인 표현에 대한 연구들이 주로 이루어 졌다. 본 논문에서는 모바일 환경에서 수신된 SMS 메시지를 3D 모바일 아바타에 적용하여 입술 모양 및 음성과 동기화 시키는 방법을 제안한다. 제안된 방법은 수신된 메시지 문장을 음절단위로 분해하여 모바일 3D 아바타의 입술 모양과 해당 음성을 동기화 시킴으로써, 모바일 아바타의 자연스럽고 효과적인 SMS 메시지 읽기 서비스를 구현할 수 있도록 해준다.

  • PDF

감정확률을 이용한 동적 얼굴표정의 퍼지 모델링 (Dynamic Facial Expression of Fuzzy Modeling Using Probability of Emotion)

  • 강효석;백재호;김은태;박민용
    • 한국지능시스템학회논문지
    • /
    • 제19권1호
    • /
    • pp.1-5
    • /
    • 2009
  • 본 논문은 거울 투영을 이용하여 2D의 감정인식 데이터베이스를 3D에 적용 가능하다는 것을 증명한다. 또한, 감정 확률을 이용하여 퍼지 모델링 기반의 얼굴표정을 생성하고, 표정을 움직이는 3가지 기본 움직임에 대한 퍼지이론을 적용하여 얼굴표현함수를 제안한다. 제안된 방법은 거울 투영을 통한 다중 이미지를 이용하여 2D에서 사용되는 감정인식에 대한 특징벡터를 3D에 적용한다. 이로 인해, 2D의 모델링 대상이 되는 실제 모델의 기본감정에 대한 비선형적인 얼굴표정을 퍼지를 기반으로 모델링한다. 그리고 얼굴표정을 표현하는데 기본 감정 5가지인 행복, 슬픔, 혐오, 화남, 놀람, 무서움으로 표현되며 기본 감정의 확률에 대해서 각 감정의 평균값을 사용하고 6가지 감정 확률을 이용하여 동적 얼굴표정을 생성한다. 제안된 방법을 3D 인간형 아바타에 적용하여 실제 모델의 표정 벡터와 비교 분석한다.

모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어 (Facial Expression Control of 3D Avatar by Hierarchical Visualization of Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.277-284
    • /
    • 2004
  • 본 논문은 사용자로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정 제어기법을 기술한다. 본 시스템에서는 2,40P0여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해하면서 수행한다. 그러나 표정의 수가 너무 많아 사용자가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 2,400여개의 표정들을 이용하여 약 11개의 클러스터센터를 가지도록 클러스터링한다. 클러스터 센터들은 2차원 평면에 표시되며 후보 키 프레임으로 사용된다 사용자는 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 초기 항해경로를 생성한다. 사용자가 줌 인(이산적인 단계를 가지고 있음)을 하면 상세한 단계를 보기를 원한다는 의미이므로 줌 인된 단계에 적합한 표정 클러스터들을 생성한다. 단계가 증가될 때 마다 클러스터의 수를 두 배로 하고, 클러스터의 수만큼 표정들을 클러스터링한다. 사용자는 현재 단계에서 그전 단계의 항해경로를 따라 새로운 키 프레임(클러스터 센터)들을 선택하여 항해경로를 갱신한다. 줌 인을 최대로 한 마지막 단계에서 항해경로를 갱신하면 표정 제어 설정이 끝난다. 사용자는 언제든지 줌 아웃을 통해 그 전단계로 돌아가서 항해경로를 수정할 수 있다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

영상통신 감성융합 서비스를 위한 실시간 아바타 정합기술 (Emotion fusion video communication services for real-time avatar matching technology)

  • 오동식;강준규;신민호
    • 디지털융복합연구
    • /
    • 제10권10호
    • /
    • pp.283-288
    • /
    • 2012
  • 현재 전 세계적으로 미래 수익 사업의 일환으로 각광받고 있는 분야 중 하나는 3D이다. 3D는 현실세계와 가상현실 세계의 차원을 함께 공존시켜주며 형태 및 질감 등을 느낄 수 있게 해주어 기존의 평면적인 2D에서 입체적인 3D로 변화하고 공존의 시대적 현실을 잘 보여주고 있기 때문이다. 3D에 대한 사람들의 관심은 3D아바타를 바탕으로 하는 영화를 통하여 확산되었다. 또한 현재 대기업들의 3D TV 시장으로의 시장 변화 역시 3D시장의 개척에서 도약의 시대로 한층 더 업그레이드 시키게 되었다. 또한 이와 동시에 세계의 현대인이라면 필수품이 되어가고 있는 스마트폰의 열풍 또한 새로운 핸드폰 시장과 IT 시장의 혁신을 이루었으며. 스마트 폰은 작은 컴퓨터라 불릴 정도로, 그 파급속도와 여파는 전화, 인터넷의 혁신만큼 많은 이슈를 남기고 있다. 스마트폰은 말 그대로 똑똑한 폰으로 여러 가지 기능을 할 수 있는 핸드폰이다. 현재 iPhone, Android. Windows Phone외에 다수의 스마트폰이 출시되어 있다. 위의 전체적인 향후의 전망과 비즈니스 서비스 모델을 위하여 스마트폰에 가상의 3D캐릭터를 카메라로 입력받아 3D 표정아바타를 사람의 얼굴에 합성할 수 있고 카메라로 사용자의 감성 표정을 인식하여 합성된 아바타를 실시간 다른 휴대전화 사용자에게 정합, 전송, 통신 할 수 있는 실시간 감성융합 영상통신 서비스 어플리케이션의 개발하고자 한다.