• 제목/요약/키워드: Facial Model

검색결과 522건 처리시간 0.028초

메쉬 변형 전달 기법을 통한 블렌드쉐입 페이셜 리그 복제에 대한 연구 (A Study on Facial Blendshape Rig Cloning Method Based on Deformation Transfer Algorithm)

  • 송재원;임재호;이동하
    • 한국멀티미디어학회논문지
    • /
    • 제24권9호
    • /
    • pp.1279-1284
    • /
    • 2021
  • This paper addresses the task of transferring facial blendshape models to an arbitrary target face. Blendshape is a common method for the facial rig; however, production of blendshape rig is a time-consuming process in the current facial animation pipeline. We propose automatic blendshape facial rigging based on our blendshape transfer method. Our method computes the difference between source and target facial model and then transfers the source blendshape to the target face based on a deformation transfer algorithm. Our automatic method provides efficient production of a controllable digital human face; the results can be applied to various applications such as games, VR chating, and AI agent services.

얼굴특징자 정보를 이용한 인터넷 기반 얼굴관상 해석 및 얼굴아바타 자동생성시스템 (Facial Phrenology Analysis and Automatic Face Avatar Drawing System Based on Internet Using Facial Feature Information)

  • 이응주
    • 한국멀티미디어학회논문지
    • /
    • 제9권8호
    • /
    • pp.982-999
    • /
    • 2006
  • 본 논문에서는 복합 칼라정보와 얼굴의 기하학적 정보를 이용한 인터넷 기반 얼굴관상해석 및 자동 얼굴 컨텐츠 생성시스템을 제안하였다. 제안한 시스템은 YCbCr과 YIQ 칼라모델의 Cr과 I 성분의 논리곱 연산처리로 얼굴영역을 검출하였다. 검출한 얼굴영역에서 얼굴의 기하학적 정보로부터 얼굴 특징자를 추출 하였으며 각 특징자들을 세부 분류하여 얼굴 관상을 해석하도록 하였다. 또한 제안한 시스템은 추출과 분류된 특징자로부터 개인의 얼굴에 가장 적합한 얼굴 아바타 컨텐츠를 자동 생성할 수 있게 하였다. 실험결과 제안한 방법은 기존의 얼굴인식 방법에 비해 실시간 얼굴검출과 인식은 물론 정량적인 얼굴관상해석과 자동 얼굴 아바타 생성이 가능하였다.

  • PDF

기준얼굴을 이용한 얼굴표정 분석 및 합성 (Analysis and Synthesis of Facial Expression using Base Faces)

  • 박문호;고희동;변혜란
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권8호
    • /
    • pp.827-833
    • /
    • 2000
  • 본 논문에서는 인간의 중요한 감정표현 수단인 얼굴표정을 분석하는 방법을 제시하였다. 제안된 방법에서는 기준얼굴과 그의 혼합 비율의 관점에서 얼굴표정을 분석한다. 기준얼굴은 인간의 대표적인 얼굴표정인 놀람, 두려움, 분노, 혐오, 행복, 슬픔, 그리고 무표정으로 설정하였다. 얼굴 모델의 생성을 위해 일반 얼굴 모델이 얼굴영상으로 정합하는 방법을 사용하였다. 기준얼굴의 혼합 비율을 구하기 위해 유전자 알고리즘과 Simulated Annealing 방법을 사용하였고 탐색된 얼굴표정 정보를 이용한 얼굴표정 생성 실험을 통해 제안된 방법의 유용성을 입증하였다.

  • PDF

ASM 기반의 얼굴 특징 영역 추출 및 변형된 알파 블렌딩을 이용한 가상 메이크업 프로그램 (A Virtual Makeup Program Using Facial Feature Area Extraction Based on Active Shape Model and Modified Alpha Blending)

  • 구자명;조태훈
    • 한국정보통신학회논문지
    • /
    • 제14권8호
    • /
    • pp.1827-1835
    • /
    • 2010
  • 본 논문은 사용자 사진에서 ASM(Active Shape Model)을 이용하여 얼굴의 각 특징 점을 추출하고, 추출 된 특징점을 이용하여 화장할 부분의 영역을 생성 한다. 기존의 가상 메이크업 프로그램에서는 사용자가 수동적으로 몇 개의 특징 점을 정확히 선택해야 하는데서 불편함을 초래했다. 본 논문에서 제안하는 가상 메이크업 프로그램에서는 ASM을 이용하여 사용자의 입력을 필요로 하지 않는다. 자연스러운 화장 효과를 표현하기 위해서 기본적인 알파 블렌딩을 각각 화장품의 특징에 맞게 변형하여 사용자 피부색과 화장품의 색을 혼합한다. 얼굴 윤곽, 눈, 눈썹, 입술, 볼의 영역을 생성하고, Foundation, Blush, Lip Stick, Lip Liner, Eye Pencil, Eye Liner, Eye Shadow 종류의 화장을 할 수 있게 구현하였다.

Realtime Facial Expression Representation Method For Virtual Online Meetings System

  • Zhu, Yinge;Yerkovich, Bruno Carvacho;Zhang, Xingjie;Park, Jong-il
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.212-214
    • /
    • 2021
  • In a society with Covid-19 as part of our daily lives, we had to adapt ourselves to a new reality to maintain our lifestyles as normal as possible. An example of this is teleworking and online classes. However, several issues appeared on the go as we started the new way of living. One of them is the doubt of knowing if real people are in front of the camera or if someone is paying attention during a lecture. Therefore, we encountered this issue by creating a 3D reconstruction tool to identify human faces and expressions actively. We use a web camera, a lightweight 3D face model, and use the 2D facial landmark to fit expression coefficients to drive the 3D model. With this Model, it is possible to represent our faces with an Avatar and fully control its bones with rotation and translation parameters. Therefore, in order to reconstruct facial expressions during online meetings, we proposed the above methods as our solution to solve the main issue.

  • PDF

3D 스캔 데이터를 이용한 얼굴 애니메이션 시스템 (A Facial Animation System Using 3D Scanned Data)

  • 구본관;정철희;이재윤;조선영;이명원
    • 정보처리학회논문지A
    • /
    • 제17A권6호
    • /
    • pp.281-288
    • /
    • 2010
  • 본 논문에서는 3차원 얼굴 스캔 데이터와 사진 이미지를 이용하여 고화질의 3차원 얼굴 모델과 모핑 애니메이션을 생성하는 시스템 개발에 대해 기술한다. 본 시스템은 얼굴 특징점 입력 도구, 얼굴 텍스처매핑 인터페이스, 3차원 얼굴 모핑 인터페이스로 구성되어 있다. 얼굴 특징점 입력 도구는 3차원 텍스처매핑과 모핑 애니메이션을 위한 보조 도구로서 얼굴의 특징점을 입력하여 텍스처매핑과 임의의 두 얼굴간의 모핑 영역을 정할 때 사용된다. 텍스처매핑은 3D 스캐너로부터 획득한 얼굴의 기하 데이터에 세 방향의 사진 이미지를 이용하여 매핑한다. 3D 얼굴모핑은 얼굴 특징점 입력 도구로부터 얻은 특징점을 중심으로 얼굴 영역을 분류하여 임의의 두 얼굴 간의 영역간 매핑을 실현한다. 본 시스템은 사용자가 별도의 프로그래밍 작업 없이 대화형 인터페이스에서 3D 스캐너에서 획득한 얼굴 메쉬 데이터를 이용하여 사진 이미지로 텍스처 매핑을 실행하여 사실적인 3D 얼굴 모델을 얻을 수 있고, 임의의 서로 다른 얼굴 모델들간의 모핑 애니메이션을 쉽게 실현할 수가 있다.

얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형 (A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points)

  • 반세범;정찬섭
    • 인지과학
    • /
    • 제12권1_2호
    • /
    • pp.77-89
    • /
    • 2001
  • 얼굴 특징점의 지각적 위계구조를 반영한 표정인식 신경망 모형을 설계하였다. 입력자료는 MPEG-4 SNHC(Synthetic/Natural Hybrid Coding)의 얼굴 정의 파라미터(FDP) 중 39개 특징점 각각에 대해 150장의 표정연기 사진을 5개의 크기와 8개의 바위를 갖는 Gabor 필터로분석한 값이었다. 표정영상에 대한 감정상태 평정 값과 39개 특징점의 필터 반응 값을 중가 회귀분석한 결과, 감정상태의 쾌-불쾌 차원은 주로 입과 눈썹 주변의 특징점과 밀접한 과련이 있었고, 각성-수면차원은 주로 눈 주변의 특징점과 밀접한 관련이 있었다. 필터의 크기는 주로 저역 공간 주파수 필터와 감정상태가 관련이 있었고, 필터의 방위는 주로 비스듬한 사선방위와 감정상태가 관련이 있었다. 이를 기초로 표정인식 신경망을 최적화한 결과 원래 1560개(39x5x8) 입력요소를 400개(25x2x8)입력요소로 줄일 수 있었다. 표정인식 신경망의 최적화 결과를 사람의 감정상태 평정과 비교하여 볼 때, 쾌-불쾌 차원에서는 0.886의 상관관계가 있었고, 각성-수면 차원에서는 0.631의 상관관계가 있었다. 표정인식 신경망의 최적화 모형을 기쁨, 슬픔, 놀람, 공포, 분노, 혐오 등의 6가지 기본 정서 범주에 대응한 결과 74%의 인식률을 얻었다. 이러한 결과는 사람의 표정인식 원리를 이용하면 작은 양의 정보로도 최적화된 표정인식 시스템을 구현할수 있다는 점을 시시한다.

  • PDF

3차원 개인 얼굴 모델 자동 생성 (Automatic Generation of the Personal 3D Face Model)

  • 함상진;김형곤
    • 전자공학회논문지S
    • /
    • 제36S권1호
    • /
    • pp.104-114
    • /
    • 1999
  • 본 논문에서능 2차원 칼라 동영상으로부터 3차원 개인 얼굴 모델을 자동 생성하는 효율적인 방법을 다루었다. 복잡한 배경이 포함된 영상에서 얼굴 영역을 안정적으로 추출하기 위하여 피부 색상 분포에 근거한 색상 움직임 추출 방법을 이용하였다. 검출된 얼굴 영역 내에서 색상 정보과 경계선 정보를 활용하여, MPEG-4의 SNHC(Synthetic-Natural Hybrid Coding) 에서 제안하고 있는 개개인의 얼굴 특성을 표현하는 31개의 얼굴 특징점 파라메타(Facial Description Rarameter: FDP)를 자동 추출하였다. 추출된 2차원 얼굴 특징점을 1038개의 삼각형 메쉬로 이루어진 3차원 일반 얼굴 모델(Generic model)에 적용시켜 변형함으로써 개개인의 얼굴에 해당하는 모델을 자동 생성하였다. 제안하는 알고리듬은 컬러 동영상에서 배경의 복잡성, 얼굴 크기 등에 상관없이 정면상에 가까운 경우 안정적인 특징점을 추출하였으며, 펜티엄 PC에서 약 2초 이내에 개개인의 얼굴 모습에 유사한 얼굴 모델을 생성할 수 있었다.

  • PDF

퍼지논리의 에지검출에 의한 정합을 이용한 3차원 얼굴모델 생성 (A Study on Creation of 3D Facial Model Using Fitting by Edge Detection based on Fuzzy Logic)

  • 이혜정;김주리;정석태
    • 한국정보통신학회논문지
    • /
    • 제14권12호
    • /
    • pp.2681-2690
    • /
    • 2010
  • 본 논문에서는 3차원 스캐너나 카메라, 고가의 소프트웨어를 이용하지 않고 비용과 노력을 크게 절감하면서 자연스러운 얼굴모델링을 효율적으로 수행하는 3차원 얼굴 모델링 시스템을 제안한다. 임의의 정면 얼굴 모습의 2차원 이미지에서 퍼지논리를 이용한 에지검출 방법을 이용하여 각 얼굴 구성 요소의 에지를 검출하고 검출한 에지를 이용하여 3차원 표준 얼굴모델과의 정합 위치를 좀 더 정확히 맵핑시킨다. 또한 이 시스템은 3차원 표준 얼굴모델 메쉬상의 특징점과 2D 얼굴 이미지에서 검출된 에지에 맞게 특징점을 연결하여 정합한 다음 유동적이고 탄력적으로 조정하며 텍스쳐 맵핑함으로써 사실적이고 간편하게 3차원 얼굴 모델을 생성한다.

Invariant Range Image Multi-Pose Face Recognition Using Fuzzy c-Means

  • Phokharatkul, Pisit;Pansang, Seri
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1244-1248
    • /
    • 2005
  • In this paper, we propose fuzzy c-means (FCM) to solve recognition errors in invariant range image, multi-pose face recognition. Scale, center and pose error problems were solved using geometric transformation. Range image face data was digitized into range image data by using the laser range finder that does not depend on the ambient light source. Then, the digitized range image face data is used as a model to generate multi-pose data. Each pose data size was reduced by linear reduction into the database. The reduced range image face data was transformed to the gradient face model for facial feature image extraction and also for matching using the fuzzy membership adjusted by fuzzy c-means. The proposed method was tested using facial range images from 40 people with normal facial expressions. The output of the detection and recognition system has to be accurate to about 93 percent. Simultaneously, the system must be robust enough to overcome typical image-acquisition problems such as noise, vertical rotated face and range resolution.

  • PDF