• 제목/요약/키워드: Facial motion

검색결과 157건 처리시간 0.023초

FCM 클러스터링을 이용한 표정공간의 단계적 가시화 (Phased Visualization of Facial Expressions Space using FCM Clustering)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제8권2호
    • /
    • pp.18-26
    • /
    • 2008
  • 본 논문은 사용자로 하여금 표정공간으로부터 일련의 표정들을 선택하게 함으로써 3차원 아바타의 표정을 제어할 수 있는 표정공간의 단계적 가시화 기법을 기술한다. 본 기법에 의한 시스템은 무표정 상태를 포함하여 11개의 서로 다른 모션들로 구성된 2400여개의 표정 프레임으로 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해함으로서 수행되어진다. 그러나 표정공간에서는 과격한 표정 변화에서부터 세밀한 표정 변화까지 다양한 표정 제어를 수행할 수 있어야하기 때문에 단계적 가시화 기법이 필요하다. 표정공간을 단계적으로 가시화하기 위해서는 퍼지 클러스터링을 이용한다. 초기 단계에서는 11개의 클러스터 센터를 가지도록 클러스터링하고, 단계가 증가될 때 마다 클러스터 센터의 수를 두 배씩 증가시켜 표정들을 클러스터링한다. 이때 클러스터 센터와 표정공간에 분포된 표정들의 위치는 서로 다른 경우가 많기 때문에, 클러스터 센터에서 가장 가까운 표정상태를 찾아 클러스터 센터로 간주한다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 단계적 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

안면골 골절 후 시신경 손상에 관한 고찰 (THE CLINICAL STUDY OF THE OPTIC NERVE INJURY AFTER FACIAL TRAUMA)

  • 박재억;윤경인
    • Journal of the Korean Association of Oral and Maxillofacial Surgeons
    • /
    • 제26권6호
    • /
    • pp.677-680
    • /
    • 2000
  • Orbital injuries are common with facial trauma. Direct injuries to the globe are not rare but it can result in complications such as chemosis, subconjunctival hemorrhage and hyphema. Periorbital trauma or injuries to the extraocular muscles and blow-out fracture may result in lid edema, ecchymosis & ptosis and diplopia or limitation of ocular motion respectively. Indirect injuries to the optic nerve come up without any injuries but its complication is irreversible and severe such as loss of vision. The aim of this study is to review the literature on blindness or ptosis following facial trauma and present the cases of blindness after facial trauma and ptosis after mandibular fracture without specific clinical findings.

  • PDF

2D 얼굴 영상을 이용한 로봇의 감정인식 및 표현시스템 (Emotion Recognition and Expression System of Robot Based on 2D Facial Image)

  • 이동훈;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제13권4호
    • /
    • pp.371-376
    • /
    • 2007
  • This paper presents an emotion recognition and its expression system of an intelligent robot like a home robot or a service robot. Emotion recognition method in the robot is used by a facial image. We use a motion and a position of many facial features. apply a tracking algorithm to recognize a moving user in the mobile robot and eliminate a skin color of a hand and a background without a facial region by using the facial region detecting algorithm in objecting user image. After normalizer operations are the image enlarge or reduction by distance of the detecting facial region and the image revolution transformation by an angel of a face, the mobile robot can object the facial image of a fixing size. And materialize a multi feature selection algorithm to enable robot to recognize an emotion of user. In this paper, used a multi layer perceptron of Artificial Neural Network(ANN) as a pattern recognition art, and a Back Propagation(BP) algorithm as a learning algorithm. Emotion of user that robot recognized is expressed as a graphic LCD. At this time, change two coordinates as the number of times of emotion expressed in ANN, and change a parameter of facial elements(eyes, eyebrows, mouth) as the change of two coordinates. By materializing the system, expressed the complex emotion of human as the avatar of LCD.

DCM 마스크와 스네이크의 초기곡선 보간에 의한 동영상에서의 얼굴 윤곽선 추출 (Facial Contour Extraction in Moving Pictures by using DCM mask and Initial Curve Interpolation of Snakes)

  • 김영원;전병환
    • 전자공학회논문지CI
    • /
    • 제43권4호
    • /
    • pp.58-66
    • /
    • 2006
  • 본 논문에서는 복잡한 배경을 갖는 동영상에서 얼굴의 윤곽선을 추출하기 위해 DCM(Dilation of Color and Motion information) 마스크와 동적 윤곽선 모델 (Active Contour Models; Snakes)을 적용한다. 먼저, 얼굴의 색상 정보와 움직임 정보를 모폴로지의 팽창과 AND 연산으로 결합한 DCM 마스크를 제안하여, 복잡한 배경이 제거된 얼굴 영역을 검출하고 영상 에너지의 잡음을 제거하기 위해 사용한다. 또한, 초기 곡선에 민감한 동적 윤곽선 모델의 단점을 극복하기 위해 얼굴 요소의 기하학적인 비율에 의해 추정된 회전정도에 따라 초기곡선을 자동으로 설정하고, 에지가 약한 부분에서의 윤곽선 추출을 위해 스네이크의 영상에너지로 에지강도와 밝기를 함께 사용한다. 실험을 위해, 복잡한 배경이 있는 실내 영상과 방송 영상으로부터 양 눈이 보이는 총 16명의 다양한 헤즈 포즈 영상을 총 480장 취득하였다. 결과적으로, 얼굴의 회전정도에 따라 보간된 초기곡선을 사용하고 에지강도와 밝기의 결합 영상에너지를 사용하는 경우에 평균 처리시간은 0.28초에서 보다 정교한 얼굴 윤곽선이 추출되는 것으로 나타났다.

측면 2차원 얼굴 영상들의 대칭성을 이용한 3차원 얼굴 복원 (A 3D Face Reconstruction Based on the Symmetrical Characteristics of Side View 2D Face Images)

  • 이성주;박강령;김재희
    • 대한전자공학회논문지SP
    • /
    • 제48권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 기존에 널려 쓰이는 3차원 얼굴 복원 방식인 Structure from motion(SfM)은 정면 및 좌우 측면 영상들이 입력할 때, 좌우 얼굴 특정 점들이 검출되어 우수한 성능을 보인다. 그러나 감시 카메라 환경과 같이 한 쪽 측면 얼굴 영상들이 입력될 경우, 보이는 한 쪽 얼굴 특정 점들만이 입력되므로, 가려진 부분의 얼굴이 제대로 복원되지 않는 문제가 있다. 이러한 문제를 해결하기 위해, 본 논문은 사람의 얼굴이 좌우 대칭이라는 제한 조건을 이용하여 대칭이 되는 얼굴 특정 정들을 생성하였으며, 이렇게 생성된 얼굴 특정 점들과 입력된 얼굴 특정 점들을 결합하여 사용함으로써 기존 SfM 기반 3차원 얼굴 복원 방식의 성능을 향상시켰다. 제안한 3차원 얼굴 복원 방법을 정량적으로 평가하기 위해 3차원 스캐너를 이용해 3차원 얼굴을 취득하였고, 이를 복원한 3차원 얼굴과 비교한 결과 좌우 대칭 특정 점들을 함께 사용하는 제안한 3차원 복원 방식은 한 쪽 측면 특정 점들만을 사용하는 기존 방식에 비해 우수한 성능을 보였다.

동영상에서 최적의 얼굴색 정보와 움직임 정보에 기반한 얼굴 영역 추출 (The Extraction of Face Regions based on Optimal Facial Color and Motion Information in Image Sequences)

  • 박형철;전병환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제27권2호
    • /
    • pp.193-200
    • /
    • 2000
  • 자연스러운 사용자 작업 환경인 헤드 제스처 인터페이스를 구현하기 위해서는 얼굴 영역 추출에 관한 연구가 선행되어야 하는데, 최근에는 동영상에서 얼굴 영역을 추출하기 위해 색상 정보를 이용하는 연구가 많이 진행되고 있다. 본 논문에서는 대표적으로 사용되는 HSI 컬러 모델과 YIQ 컬러 모델의 각 색상 성분인 H(hue)와 I(in-phase)를 이용하여 얼굴 영역의 추출 성능을 비교한다. 먼저 각 색상 성분에 대해 임계 구간 변화에 따른 최적의 얼굴색 구간을 설정하여 얼굴 영역 추출의 정확도를 비교한다. 다음으로 설정된 최적의 얼굴색 정보와 움직임 정보를 결합한 영상에 대해 얼굴 박스를 추출함으로써 최종적인 얼굴 영역 추출의 정확도를 비교 평가한다. 실험 결과, 최적의 얼굴색 정보를 표현하는 구간은 HSI의 H 성분의 경우 $0^{\circ}{\sim}14^{\circ}$, YIQ의 I 성분은 $-22^{\circ}{\sim}-2^{\circ}$인 것으로 나타났다. 이 최적 구간에 의한 각 색상 성분의 얼굴 영역 추출의 정확도에서는 I 성분이 H 성분에 비해 약 10% 정도 높은 추출율을 나타냈으며, 최적의 얼굴색 정보와 움직임 정보를 결합한 영상의 경우에서도 I 성분이 약 3% 정도의 보다 나은 얼굴 영역 추출 결과를 얻었다.

  • PDF

Mixed-reality simulation for orthognathic surgery

  • Fushima, Kenji;Kobayashi, Masaru
    • Maxillofacial Plastic and Reconstructive Surgery
    • /
    • 제38권
    • /
    • pp.13.1-13.12
    • /
    • 2016
  • Background: Mandibular motion tracking system (ManMoS) has been developed for orthognathic surgery. This article aimed to introduce the ManMoS and to examine the accuracy of this system. Methods: Skeletal and dental models are reconstructed in a virtual space from the DICOM data of three-dimensional computed tomography (3D-CT) recording and the STL data of 3D scanning, respectively. The ManMoS uniquely integrates the virtual dento-skeletal model with the real motion of the dental cast mounted on the simulator, using the reference splint. Positional change of the dental cast is tracked by using the 3D motion tracking equipment and reflects on the jaw position of the virtual model in real time, generating the mixed-reality surgical simulation. ManMoS was applied for two clinical cases having a facial asymmetry. In order to assess the accuracy of the ManMoS, the positional change of the lower dental arch was compared between the virtual and real models. Results: With the measurement data of the real lower dental cast as a reference, measurement error for the whole simulation system was less than 0.32 mm. In ManMoS, the skeletal and dental asymmetries were adequately diagnosed in three dimensions. Jaw repositioning was simulated with priority given to the skeletal correction rather than the occlusal correction. In two cases, facial asymmetry was successfully improved while a normal occlusal relationship was reconstructed. Positional change measured in the virtual model did not differ significantly from that in the real model. Conclusions: It was suggested that the accuracy of the ManMoS was good enough for a clinical use. This surgical simulation system appears to meet clinical demands well and is an important facilitator of communication between orthodontists and surgeons.

3D 아바타의 자연스러운 수화 동작 표현 방법 (Soft Sign Language Expression Method of 3D Avatar)

  • 오영준;장효영;정진우;박광현;김대진;변증남
    • 정보처리학회논문지B
    • /
    • 제14B권2호
    • /
    • pp.107-118
    • /
    • 2007
  • 본 논문에서는 실제 수화자의 관점에서 기존 수화 아바타의 한계와 문제점을 지적한다. 이를 해결하기 위하여 손 모양, 손 방향, 손 운동을 비롯하여 입술 움직임, 얼굴 표정, 안색, 운동자 움직임, 몸동작 등을 통해 수화를 보다 자연스럽게 표현할 수 있는 수화 아바타를 개발하였다. 또한, 데이터베이스의 성능을 높이기 위해 손의 움직임과 함께 다른 신체 요소들의 움직임을 구조적으로 같이 기술할 수 있는 하이퍼 수화 문장을 제안한다. 개발된 시스템의 우수성을 보이기 위해 실제 청각 장애인을 대상으로 설문조사를 수행하여 시스템의 사용성을 평가하였다.

스케치 인터페이스를 이용한 데이터 기반 얼굴 애니메이션 (Data-driven Facial Animation Using Sketch Interface)

  • 주은정;안소민;이제희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제13권3호
    • /
    • pp.11-18
    • /
    • 2007
  • 자연스러운 얼굴 애니메이션 생성은 캐릭터 애니메이션 분야에서 중요한 문제이다. 지금까지 얼굴 애니메이션은 3차원 모델링 프로그램을 이용한 전문 애니메이터들의 수작업을 통해 생성되거나, 필요한 움직임 데이터를 직접 동작 캡쳐함으로써 만들어 왔다. 그러나 이러한 방식은 일반 사용자가 쉽게 접근 할 수 없으며 많은 시간과 비용을 요구한다는 단점이 있다. 본 연구에서는 실제에 가깝고 자연스러운 얼굴애니메이션을 만들기 위해, 누구나 쉽게 사용할 수 있는 직관적인 방식의 스케치 인터페이스를 이용하고자 한다. 이를 통해 키-프레임을 생성하는 시스템을 구축하고, 얼굴 캡쳐를 통하여 얻은 데이터로부터 추출한 얼굴 표정간의 전이 정보를 이용하여 키-프레임을 보간하는 방식을 제안한다. 본 시스템은 전문 애니메이터가 아닌 일반 사용자도 쉽고 빠르게 다양한 감점을 표출하며, 동시에 말하는 얼굴 애니메이션을 만들 수 있도록 한다.

  • PDF

동적 윤곽선 모델을 이용한 PC 카메라 영상에서의 얼굴 윤곽선 추출 (Facial Contour Extraction in PC Camera Images using Active Contour Models)

  • 김영원;전병환
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2005년도 추계 종합학술대회 논문집
    • /
    • pp.633-638
    • /
    • 2005
  • 얼굴 추출은 휴먼 인터페이스와 생체 인식 및 보안을 위해 매우 중요한 분야이다. 본 논문에서는 동영상에서 얼굴의 윤곽선을 추출하기 위해, DCM(Dilation of Color and Motion)필터와 동적 윤곽선 모델(Active Contour Model) 적용한다. 먼저, 본 논문에서 제안된 DCM 필터는 모폴로지의 팽창 연산이 적용된 얼굴 색상영상과 차영상을 결합하고 이를 다시 팽창한 것으로 동영상에서 복잡한 배경을 제거하고 얼굴 영역을 검출하기 위해 사용된다. 동적 윤곽선 모델은 초기 곡선에 영향을 많이 받으므로, 얼굴과 눈, 입의 기하학적인 비율을 이용하여 회전정도를 구한 후, 이를 이용하여 초기 곡선을 자동으로 설정한다. 에지가 약한 부분에서의 윤곽선 추출을 위해, 스네이크의 영상에너지로 에지영상과 밝기영상을 함께 사용하였다. 복잡한 배경이 있는 실내 환경에서 총 5명으로부터 양 눈이 보이는 다양한 헤드 포즈 영상을 25장씩 샘플링하여 총 125장에 대해 실험한 결과, 얼굴 윤곽선의 평균 추출률은 98.1%, 평균 처리시간은 0.2초로 나타났다.

  • PDF