• Title/Summary/Keyword: 표정제어

Search Result 52, Processing Time 0.028 seconds

Investigation on the Accuracy of bundle Adjustments and Exterior Orientation Parameter Estimation of Linear Pushbroom Sensor Models (선형 푸시브룸 센서모델의 번들조정 정확도 및 외부표정요소추정 정확도 분석)

  • Kim Tae Jung
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.23 no.2
    • /
    • pp.137-145
    • /
    • 2005
  • In this paper, we investigate the accuracy of various sensor models developed for linear pushbroom satellite images. We define the accuracy of a sensor model in two aspects: the accuracy of bundle adjustments and the accuracy of estimating exterior orientation parameters. The first accuracy has been analyzed and reported frequently whereas the second accuracy has somewhat been neglected. We argue that the second accuracy is as important as the first one. The second accuracy describes a model's ability to predict satellite orbit and attitude, which has many direct and indirect applications. Analysis was carried out on the traditional collinearity-based sensor models and orbit-based sensor models. Collinearity-based models were originally developed for aerial photos and modified for linear pushbroom-type satellite images. Orbit-based models have been used within satellite communities for satellite control and orbit determination. Models were tested with two Kompsat-1 EOC scenes and GPS-driven control points. Test results showed that orbit-based models produced better estimation of exterior orientation parameters while maintained comparable accuracy on bundle adjustments.

3D Avatar Messenger Using Lip Shape Change for Face model (얼굴 입모양 변화를 이용한 3D Avatar Messenger)

  • Kim, Myoung-Su;Lee, Hyun-Cheol;Kim, Eun-Serk;Hur, Gi-Taek
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.225-228
    • /
    • 2005
  • 얼굴표정은 상대방에게 자신의 감정과 생각을 간접적으로 나타내는 중요한 의사소통의 표현이 되며 상대방에게 직접적인 표현방법의 수단이 되기도 한다. 이러한 표현 방법은 컴퓨터를 매개체로 하는 메신저간의 의사 전달에 있어서 얼굴표정을 사용함으로써 상대방의 감정을 문자로만 인식하는 것이 아니라 현재 상대방이 느끼는 내적인 감정까지 인식하여 대화할 수 있다. 본 논문은 3D 메시로 구성된 얼굴 모델을 이용하여 사용자가 입력한 한글 메시지의 한글 음절을 분석 추출 하고, 3D 얼굴 메시에 서 8개의 입술 제어점을 사용하여 입 모양의 변화를 보여주는 3D Avatar 아바타 메신저 시스템을 설계 및 구현 하였다.

  • PDF

Supporting the Korean Lip Synchronization and Facial Expression (한글 입술 움직임과 얼굴 표정이 동기화된 3차원 개인 아바타 대화방 시스템)

  • Lee, Jung;Oh, Beom-Soo;Jeong, Won-Ki;Kim, Chang-Hun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.640-642
    • /
    • 2000
  • 대화방 시스템은 텍스트화 화상을 이용한 대화방 또는 메시지 전달시스템이 널리 사용되고 있다. 본 논문은 3차원 아바타가 등장하는 대화방 시스템을 생성 및 관리하는 기술을 제안한다. 본 아바타 대화방의 특징은 사진을 가지고 간단히 3차원 개인 아바타로 변환 생성하는 기술, 3차원 개인 아바타의 한글 발음에 적합한 입술 움직임, 메시지에 따른 적절한 표정변화 등이다. 특히, 3차원 개인 아바타는 사진만으로 생성이 가능하며, 텍스쳐 매핑된 3차원 아바타는 실시간으로 사실감있는 대화방 서비스가 가능하도록 제어된다.

  • PDF

Realtime Synthesis of Virtual Faces with Facial Expressions and Speech (표정짓고 말하는 가상 얼굴의 실시간 합성)

  • 송경준;이기영;최창석;민병의
    • The Journal of the Acoustical Society of Korea
    • /
    • v.17 no.8
    • /
    • pp.3-11
    • /
    • 1998
  • 본 논문에서는 고품질의 얼굴 동영상과 운율이 첨가된 음성을 통합하여 자연스런 가상얼굴을 실시간으로 합성하는 방법을 제안한다. 이 방법에서는 한글 텍스트를 입력하여, 텍스트에 따라 입모양과 음성을 합성하고, 얼굴 동영상과 음성의 동기를 맞추고 있다. 먼저, 텍스트를 음운 변화한 후, 문장을 분석하고 자모음사이의 지속시간을 부여한다. 자모음과 지 속시간에 따라 입모양을 변화시켜 얼굴 동영상을 생성하고 있다. 이때, 텍스트에 부합한 입 모양 변화뿐만 아니라, 두부의 3차원 동작과 다양한 표정변화를 통하여 자연스런 가상얼굴 을 실시간으로 합성하고 있다. 한편, 음성합성에서는 문장분석 결과에 따라 강세구와 억양구 를 정하고 있다. 강세구와 억양구를 이용하여 생성된 운율모델이 고품질의 음성합성에 필요 한 지속시간, 억양 및 휴지기를 제어한다. 합성단위는 무제한 어휘가 가능한 반음절과 triphone(VCV)의 조합이며, 합성방식은 TD-PSOLA를 사용한다.

  • PDF

Facial Expression Animation which Applies a Motion Data in the Vector based Caricature (벡터 기반 캐리커처에 모션 데이터를 적용한 얼굴 표정 애니메이션)

  • Kim, Sung-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.10 no.5
    • /
    • pp.90-98
    • /
    • 2010
  • This paper describes methodology which enables user in order to generate facial expression animation of caricature which applies a facial motion data in the vector based caricature. This method which sees was embodied with the plug-in of illustrator. And It is equipping the user interface of separate way. The data which is used in experiment attaches 28 small-sized markers in important muscular part of the actor face and captured the multiple many expression which is various with Facial Tracker. The caricature was produced in the bezier curve form which has a respectively control point from location of the important marker which attaches in the face of the actor when motion capturing to connection with motion data and the region which is identical. The facial motion data compares in the caricature and the spatial scale went through a motion calibration process too because of size. And with the user letting the control did possibly at any time. In order connecting the caricature and the markers also, we did possibly with the click the corresponding region of the caricature, after the user selects each name of the face region from the menu. Finally, this paper used a user interface of illustrator and in order for the caricature facial expression animation generation which applies a facial motion data in the vector based caricature to be possible.

MIRIS에서 적외선 관측용 이미지 센서의 제어를 위한 FPGA 개발

  • Bang, Seung-Cheol;Lee, Dae-Hui;Wi, Seok-O;Ga, Neung-Hyeon;Cha, Sang-Muk;Park, Yeong-Sik;Nam, Uk-Won;Jeong, Ung-Seop;Lee, Chang-Hui;Mun, Bong-Gon;Park, Seong-Jun;Lee, Deok-Haeng;Pyo, Jeong-Hyeon;Han, Won-Yong
    • Bulletin of the Korean Space Science Society
    • /
    • 2010.04a
    • /
    • pp.25.2-25.2
    • /
    • 2010
  • MIRIS는 과학기술위성 3호의 주 탑제체로 우주 및 지구의 적외선 관측을 위한 두 개의 카메라 시스템을 가지고 있으며 이를 위한 적외선 검출용 이미지 센서가 각각 장착되어 있다. 이미지 센서를 통해 검출된 이미지 데이터를 읽기 위해 고속의 데이터 처리가 요구되어 FPGA 구성방식으로 전용 제어기를 구성하였다. 우주 및 지구의 적외선 관측용 이미지 센서는 구성 및 동작방법이 달라 요구기능을 만족하는 각각의 전용 이미지 센서 제어기를 개발했다. FPGA를 이용한 이미지 센서 제어기에는 검출된 이미지를 읽기위한 센서 제어 신호발생기, 아날로그 이미지 신호를 디지털 정보로 변환하는 ADC 제어용 신호 발생기, ADC의 출력 신호를 고속의 직렬 통신선로로 출력 하는 기능 외에 동작 모드 및 동작 상태 입력용 DSP 인터페이스, 고속의 직렬 통신 선로에 MIRIS 상태정보 삽입 기능, 제어기의 기능을 원격지에서 확인 할 수 있는 이미지 패턴 생성기능 등을 가지고 있다. 특히, 이미지를 읽기 위한 동작 시에만 클록 주파수를 인가하는 방법으로 FPGA 내부 회로를 구성하여 전류의 소모량을 최소화 하였다.

  • PDF

Design and Implementation of avatar behaving on Internet Using EAI (EAI를 이용한 인터넷 상에서의 아바타 동작에 관한 설계 및 구현)

  • 정회경;안성옥;정재길
    • The Journal of Information Technology
    • /
    • v.4 no.1
    • /
    • pp.97-108
    • /
    • 2001
  • This thesis is about the design and implementation of the system for controlling Avatar, user's alter ego in a simulated world using the EAI(External Authoring Interface) technology to be able to control VRML(Virtual Reality Modeling Language). In this thesis, user's Avatar described in VRML language embodied interactions to move and show an expression by JAVA according to a user's demand. In the future, this would be able to develop into a research to try to embody and construct a simulated society based on web for the purpose of various integration of society such as cyber government, lecture, trial performance, and auction.

  • PDF

New Rectangle Feature Type Selection for Real-time Facial Expression Recognition (실시간 얼굴 표정 인식을 위한 새로운 사각 특징 형태 선택기법)

  • Kim Do Hyoung;An Kwang Ho;Chung Myung Jin;Jung Sung Uk
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.12 no.2
    • /
    • pp.130-137
    • /
    • 2006
  • In this paper, we propose a method of selecting new types of rectangle features that are suitable for facial expression recognition. The basic concept in this paper is similar to Viola's approach, which is used for face detection. Instead of previous Haar-like features we choose rectangle features for facial expression recognition among all possible rectangle types in a 3${\times}$3 matrix form using the AdaBoost algorithm. The facial expression recognition system constituted with the proposed rectangle features is also compared to that with previous rectangle features with regard to its capacity. The simulation and experimental results show that the proposed approach has better performance in facial expression recognition.

Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity (로봇 감정의 강도를 표현하기 위한 LED 의 색과 깜빡임 제어)

  • Kim, Min-Gyu;Lee, Hui-Sung;Park, Jeong-Woo;Jo, Su-Hun;Chung, Myung-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.547-552
    • /
    • 2008
  • Human and robot will have closer relation in the future, and we can expect that the interaction between human and robot will be more intense. To take the advantage of people's innate ability of communication, researchers concentrated on the facial expression so far. But for the robot to express emotional intensity, other modalities such as gesture, movement, sound, color are also needed. This paper suggests that the intensity of emotion can be expressed with color and blinking so that it is possible to apply the result to LED. Color and emotion definitely have relation, however, the previous results are difficult to implement due to the lack of quantitative data. In this paper, we determined color and blinking period to express the 6 basic emotions (anger, sadness, disgust, surprise, happiness, fear). It is implemented on avatar and the intensities of emotions are evaluated through survey. We figured out that the color and blinking helped to express the intensity of emotion for sadness, disgust, anger. For fear, happiness, surprise, the color and blinking didn't play an important role; however, we may improve them by adjusting the color or blinking.

  • PDF

Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks (적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구)

  • Choi, Hee Jo;Park, Goo Man
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.11
    • /
    • pp.465-472
    • /
    • 2022
  • In this paper, the style synthesis network is trained to generate style-synthesized video through the style synthesis through training Stylegan and the video synthesis network for video synthesis. In order to improve the point that the gaze or expression does not transfer stably, 3D face restoration technology is applied to control important features such as the pose, gaze, and expression of the head using 3D face information. In addition, by training the discriminators for the dynamics, mouth shape, image, and gaze of the Head2head network, it is possible to create a stable style synthesis video that maintains more probabilities and consistency. Using the FaceForensic dataset and the MetFace dataset, it was confirmed that the performance was increased by converting one video into another video while maintaining the consistent movement of the target face, and generating natural data through video synthesis using 3D face information from the source video's face.