• 제목/요약/키워드: Facial Model

검색결과 529건 처리시간 0.024초

A Novel Cross Channel Self-Attention based Approach for Facial Attribute Editing

  • Xu, Meng;Jin, Rize;Lu, Liangfu;Chung, Tae-Sun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권6호
    • /
    • pp.2115-2127
    • /
    • 2021
  • Although significant progress has been made in synthesizing visually realistic face images by Generative Adversarial Networks (GANs), there still lacks effective approaches to provide fine-grained control over the generation process for semantic facial attribute editing. In this work, we propose a novel cross channel self-attention based generative adversarial network (CCA-GAN), which weights the importance of multiple channels of features and archives pixel-level feature alignment and conversion, to reduce the impact on irrelevant attributes while editing the target attributes. Evaluation results show that CCA-GAN outperforms state-of-the-art models on the CelebA dataset, reducing Fréchet Inception Distance (FID) and Kernel Inception Distance (KID) by 15~28% and 25~100%, respectively. Furthermore, visualization of generated samples confirms the effect of disentanglement of the proposed model.

Wavelet과 신경망을 이용한 내용기반 얼굴 검색 시스템 (Content-based Face Retrieval System using Wavelet and Neural Network)

  • 강영미;정성환
    • 한국컴퓨터산업학회논문지
    • /
    • 제2권3호
    • /
    • pp.265-274
    • /
    • 2001
  • 본 논문에서는 얼굴의 특징 영역에 근거하여 얼굴을 검색할 수 있는 내용기반의 얼굴 검색 시스템을 제안한다. 질의를 위해 이름이나 주민등록번호와 같은 키워드를 사용하는 대신에, 제안한 시스템은 시각적 질의로서 얼굴 영상을 사용한다. 이를 위해, 얼굴 구성 요소를 포함하는 특징 영역을 HSl 칼라 모델이 제공하는 칼라 정보와 Wavelet 변환이 제공하는 에지 정보를 이용하여 추출한 후, 신경망을 통하여 분류ㆍ검색한다. 제안한 검색 시스템은 Oracle DBMS를 사용하여 클라이언트/서버 환경으로 구축되었다. 150개의 다양한 얼굴 영상으로 실험한 결과, 약 88.3%의 검색율을 보였다.

  • PDF

지역 및 안모형태에 따른 여고생의 치열궁 크기에 대한 비교 (A COMPARATIVE STUDY ON DENTAL ARCH DIMENSION OF HIGH SCHOOL FEMALES ACCORDING TO THE REGION OF RESIDENCE AND FACIAL TYPE)

  • 장재홍;김종철
    • 대한치과교정학회지
    • /
    • 제24권4호
    • /
    • pp.885-895
    • /
    • 1994
  • This study was performed to compare the dental arch dimensions of urban and rural high school females according to the region of residence and facial type. A model and cephalometric analysis was made from 48 urban and 48 rural high school females. The results of this study were obtained as follows : 1. Arch width in the urban group were similar to the rural group. 2. Lingual arch length at upper 1st premolar level in the urban group was larger than the rural group and lingual arch length at lower canine level in rural group was larger than the urban group. 3. Palatal height at canine level in the rural group was higher than the urban group. 4. Palatal heights at 2nd premolar and 1st molar level had correlation with the VERT index. In comparison of lingual arch dimensions according to Rickett's facial group, palatal heights at 2nd premolar and 1st molar level in dolichofacial group were lower than other groups.

  • PDF

얼굴의 색상과 모양정보를 이용한 조명 변화에 강인한 얼굴 추적 시스템 구현 (Development of Face Tracking System Using Skin Color and Facial Shape)

  • 이형수
    • 정보처리학회논문지B
    • /
    • 제10B권6호
    • /
    • pp.711-718
    • /
    • 2003
  • 얼굴 인식 시스템과 표정인식 시스템과 같은 고차원 처리를 수행하는 시스템의 전처리 과정으로써 이미지 영역 내에서 얼굴을 추적하는 것은 중요한 과정이다. 본 논문에서는 피부색과 얼굴의 형태 정보를 단서로 하는 CONDENSATION 알고리즘을 사용하여 얼굴의 위치를 추적하였다. 컬러의 가중치와 형태의 가중치를 결합시키는데 어려움이 있으므로 각각을 단서로 사용하는 두 개의 추적기를 가진 시스템을 제안한다. 제안된 시스템은 복잡한 배경, 피부색의 물체가 이미지 내에 존재하는 경우, 다른 얼굴이 이미지 내에 존재하는 경우 모두에 대해서 훌륭한 성능을 보여 주었다.

FBML을 이용한 서로 다른 아바타 모델간의 제스처 통신 (Gesture Communications Between Different Avatar Models Using A FBML)

  • 이용후;김상운;아오끼요시나오
    • 전자공학회논문지CI
    • /
    • 제41권5호
    • /
    • pp.41-49
    • /
    • 2004
  • 인터넷 가상공간에서 서로 다른 언어 사이의 장벽을 극복하기 위한 방법으로 수화 통신 시스템이 연구되고 있다. 그러나 지금까지의 연구는 같은 유형의 아바타 만을 대상으로 하였기 때문에 모델 구조가 서로 다를 경우에는 적용할 수 없다는 문제가있다. 따라서 본 연구에서는 FBML (Facial Body Markup Language)을 이용하여 서로 다른 아바타들 간의 수화 제스처 통신을 구현하는 방법을 제안하였다. 즉, FBML을 정의하여 제스처를 위한 관절각 및 얼굴 표정 등 서로 다른 아바타 모델들 사이에 전달할 내용을 표준 문서로 만들었다. 본 방법은 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

스테레오 영상을 이용한 얼굴 포즈 추정 (Face Pose Estimation using Stereo Image)

  • 소인미;강선경;김영운;이지근;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권3호
    • /
    • pp.151-159
    • /
    • 2006
  • 본 논문에서는 두 대의 카메라 영상으로부터 얼굴의 포즈를 추정하는 방법을 제안한다. 제안된 방법은 먼저 두 얼굴 영상으로부터 대응되는 눈썹, 눈, 입의 특징점을 추출한 다음, 스테레오 비전의 삼각법에 의해 특징점에 대한 3차원 위치를 계산한다. 그 다음에는 특징점으로 부터 삼각형을 생성하고 그 삼각형에 수직 방향을 계산함으로써 얼굴의 포즈를 계산한다. 계산된 얼굴의 포즈를 3D 얼굴 모델에 적용해 본 결과 본 논문에서 제안된 방법이 정확한 얼굴 포즈를 추정할 수 있음을 알 수 있었다.

  • PDF

Facial Expression Recognition through Self-supervised Learning for Predicting Face Image Sequence

  • Yoon, Yeo-Chan;Kim, Soo Kyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.41-47
    • /
    • 2022
  • 본 논문에서는 자동표정인식을 위하여 얼굴 이미지 배열의 가운데 이미지를 예측하는 새롭고 간단한 자기주도학습 방법을 제안한다. 자동표정인식은 딥러닝 모델을 통해 높은 성능을 달성할 수 있으나 일반적으로 큰 비용과 시간이 투자된 대용량의 데이터 세트가 필요하고, 데이터 세트의 크기와 알고리즘의 성능이 비례한다. 제안하는 방법은 추가적인 데이터 세트 구축 없이 기존의 데이터 세트를 활용하여 자기주도학습을 통해 얼굴의 잠재적인 심층표현방법을 학습하고 학습된 파라미터를 전이시켜 자동표정인식의 성능을 향상한다. 제안한 방법은 CK+와 AFEW 8.0 두가지 데이터 세트에 대하여 높은 성능 향상을 보여주었고, 간단한 방법으로 큰 효과를 얻을 수 있음을 보여주었다.

표정 피드백을 이용한 딥강화학습 기반 협력로봇 개발 (Deep Reinforcement Learning-Based Cooperative Robot Using Facial Feedback)

  • 전해인;강정훈;강보영
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.264-272
    • /
    • 2022
  • Human-robot cooperative tasks are increasingly required in our daily life with the development of robotics and artificial intelligence technology. Interactive reinforcement learning strategies suggest that robots learn task by receiving feedback from an experienced human trainer during a training process. However, most of the previous studies on Interactive reinforcement learning have required an extra feedback input device such as a mouse or keyboard in addition to robot itself, and the scenario where a robot can interactively learn a task with human have been also limited to virtual environment. To solve these limitations, this paper studies training strategies of robot that learn table balancing tasks interactively using deep reinforcement learning with human's facial expression feedback. In the proposed system, the robot learns a cooperative table balancing task using Deep Q-Network (DQN), which is a deep reinforcement learning technique, with human facial emotion expression feedback. As a result of the experiment, the proposed system achieved a high optimal policy convergence rate of up to 83.3% in training and successful assumption rate of up to 91.6% in testing, showing improved performance compared to the model without human facial expression feedback.

Mixed-reality simulation for orthognathic surgery

  • Fushima, Kenji;Kobayashi, Masaru
    • Maxillofacial Plastic and Reconstructive Surgery
    • /
    • 제38권
    • /
    • pp.13.1-13.12
    • /
    • 2016
  • Background: Mandibular motion tracking system (ManMoS) has been developed for orthognathic surgery. This article aimed to introduce the ManMoS and to examine the accuracy of this system. Methods: Skeletal and dental models are reconstructed in a virtual space from the DICOM data of three-dimensional computed tomography (3D-CT) recording and the STL data of 3D scanning, respectively. The ManMoS uniquely integrates the virtual dento-skeletal model with the real motion of the dental cast mounted on the simulator, using the reference splint. Positional change of the dental cast is tracked by using the 3D motion tracking equipment and reflects on the jaw position of the virtual model in real time, generating the mixed-reality surgical simulation. ManMoS was applied for two clinical cases having a facial asymmetry. In order to assess the accuracy of the ManMoS, the positional change of the lower dental arch was compared between the virtual and real models. Results: With the measurement data of the real lower dental cast as a reference, measurement error for the whole simulation system was less than 0.32 mm. In ManMoS, the skeletal and dental asymmetries were adequately diagnosed in three dimensions. Jaw repositioning was simulated with priority given to the skeletal correction rather than the occlusal correction. In two cases, facial asymmetry was successfully improved while a normal occlusal relationship was reconstructed. Positional change measured in the virtual model did not differ significantly from that in the real model. Conclusions: It was suggested that the accuracy of the ManMoS was good enough for a clinical use. This surgical simulation system appears to meet clinical demands well and is an important facilitator of communication between orthodontists and surgeons.

스타얼굴의 감성모형 연구 (A study on affective space model for Celebrity's face)

  • 김수정;박수진;정찬섭
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 춘계 종합학술대회 논문집
    • /
    • pp.298-301
    • /
    • 2006
  • 본 연구는 아름다운 얼굴의 시대별 특징변화를 관찰하기 위해 수행되었다. 얼굴을 구성하고 있는 물리적 요소들은 매우 복잡하여 얼굴 특징별 분류와 명명이 어렵기 때문에 본 연구에서는 얼굴의 감성모형을 활용하였다. 얼굴을 물리적 특징만으로 모형화 할 경우 다차원의 복잡한 공간으로 구성될 수밖에 없으나 감성공간으로 모형화하면 2차원의 공간에서 압축하여 설명이 가능한 장점을 가지기 때문이다. 연구의 범위를 한국의 여자 스타들의 얼굴을 중심으로 2006년 현재 매체 빈도수, 인기 검색 Site의 검색 순위, 신뢰성 있는 조사기관의 인기순위 등을 기준으로 하여 조사하였으며 연령은 20대에서 30대 초반으로 규정하였다. 또한 시간의 변화에 따른 아름다운 얼굴의 트렌드 관찰을 위해 2001년 박수진 등의 연예인 얼굴 DB의 스타얼굴과의 비교 관찰을 통하여 최근 5년간의 변화를 살필 수 있었다.

  • PDF