• Title/Summary/Keyword: 측면 얼굴

Search Result 126, Processing Time 0.022 seconds

Head Detection based on Foreground Pixel Histogram Analysis (전경픽셀 히스토그램 분석 기반의 머리영역 검출 기법)

  • Choi, Yoo-Joo;Son, Hyang-Kyoung;Park, Jung-Min;Moon, Nam-Mee
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.11
    • /
    • pp.179-186
    • /
    • 2009
  • In this paper, we propose a head detection method based on vertical and horizontal pixel histogram analysis in order to overcome drawbacks of the previous head detection approach using Haar-like feature-based face detection. In the proposed method, we create the vertical and horizontal foreground pixel histogram images from the background subtraction image, which represent the number of foreground pixels in the same vertical or horizontal position. Then we extract feature points of a head region by applying Harris corner detection method to the foreground pixel histogram images and by analyzing corner points. The proposal method shows robust head detection results even in the face image covering forelock by hairs or the back view image in which the previous approaches cannot detect the head regions.

Generation Method of Expression Space for Realtime Facial Expression Control of 3D Avatar (3차원 아바타의 실시간 얼굴표정제어를 위한 표정공간의 생성방법)

  • Kim Sung-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06a
    • /
    • pp.109-111
    • /
    • 2006
  • 본 논문은 애니메이터로 하여금 얼굴 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정을 실시간적으로 제어할 수 있도록 하기 위한 표정공간의 생성방법에 관하여 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징 점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 그러나 이 표정공간은 한 표정이 다른 표정까지 이동할 때 두 표정간의 직선경로를 통해 이동할 수 있는 그런 공간이 아니다. 본 기법에서는 한 표정에서 다른 표정까지 거쳐 갈 수 있는 경로를 캡쳐된 표정 데이터로부터 근사적으로 유추한다. 우선, 각 표정상태를 표현하는 거리행렬간의 거리가 일정 값 이하인 경우 두 표정을 인접해 있다고 간주한다. 임의의 두 표정 상태가 일련의 인접표정들의 집합으로 연결되어 있으면 두 표정간에 경로가 존재한다고 간주한다. 한 표정에서 다른 표정으로 변화할 때 두 표정간의 최단경로를 통해 이동한다고 가정한다. 두 표정간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 이용한다. 이 거리행렬의 집합인 표정공간은 다차원 공간이다. 3차원 아바타의 얼굴 표정 제어는 애니메이터들이 표정공간을 항해할 때 실시간적으로 수행된다. 이를 도와주기 위해 표정공간을 차원 스케일링 기법을 이용하여 2차원 공간으로 가시화하였고, 애니메이터들로 하여금 본 시스템을 사용하여 실시간 표정 제어를 수행하게 했는데, 본 논문은 그 결과를 평가한다.참여하는 빈들 간의 관계를 분석하여 워크플로우에 대한 성능 측정이 가능하도록 한다. 또한 제안된 메트릭을 통하여 EJB 어플리케이션의 성능 향상을 도모할 수 있도록 한다.로 표면 위로 자라났고, 부종은 창상 밑 조직까지 감소하였으며, 육아조직은 교원질 섬유로 대체되었다. 창상 유발 21일 후, 다른 창상에 비해, HG 처치창은 유의적으로 창상 표면이 거의 재생성 상피로 덮였으며, 육아조직은 창상 유발 14일 후와 비교해서 유의적으로 교원질 섬유로 대체되었다. 위의 모든 결과에서 보듯이, 개에서 전층피부 창상의 처치 시 HG의 사용은 HC와 생리 식염수에 비해 창상치유 복구기의 치유 속도를 촉진하는 것으로 사료된다.시범학교의 자녀를 들 부모들은 환경관련문제에 대한 의식 및 환경관련 제품에 대한 구매행동의 변화가 두드러지게 나타났다.EX>$d^{2+}$ + SA처리구는 두 화합물의 이중 효과에 의해 전반적인 생리 활성을 억제하여, 결국에는 식물의 고사를 유도하는 것으로 사료된다.목에 대한 보안'이 가장 중요한 것으로 나타났다. 본 연구에서는 솔루션 선정요인에 관한 중요도를 e-마켓플레이스의 유형과 산업 별로 평가해보았는데, 여기에서 밝혀진 중요도를 통해 e 마켓플레이스를 구축하고 자 하는 기업은 솔루션을 자체 개발하거나 구입할 때 올바른 의사결정을 할 수 있다. 그리고 솔루션을 제공하려는 기업측면에서는 e-마켓플레이스를 구축하고자 하는 기업에게 유형과 산업별로 적절한 솔루션을 제공할 수 있다.순환이 뇌대사 및 수술 후 신경학적 결과에 보다 유익한 효과를 제공해 줄 수 있음

  • PDF

Implicit Distinction of the Race Underlying the Perception of Faces by Event-Related fMRI (Event-related 기능적 MRI 영상을 통한 얼굴인식과정에서 수반되는 무의식적인 인종구별)

  • Kim Jeong-Seok;Kim Bum-Soo;Jeun Sin-Soo;Jung So-Lyung;Choe Bo-Young
    • Investigative Magnetic Resonance Imaging
    • /
    • v.9 no.1
    • /
    • pp.43-49
    • /
    • 2005
  • A few studies have shown that the function of fusiform face area is selectively involved in the perception of faces including a race difference. We investigated the neural substrates of the face-selective region called fusiform face area in the ventral occipital-temporal cortex and same-race memory superiority in the fusiform face area by the event-related fMRI. In our fMRI study, subjects (Oriental-Korean) performed the implicit distinction of the race while they consciously made familiar-judgments, regardless of whether they considered a face as Oriental-Korean or European-American. For race distinction as an implicit task, the fusiform face areas (FFA) and the right parahippocampal gyrus had a greater response to the presentation of Oriental-Korean faces than for the European-American faces, but in the conscious race distinction between Oriental-Korean and European-American faces, there was no significant difference observed in the FFA. These results suggest that different activation in the fusiform regions and right parahippocampal gyrus resulting from superiority of same-race memory could have implicitly taken place by the physiological processes of face recognition.

  • PDF

Comparative Analysis of Markerless Facial Recognition Technology for 3D Character's Facial Expression Animation -Focusing on the method of Faceware and Faceshift- (3D 캐릭터의 얼굴 표정 애니메이션 마커리스 표정 인식 기술 비교 분석 -페이스웨어와 페이스쉬프트 방식 중심으로-)

  • Kim, Hae-Yoon;Park, Dong-Joo;Lee, Tae-Gu
    • Cartoon and Animation Studies
    • /
    • s.37
    • /
    • pp.221-245
    • /
    • 2014
  • With the success of the world's first 3D computer animated film, "Toy Story" in 1995, industrial development of 3D computer animation gained considerable momentum. Consequently, various 3D animations for TV were produced; in addition, high quality 3D computer animation games became common. To save a large amount of 3D animation production time and cost, technological development has been conducted actively, in accordance with the expansion of industrial demand in this field. Further, compared with the traditional approach of producing animations through hand-drawings, the efficiency of producing 3D computer animations is infinitely greater. In this study, an experiment and a comparative analysis of markerless motion capture systems for facial expression animation has been conducted that aims to improve the efficiency of 3D computer animation production. Faceware system, which is a product of Image Metrics, provides sophisticated production tools despite the complexity of motion capture recognition and application process. Faceshift system, which is a product of same-named Faceshift, though relatively less sophisticated, provides applications for rapid real-time motion recognition. It is hoped that the results of the comparative analysis presented in this paper become baseline data for selecting the appropriate motion capture and key frame animation method for the most efficient production of facial expression animation in accordance with production time and cost, and the degree of sophistication and media in use, when creating animation.

Comparison of Commercial Multi-use Mask Patterns for Korean Adult Women

  • Cha, Su-Joung
    • Journal of the Korea Society of Computer and Information
    • /
    • v.27 no.10
    • /
    • pp.185-193
    • /
    • 2022
  • This study attempted to compare and analyze the commercially available multi-use patterns to develop mask patterns suitable for the face types of adult women. Through this, it was intended to provide necessary data to mask pattern development and products. As a results of comparing the dimensions and shapes of commercial multi-use mask patterns, there was a significant difference in dimensions even though it was a L-size mask manufactured for adults. As a result of the appearance evaluation of the virtual outfit, there were significant differences by design in the vertical of the center front line, the cover and space of the mask, the height of the nose, and the lower part of the mask. The side also showed significant differences in the covering of the side of the face, the space of the side, and the width and length of the string. As a result of the appearance evaluation, Mask 4 received the best evaluation. The shape of the mask pattern had a large dart in the lower part of the nose so that it can cover the three-dimensional shape of the face, but there was a difference in the degree and angle of the curve depending on the mask. Although the upper part of the mask, the lower part of the mask, and the cheek part are in close contact, the evaluation of the mask pattern, which has room in the nose and mouth, was high. It is thought that the mask pattern should be set according to the upper length, lower length, and nose height of the mask through analysis of the face shape and dimensions.

Artificial Intelligence Babysitter System Using Infant Condition Analysis (영유아 상태분석을 이용한 인공지능 베이비시터 시스템)

  • Kim, Yong-Min;Nam, Ji-Seong;Moon, Dae-Hee;Choi, Won-Tae;Kim, Woongsup
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.354-357
    • /
    • 2019
  • 최근 맞벌이 가정이 많아지면서 베이비 시터를 고용해 영아를 양육하는 경우가 많아지고 있는 추세이다. 본 논문에서는 영유아 상태분석에 따른 인공지능 베이비시터 시스템에 대하여 기술하였다. 보다 상세하게는 얼굴인식을 위한 Opencv 영상처리 기법, MS(azure)API 를 이용한 머신러닝 기반의 감정분석과 악취 센서(MQ-135 Sensor)를 이용하여 영유아의 상태를 파악한다. 파악한 영유아의 상태를 바탕으로 스스로 학습하여 요람을 제어하고 어플리케이션을 통해 원격제어를 할 수 있도록 제작한 스마트 베이비시터 시스템에 관한 것이다. 이에 따라 양육에 대한 부담감이 줄어들 것으로 기대하고 양육에 대한 부담감을 조금이나마 경감 시켜 주어 저출산과 양육 지출 비용 절약으로 사회적 측면, 경제적 측면 모두에 기여할 것을 기대한다.

바이오 정보를 이용한 U-Healthcare 인증방안 연구

  • Kim, Jason;Kim, Young-Jun
    • Review of KIISC
    • /
    • v.17 no.1
    • /
    • pp.57-62
    • /
    • 2007
  • 본 논문에서는 바이오인식 정보 기술(얼굴, 정맥, 지문, 홍채)을 이용하여 신뢰성 있는 Ubiquitous-Healthcare(U-HC) 서비스를 지원하는 사용자 인종 메커니즘과 암호화 기법을 제안한다. U-HC 서비스에 태동 및 특징, 국내외 산업현황, 기대효과 등을 통해 U-HC서비스의 필요성을 강조하고 있다. 하지만 지능화 및 고도화된 기술을 통하여 개인 정보를 악의적인 의도로 유출하여 개인에게 육체적 정신적 경제적 피해를 주고 있다. 바이오인식은 이러한 피해를 막고 보안 및 프라이버시 측면의 취약점 및 공격들을 분석하여 효율적으로 방어함으로서 개인의 의료정보 및 바이오 정보를 보호하기 위한 대응책인 새로운 사용자 인증과 암호화 기법이다. 사용자 인증 기법은 다수의 바이오 정보들을 인증 시에 무작위로 선택하여 2개 이상 입력하는 방안이며 암호화 기법은 사용자 스토리(Story)식 암호화(Encryption) 기법을 제안한다. 이러한 방법론을 통하여 효율적이며 신뢰 성 있는 U-HC 서비스를 보장하고자 한다.

Development of 3D based online education system (3D기반 온라인 화상 교육 시스템 개발)

  • Kim, Jong-Oh;Park, Chan;Jeong, Ji-Seong;Kim, Do-Hyeong;Kwon, Sun-Ock;Ju, Seong-Yeon;Park, Jin-a;Kwon, Sin-Ae;Yoo, Kwan-Hee
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2012.05a
    • /
    • pp.189-190
    • /
    • 2012
  • 최근 초고속 인터넷망의 발전으로 실시간으로 화상 교육 시스템 구축이 가능하게 되었다. 그러나 기존의 화상교육 시스템은 단순히 사용자의 얼굴과 음성만을 전달하기 때문에 교육적인 측면에서 실감나는 교육 시스템으로는 볼 수 없다. 본 연구에서는 웹캠으로 촬영된 영상을 3D 가상공간에 적용시켜 사용자가 교육 현장에서 교육활동이 이루어지는 것과 같은 실감나는 교육 서비스를 제공할 뿐만 아니라 교육에 필요한 문서, 음성, 자료 공유를 실시간으로 할 수 있는 시스템을 개발하였다.

  • PDF

A Study on the Correlationship Analysis Between Big 5 Model Types and Face Feature for Interview System Application - Focusing on Men in the 20's (면접 시스템 적용을 위한 5대 성격 유형과 얼굴 특징간의 상관관계 분석 연구 : 20대 남성을 대상으로)

  • Kim, Bong-Hyun;Cho, Dong-Uk
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.36 no.2B
    • /
    • pp.168-175
    • /
    • 2011
  • In modem society, human relationships has been received much attention as important element to judge the success as well as the social life of the individual. To respond to these changing times has been used various ways to maintain an appropriate relationship that each other's character can be predicted. In this paper, we should be carried out a study on correlation analysis and features of five-character types to extract shape of philtrum, mouth, ears in facial image of Men in the 20's for Interview system application. From this, we extracted to area of philtrum, mouth, ears by Visual C++ to face and side image. Then we performed analysis, comparison a group of S-character types to find a result according to philtrum rate, mouth size, shape of ears. As a result, we drew a significance through morphological results by philtrum rate, mouth size, shape of ears as five-character types.

Method for Classification of Age and Gender Using Gait Recognition (걸음걸이 인식을 통한 연령 및 성별 분류 방법)

  • Yoo, Hyun Woo;Kwon, Ki Youn
    • Transactions of the Korean Society of Mechanical Engineers A
    • /
    • v.41 no.11
    • /
    • pp.1035-1045
    • /
    • 2017
  • Classification of age and gender has been carried out through different approaches such as facial-based and audio-based classifications. One of the limitations of facial-based methods is the reduced recognition rate over large distances, while another is the prerequisite of the faces to be located in front of the camera. Similarly, in audio-based methods, the recognition rate is reduced in a noisy environment. In contrast, gait-based methods are only required that a target person is in the camera. In previous works, the view point of a camera is only available as a side view and gait data sets consist of a standard gait, which is different from an ordinary gait in a real environment. We propose a feature extraction method using skeleton models from an RGB-D sensor by considering characteristics of age and gender using ordinary gait. Experimental results show that the proposed method could efficiently classify age and gender within a target group of individuals in real-life environments.