• 제목/요약/키워드: Facial Model

검색결과 529건 처리시간 0.024초

얼굴뼈 CT 계측 모형을 이용한 안와벽골절의 재건 (Orbital Wall Reconstruction by Copying a Template (defect model) from the Facial CT in Blow-out Fracture)

  • 김재근;유선혜;황건;황진희
    • 대한두개안면성형외과학회지
    • /
    • 제10권2호
    • /
    • pp.71-75
    • /
    • 2009
  • Purpose: Recently, orbital wall fracture is common injuries in the face. Facial CT is essential for the accurate diagnosis and appropriate treatment to reconstruct of the orbital wall. The objective of this study was to report the method for accurate measurement of area and shape of the bony defect in the blow-out fractures using facial CT in prior to surgery. Methods: The authors experienced 46 cases of orbital wall fractures and examined for diplopia, sensory disturbance in the area of distribution of the infraorbital nerve, and enophthalmos in the preoperation and followed 1 months after surgery, from August 2007 to May 2008. Bony defect was predicted by measuring continuous defect size from 3 mm interval facial CT. Copying from the defect model (template), we reconstructed orbital wall with resorbable sheet (Inion $CPS^{(R)}$ Inion Oy, Tampere, Finland). Results: One months after surgery using this method, 26 (100%) of the 26 patients improved in the diplopia and sensory disturbance in the area of distribution of the infraorbital nerve. Also 8 (72.7%) of the 11 patients had enophthalmos took favorable turn. Conclusion: This accurate and time-saving method is practicable for determining the location, shape and size of the bony defect. Using this method, we can reconstruct orbital wall fracture fastly and precisely.

구순구개열의 비구순변형에서 3차원 입체 laser 스캐너를 이용한 계측분석 프로그램의 개발 (Development of Computerized Anthropometric Analysis Model in Cleft Lip Nasal Deformity Using 3D Laser Scanned Facial Cast Model)

  • 김석화;박종림;김재찬;백승학;손우길
    • Archives of Plastic Surgery
    • /
    • 제35권3호
    • /
    • pp.303-308
    • /
    • 2008
  • Purpose: The purpose of this study is to develop three-dimensional computerized anthropometry(3DCA) and to compare its reliability and accuracy 3DCA with manual anthropometry(MA) for measurement of lips and nasal deformities in unilateral cleft lips and palate(UCLP) patients. Methods: Samples were consisted of six UCLP patients whose facial plaster models were available immediately before and 3 months after the cleft lip surgery. MA of the facial plaster models was carried out using an electronic caliper. In 3DCA, three-dimensional auto-measuring program was used to digitize landmarks and to measure three-dimensional virtual facial models (3DVFM), which was generated with a laser scanner and 3D virtual modeling program. Intraclass correlation coefficients(ICC) were calculated to evaluate reliability and reproducibility of the variables in both methods, and Wilcoxon's signed rank test was done to investigate the difference in values of the same variables of facial models of each patient between two methods. Results: All ICC values were higher than 0.8, so both methods could be considered reliable. Although most variables showed statistical differences between two methods(p<0.05), differences between mean values were very small and could be considered not significant in clinical situation. Conclusion: In clinical situation, 3DCA can be an objective, reliable and accurate tool for evaluation of lips and nasal deformities in the cleft patients.

쾌 및 각성 차원 기반 표정 합성 시스템의 성능 검증 및 인터페이스의 효율성 비교 (Performance tests for the expression synthesis system based on pleasure and arousal dimensions and efficiency comparisons for its interfaces)

  • 한재현;정찬섭
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.41-50
    • /
    • 2003
  • 내적상태 쾌 및 각성 차원에 근거한 표정 합성 시스템의 성능을 검증하고 이 시스템을 효과적으로 사용할 수 있는 인터페이스를 제안하였다. 우선 내적상태의 기저 구조에 대하여 차원모형을 가정한 것이 적절한가를 확인하고자 하였다. 이를 위해 평정자들로 하여금 차원 축 상의 17가지 표정들을 비교하도록 하였다. 참가자들의 비교 판단 결과로부터 시스템의 기본 가정에 대한 타당성이 확보되었다. 다음으로 시스템의 성능을 검증하기 위해 대표 표정 21가지를 선정하고 평정자들로 하여금 이들의 유사성을 판단하도록 하였다. 평균 유사성 평정값을 대상으로 다차원분석을 실시한 결과, 시스템의 성능이 신뢰로운 수준임을 확인하였다. 마지막으로 시스템 사용을 위한 최적의 조건을 찾기 위해 좌표평면 및 슬라이드바의 두 가지 방법으로 설계된 인터페이스들의 효율성을 비교하였다. 사용자들로 하여금 각각의 방식으로 25가지 특정 내적상태의 표정들을 직접 구현해보도록 하였다. 이들의 구현 결과들을 비교, 분석한 결과 내적상태 차원에 기반하여 표정을 합성하는 경우 좌표평면에서의 위치를 제시하는 입력 방법이 더 안정적인 것으로 확인되었다.

  • PDF

딥러닝 표정 인식을 활용한 실시간 온라인 강의 이해도 분석 (Analysis of Understanding Using Deep Learning Facial Expression Recognition for Real Time Online Lectures)

  • 이자연;정소현;신유원;이은혜;하유빈;최장환
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1464-1475
    • /
    • 2020
  • Due to the spread of COVID-19, the online lecture has become more prevalent. However, it was found that a lot of students and professors are experiencing lack of communication. This study is therefore designed to improve interactive communication between professors and students in real-time online lectures. To do so, we explore deep learning approaches for automatic recognition of students' facial expressions and classification of their understanding into 3 classes (Understand / Neutral / Not Understand). We use 'BlazeFace' model for face detection and 'ResNet-GRU' model for facial expression recognition (FER). We name this entire process 'Degree of Understanding (DoU)' algorithm. DoU algorithm can analyze a multitude of students collectively and present the result in visualized statistics. To our knowledge, this study has great significance in that this is the first study offers the statistics of understanding in lectures using FER. As a result, the algorithm achieved rapid speed of 0.098sec/frame with high accuracy of 94.3% in CPU environment, demonstrating the potential to be applied to real-time online lectures. DoU Algorithm can be extended to various fields where facial expressions play important roles in communications such as interactions with hearing impaired people.

MediaPipe Face Mesh를 이용한 얼굴 제스처 기반의 사용자 인터페이스의 성능 개선 (Performance Improvement of Facial Gesture-based User Interface Using MediaPipe Face Mesh)

  • 목진왕;곽노윤
    • 사물인터넷융복합논문지
    • /
    • 제9권6호
    • /
    • pp.125-134
    • /
    • 2023
  • 본 논문은 MediaPipe Face Mesh 모델을 이용해 일련의 프레임 시퀀스에서 얼굴 제스처를 인식해 해당 사용자 이벤트를 처리하는 얼굴 제스처 기반의 사용자 인터페이스 선행 연구의 성능 개선 방안을 제안함에 그 목적이 있다. 선행 연구는 MediaPipe Face Mesh 모델에서 선택한 7개의 랜드마크의 3차원 좌표들로부터 얼굴 제스처를 인식해 해당 사용자 이벤트를 발생시키고 이에 대응하는 명령을 수행하는 것이 특징이다. 제안된 방법은 그 과정에서 커서 위치들에 적응형 이동 평균 처리를 적용해 미세 떨림을 완화함으로써 커서 안정화를 도모하고, 양안 동시 개폐 시에 양안의 일시적 개폐 불일치를 차단해 그 성능을 개선하였다. 제안된 얼굴 제스처 인터페이스의 사용성 평가 결과, 얼굴 제스처의 평균 인식률이 선행 연구에서 95.8%였던 것에 비해 98.7%로 상향되는 것이 확인되었다.

LH-FAS v2: 머리 자세 추정 기반 경량 얼굴 위조 방지 기술 (LH-FAS v2: Head Pose Estimation-Based Lightweight Face Anti-Spoofing)

  • 허현범;양혜리;정성욱;이경재
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.309-316
    • /
    • 2024
  • 얼굴 인식 기술은 다양한 분야에서 활용되고 있지만, 이는 사진 스푸핑과 같은 위조 공격에 취약하다는 문제를 가지고 있다. 이를 극복하기 위한 여러 연구가 진행되고 있지만, 대부분은 멀티모달 카메라와 같은 특별한 장비를 장착하거나 고성능 환경에서 동작하는 것을 전제로 하고 있다. 본 연구는 얼굴 인식 위조 공격 문제를 해결하기 위해, 특별한 장비 없이 일반적인 웹캠에서 동작할 수 있는 LH-FAS v2를 제안한다. 제안된 방법에서는, 머리 자세 추정에는 FSA-Net을, 얼굴 식별에는 ArcFace를 활용하여 사진 스푸핑 여부를 판별한다. 실험을 위해, 사진 스푸핑 공격 비디오로 구성된 VD4PS 데이터셋을 제시하였으며, 이를 통해 LH-FAS v2의 균형 잡힌 정확도와 속도를 확인하였다. 본 방법은 향후 사진 스푸핑 방어에 효과적일 것으로 기대한다.

얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A Flexible Feature Matching for Automatic Facial Feature Points Detection)

  • 황선기;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권2호
    • /
    • pp.12-17
    • /
    • 2010
  • 본 논문에서는 자동적으로 얼굴 특징점을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며, 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였다. 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

  • PDF

얼굴과 얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A Flexible Feature Matching for Automatic face and Facial feature Points Detection)

  • 박호식;손형경;정연길;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 춘계종합학술대회
    • /
    • pp.608-612
    • /
    • 2002
  • 본 논문에서는 자동적으로 얼굴과 얼굴 특징점을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며, 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였다. 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

  • PDF

얼굴 색상과 에이다부스트를 이용한 효율적인 얼굴 검출 (Efficient Face Detection using Adaboost and Facial Color)

  • 채영남;정지년;양현승
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권7호
    • /
    • pp.548-559
    • /
    • 2009
  • Viola와 Jones가 제안한 에이다부스트 얼굴 검출기는 속도와 정확도면에서 매우 훌륭한 성능을 보이고 있는 얼굴 검출기이다. 하지만 에이다부스트 얼굴 검출기에도 여전히 오검출이 발생하며, 이를 줄이기 위해서는 더욱 많은 계산이 필요하다. 에이다부스트 얼굴 검출기는 흑백 영상만을 사용하므로, 색상정보를 사용하면 더 적은 연산으로 오검출율을 낮출 수 있다. 본 논문은 얼굴 색상 정보를 이용하여 대상 영상에서 부 윈도우를 효율적으로 검색하고, 에이다부스트 얼굴 검출기의 첫 단계에 계산속도가 매우 빠른 얼굴 색상을 이용한 얼굴/비얼굴 분류기를 채용하여 더 빠른 얼굴 검출 속도와 더 낮은 오검출율을 달성할 수 있는 단계별 얼굴 검출 모텔을 제안하였다. 얼굴색상 필터링을 위해 정의된 얼굴색상 소속함수를 이용하여 얼굴색상 필터 영상과 그 누적영상을 계산한다. 누적 영상에 의해 빠른 속도로 임의의 부 윈도우의 밀도를 계산할 수 있다. 제안된 검색 방법은 이 색상 밀도에 기반하여 얼굴일 가능성이 없는 부 윈도우들을 생략하게 된다. 그리고 부 윈도우의 밀도를 이용한 얼굴/비얼굴 분류기는 단계별 얼굴 검출기의 앞단에서 얼굴이 아닌 부 윈도우를 빠르게 거절한다. 제안된 얼굴 검출 모델은 적은 계산으로 오검출율을 낮출 수 있었으며, 실시간 얼굴 검출 속도를 비약적으로 향상시킬 수 있었다.