• 제목/요약/키워드: facial video

검색결과 127건 처리시간 0.023초

영상 콘텐츠의 신뢰도 평가를 위한 언어와 비언어 통합 감성 분석 시스템 (Integrated Verbal and Nonverbal Sentiment Analysis System for Evaluating Reliability of Video Contents)

  • 신희원;이소정;손규진;김혜린;김윤희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권4호
    • /
    • pp.153-160
    • /
    • 2021
  • IT 기술 발달에 따른 영상 콘텐츠 생산과 소비가 증가함에 따라 영상 콘텐츠를 통한 제품 리뷰 정보로 구매의사 결정이 빈번해졌다. 따라서, 리뷰 영상에 대한 신뢰성을 평가할 필요가 있다. 본 연구에서는 제품 리뷰 영상을 얼굴 표정 분석과 텍스트 마이닝을 통해 리뷰어의 표정과 음성을 분석하여 영상의 신뢰도를 분석한다. 영상 내 인물 표정의 감성 값을 추출하는 알고리즘을 활용하여 비언어 감성을 정량화하고, 유의미한 감정 변화 구간을 추출한다. 유의미한 감정 변화 구간의 리뷰어 음성을 텍스트화하여 표준어 및 비표준어 감성 사전 활용을 통해 긍정과 부정으로 리뷰에 대한 언어 감성 분석 후 수치화 한다. 비언어 감성 분석과 언어 감성 분석의 결과를 통합하여 일치 여부에 따라 신뢰도를 도출한다. 본 연구를 통해 영상 콘텐츠의 신뢰성 평가 방법을 제시한다.

얼굴 표정 인식을 위한 유전자 알고리즘 기반 심층학습 모델 최적화 (Optimization of Deep Learning Model Based on Genetic Algorithm for Facial Expression Recognition)

  • 박장식
    • 한국전자통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.85-92
    • /
    • 2020
  • 심층학습은 많은 양의 데이터셋을 학습에 활용하여 객체 분류, 검출, 분할 등의 영상 분석에 탁월한 성능을 나타내고 있다. 본 논문에서는 데이터셋의 종류가 다양한 얼굴 표정인식 데이터셋들을 활용하여 학습 데이터셋의 특성이 심층학습 성능에 영향을 줄 수 있음을 확인하고, 각 학습 데이터셋에 적합한 심층학습 모델의 구성 요소를 설정하는 방법을 제안한다. 제안하는 방법은 심층학습 모델의 성능에 영향을 주는 구성 요소인 활성함수, 그리고 최적화 알고리즘을 유전 알고리즘을 이용하여 선정한다. CK+, MMI, KDEF 데이터셋에 대해서 널리 활용되고 있는 심층학습 모델의 각 구성 요소별 다양한 알고리즘을 적용하여 성능을 비교 분석하고, 유전 알고리즘을 적용하여 최적의 구성 요소를 선정할 수 있음을 시뮬레이션을 통하여 확인한다.

2차원 얼굴외곽 정보의 VECTOR IMAGE 변환과 효과적인 영상복원에 관한 연구 (A Study Vector Image Transformation of Personal Feature And Image Interpolation)

  • 조남철
    • 한국정보컨버전스학회논문지
    • /
    • 제1권1호
    • /
    • pp.17-24
    • /
    • 2008
  • 영상 감시 카메라는 각종 범죄를 예방하고 범죄사건을 해결하는데 중요한 정보를 제공해 준다. 2차원 얼굴 영상을 확대 복원하기 위해서는 사용하는 보간법은 비트맵 이미지를 사용하기 때문에 높은 품질의 영상으로 복원하기에는 많은 문제점이 있다. 따라서 이러한 문제점을 보완하면서 좀 더 높은 품질의 영상을 복원하고자 벡터 이미지 방식을 도입하여 영상을 복원하고자 한다.

  • PDF

영상객체 spFACS ASM 알고리즘을 적용한 얼굴인식에 관한 연구 (ASM Algorithm Applid to Image Object spFACS Study on Face Recognition)

  • 최병관
    • 디지털산업정보학회논문지
    • /
    • 제12권4호
    • /
    • pp.1-12
    • /
    • 2016
  • Digital imaging technology has developed into a state-of-the-art IT convergence, composite industry beyond the limits of the multimedia industry, especially in the field of smart object recognition, face - Application developed various techniques have been actively studied in conjunction with the phone. Recently, face recognition technology through the object recognition technology and evolved into intelligent video detection recognition technology, image recognition technology object detection recognition process applies to skills through is applied to the IP camera, the image object recognition technology with face recognition and active research have. In this paper, we first propose the necessary technical elements of the human factor technology trends and look at the human object recognition based spFACS (Smile Progress Facial Action Coding System) for detecting smiles study plan of the image recognition technology recognizes objects. Study scheme 1). ASM algorithm. By suggesting ways to effectively evaluate psychological research skills through the image object 2). By applying the result via the face recognition object to the tooth area it is detected in accordance with the recognized facial expression recognition of a person demonstrated the effect of extracting the feature points.

Feature Based Techniques for a Driver's Distraction Detection using Supervised Learning Algorithms based on Fixed Monocular Video Camera

  • Ali, Syed Farooq;Hassan, Malik Tahir
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권8호
    • /
    • pp.3820-3841
    • /
    • 2018
  • Most of the accidents occur due to drowsiness while driving, avoiding road signs and due to driver's distraction. Driver's distraction depends on various factors which include talking with passengers while driving, mood disorder, nervousness, anger, over-excitement, anxiety, loud music, illness, fatigue and different driver's head rotations due to change in yaw, pitch and roll angle. The contribution of this paper is two-fold. Firstly, a data set is generated for conducting different experiments on driver's distraction. Secondly, novel approaches are presented that use features based on facial points; especially the features computed using motion vectors and interpolation to detect a special type of driver's distraction, i.e., driver's head rotation due to change in yaw angle. These facial points are detected by Active Shape Model (ASM) and Boosted Regression with Markov Networks (BoRMaN). Various types of classifiers are trained and tested on different frames to decide about a driver's distraction. These approaches are also scale invariant. The results show that the approach that uses the novel ideas of motion vectors and interpolation outperforms other approaches in detection of driver's head rotation. We are able to achieve a percentage accuracy of 98.45 using Neural Network.

Micro-Expression Recognition Base on Optical Flow Features and Improved MobileNetV2

  • Xu, Wei;Zheng, Hao;Yang, Zhongxue;Yang, Yingjie
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권6호
    • /
    • pp.1981-1995
    • /
    • 2021
  • When a person tries to conceal emotions, real emotions will manifest themselves in the form of micro-expressions. Research on facial micro-expression recognition is still extremely challenging in the field of pattern recognition. This is because it is difficult to implement the best feature extraction method to cope with micro-expressions with small changes and short duration. Most methods are based on hand-crafted features to extract subtle facial movements. In this study, we introduce a method that incorporates optical flow and deep learning. First, we take out the onset frame and the apex frame from each video sequence. Then, the motion features between these two frames are extracted using the optical flow method. Finally, the features are inputted into an improved MobileNetV2 model, where SVM is applied to classify expressions. In order to evaluate the effectiveness of the method, we conduct experiments on the public spontaneous micro-expression database CASME II. Under the condition of applying the leave-one-subject-out cross-validation method, the recognition accuracy rate reaches 53.01%, and the F-score reaches 0.5231. The results show that the proposed method can significantly improve the micro-expression recognition performance.

효과적인 AR 영상통화 구현 방법을 위한 가설 방안과 연구 (The Study and Hypothesis of Realize AR Video Calling Method)

  • 곽대위;정진헌
    • 디지털융복합연구
    • /
    • 제16권9호
    • /
    • pp.413-419
    • /
    • 2018
  • 스마트폰은 현대사회에서 꼭 필요한 통신수단이 되었고 이미 인류의 일상생활에 융합되었다. 만약에 미니 헤드 마운트 표시 장치(HMD)를 활용하여 증강현실 기술로 통신 중인 양쪽 상대방의 용모, 표정, 동작 등의 요소가 통화 환경에 들어오면 사용하는 사람에게 직관적이고 특별한 느낌을 준다. 그리고 이 방식으로 시각의 한계성을 넘어설 수 있으므로 미래 시각예술 영역의 크게 발전을 촉진할 수 있어서 이런 기술적인 문제에 관한 연구의 의미가 있다. 본 논문은 효과적인 AR 영상통화 구현 방법에 대한 현재 사용되는 기술 중 몇 가지를 융복합하여 실현 가능한 두 가지 가설방안을 세우고 분석과 비교하여 두 가지 가설방안의 문제점을 발견한다. 그리고 문제점에 대한 해결 가능한 디자인 방안을 꺼낸다. 또 사례연구의 방식으로 실제 사례를 제출하여 두 가지 가설 방안은 미래에 실현 가능하다는 결론을 검증한다. 이러한 기술들은 우리의 일상에 더욱 재미요소와 편리함을 제공할 것이라 예상된다. AR 영상통화를 순조롭게 구현하는 것은 예견할 수 있고 나중에 무한한 발전 가능성이 있다.

딥페이크 영상 학습을 위한 데이터셋 평가기준 개발 (Development of Dataset Evaluation Criteria for Learning Deepfake Video)

  • 김량형;김태구
    • 산업경영시스템학회지
    • /
    • 제44권4호
    • /
    • pp.193-207
    • /
    • 2021
  • As Deepfakes phenomenon is spreading worldwide mainly through videos in web platforms and it is urgent to address the issue on time. More recently, researchers have extensively discussed deepfake video datasets. However, it has been pointed out that the existing Deepfake datasets do not properly reflect the potential threat and realism due to various limitations. Although there is a need for research that establishes an agreed-upon concept for high-quality datasets or suggests evaluation criterion, there are still handful studies which examined it to-date. Therefore, this study focused on the development of the evaluation criterion for the Deepfake video dataset. In this study, the fitness of the Deepfake dataset was presented and evaluation criterions were derived through the review of previous studies. AHP structuralization and analysis were performed to advance the evaluation criterion. The results showed that Facial Expression, Validation, and Data Characteristics are important determinants of data quality. This is interpreted as a result that reflects the importance of minimizing defects and presenting results based on scientific methods when evaluating quality. This study has implications in that it suggests the fitness and evaluation criterion of the Deepfake dataset. Since the evaluation criterion presented in this study was derived based on the items considered in previous studies, it is thought that all evaluation criterions will be effective for quality improvement. It is also expected to be used as criteria for selecting an appropriate deefake dataset or as a reference for designing a Deepfake data benchmark. This study could not apply the presented evaluation criterion to existing Deepfake datasets. In future research, the proposed evaluation criterion will be applied to existing datasets to evaluate the strengths and weaknesses of each dataset, and to consider what implications there will be when used in Deepfake research.

색상 움직임을 이용한 얼굴 특징점 자동 추출 (Automatic Extraction of the Facial Feature Points Using Moving Color)

  • 김남호;김형곤;고성제
    • 전자공학회논문지S
    • /
    • 제35S권8호
    • /
    • pp.55-67
    • /
    • 1998
  • 본 논문에서는 컬러 비디오 시퀀스 상에서 눈과 입에 해당하는 얼굴 특징점을 고속으로 추출하는 방법을 제안한다. 자유로운 움직임을 갖는 얼굴 영역을 안정적으로 추출하기 위해 얼굴 색상 분포를 이용한 색상 변환 영상에 움직임 검출 기법을 적용하여 움직이는 살색 부분만을 효율적으로 검출하는 색상 움직임 개념을 사용하였다. 움직임 정보는 살색의 가능성 정도에 따라 가중치가 주어지며 화소 단위의 움직임 여부를 결정하는 문턱값도 살색의 가능성 정도에 따라 적응적으로 결정된다. 눈의 색상분포와 형태소 연산자를 사용한 움직임 살색 영역에서 눈 후보 영역을 추출하고 눈과 눈썹의 상호 위치 관계를 이용하여 눈의 영역을 최종 결정한다. 입의 영역은 눈의 위치를 기준으로 입 후보 영역을 정하고 색상 히스토그램을 이용하여 입의 영역을 검출한다. 찾아진 눈과 입의 영역에서 정확한 특징점의 위치를 구하기 위해 PCA (Principal Component Analysis)를 사용하였다. 실험 결과 복잡한 배경, 개인적인 편차, 얼굴의 방향과 크기 등에 영향을 받지 않고 고속으로 정확한 얼굴의 특징점을 추출할 수 있었다.

  • PDF

Fiberoptic bronchoscope and C-MAC video laryngoscope assisted nasal-oral tube exchange: two case reports

  • Ji, Sungmi;Song, Jaegyok;Kim, Seok Kon;Kim, Moon-Young;Kim, Sangyun
    • Journal of Dental Anesthesia and Pain Medicine
    • /
    • 제17권3호
    • /
    • pp.219-223
    • /
    • 2017
  • In cases of multiple facial trauma and other specific cases, the anesthesiologist may be asked to convert an oral endotracheal tube to a nasal endotracheal tube or vice versa. Conventionally, the patient is simply extubated and the endotracheal tube is re-inserted along either the oral or nasal route. However, the task of airway management can become difficult due to surgical trauma or worsening of the airway condition. Fiberoptic bronchoscopy was considered a novel method of airway conversion but this method is not useful when there are secretions and bleeding in the airway, or if the anesthesiologist is inexperienced in using this device. We report a successful airway conversion under the aid of both, a fiberoptic bronchoscope and a C-MAC video laryngoscope.