• 제목/요약/키워드: Face Video

검색결과 417건 처리시간 0.027초

응급구조학과 비대면 실습 강의에서 360° 가상현실 영상과 1인칭 시점 영상의 만족도, 흥미도, 경험인식 비교 (Comparison of satisfaction, interest, and experience awareness of 360° virtual reality video and first-person video in non-face-to-face practical lectures in medical emergency departments)

  • 이효주;신상열;정은경
    • 한국응급구조학회지
    • /
    • 제24권3호
    • /
    • pp.55-63
    • /
    • 2020
  • Purpose: This study aimed to establish effective training strategies and methods by comparing the effects of 360° virtual reality video and first-person video in non-face-to-face practical lectures. Methods: This crossover study, implemented May 18-31, 2020, included 27 participants. We compared 360° virtual reality video and first-person video. SPSS version 25.0 was used for statistical analysis. Results: The 360° virtual reality video had a higher score of experience recognition (p=.039), vividness (p=.045), presence (p=.000), fantasy factor (p=.000) than the first-person video, but no significant difference was indicated for satisfaction (p=.348) or interest (p=.441). Conclusion: 360° virtual reality video and first-person video can be used as training alternatives to achieve the standard educational objectives in non-face-to-face practical lectures.

A Comparative Study of Local Features in Face-based Video Retrieval

  • Zhou, Juan;Huang, Lan
    • Journal of Computing Science and Engineering
    • /
    • 제11권1호
    • /
    • pp.24-31
    • /
    • 2017
  • Face-based video retrieval has become an active and important branch of intelligent video analysis. Face profiling and matching is a fundamental step and is crucial to the effectiveness of video retrieval. Although many algorithms have been developed for processing static face images, their effectiveness in face-based video retrieval is still unknown, simply because videos have different resolutions, faces vary in scale, and different lighting conditions and angles are used. In this paper, we combined content-based and semantic-based image analysis techniques, and systematically evaluated four mainstream local features to represent face images in the video retrieval task: Harris operators, SIFT and SURF descriptors, and eigenfaces. Results of ten independent runs of 10-fold cross-validation on datasets consisting of TED (Technology Entertainment Design) talk videos showed the effectiveness of our approach, where the SIFT descriptors achieved an average F-score of 0.725 in video retrieval and thus were the most effective, while the SURF descriptors were computed in 0.3 seconds per image on average and were the most efficient in most cases.

비디오 얼굴 식별 성능개선을 위한 다중 심층합성곱신경망 결합 구조 개발 (Development of Combined Architecture of Multiple Deep Convolutional Neural Networks for Improving Video Face Identification)

  • 김경태;최재영
    • 한국멀티미디어학회논문지
    • /
    • 제22권6호
    • /
    • pp.655-664
    • /
    • 2019
  • In this paper, we propose a novel way of combining multiple deep convolutional neural network (DCNN) architectures which work well for accurate video face identification by adopting a serial combination of 3D and 2D DCNNs. The proposed method first divides an input video sequence (to be recognized) into a number of sub-video sequences. The resulting sub-video sequences are used as input to the 3D DCNN so as to obtain the class-confidence scores for a given input video sequence by considering both temporal and spatial face feature characteristics of input video sequence. The class-confidence scores obtained from corresponding sub-video sequences is combined by forming our proposed class-confidence matrix. The resulting class-confidence matrix is then used as an input for learning 2D DCNN learning which is serially linked to 3D DCNN. Finally, fine-tuned, serially combined DCNN framework is applied for recognizing the identity present in a given test video sequence. To verify the effectiveness of our proposed method, extensive and comparative experiments have been conducted to evaluate our method on COX face databases with their standard face identification protocols. Experimental results showed that our method can achieve better or comparable identification rate compared to other state-of-the-art video FR methods.

Automatic Video Management System Using Face Recognition and MPEG-7 Visual Descriptors

  • Lee, Jae-Ho
    • ETRI Journal
    • /
    • 제27권6호
    • /
    • pp.806-809
    • /
    • 2005
  • The main goal of this research is automatic video analysis using a face recognition technique. In this paper, an automatic video management system is introduced with a variety of functions enabled, such as index, edit, summarize, and retrieve multimedia data. The automatic management tool utilizes MPEG-7 visual descriptors to generate a video index for creating a summary. The resulting index generates a preview of a movie, and allows non-linear access with thumbnails. In addition, the index supports the searching of shots similar to a desired one within saved video sequences. Moreover, a face recognition technique is utilized to personalbased video summarization and indexing in stored video data.

  • PDF

비디오 영상 기반의 얼굴 검색 (Face Detection based on Video Sequence)

  • 안효창;이상범
    • 반도체디스플레이기술학회지
    • /
    • 제7권3호
    • /
    • pp.45-49
    • /
    • 2008
  • Face detection and tracking technology on video sequence has developed indebted to commercialization of teleconference, telecommunication, front stage of surveillance system using face recognition, and video-phone applications. Complex background, color distortion by luminance effect and condition of luminance has hindered face recognition system. In this paper, we have proceeded to research of face recognition on video sequence. We extracted facial area using luminance and chrominance component on $YC_bC_r$ color space. After extracting facial area, we have developed the face recognition system applied to our improved algorithm that combined PCA and LDA. Our proposed algorithm has shown 92% recognition rate which is more accurate performance than previous methods that are applied to PCA, or combined PCA and LDA.

  • PDF

동영상에서 실시간 얼굴검출에 관한 연구 (A Study on Real-time Face Detection in Video)

  • 김형균;배용근
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권2호
    • /
    • pp.47-53
    • /
    • 2010
  • 본 논문은 동영상에서 실시간 얼굴검출을 위하여 Residual Image 검출과 색상정보를 이용한 얼굴검출 기법을 제안하였다. 제안된 기법은 동영상에서 빠른 처리 속도와 높은 얼굴 검출율을 나타냈으며 기울어진 얼굴영상에 대한 보정작업을 통하여 검출 에러율을 줄였다. 실시간으로 전송된 동영상에서 검출의 대상이 되는 정지영상을 추출한다. 추출된 영상은 기울어진 얼굴검출을 위한 window회전 알고리즘을 사용하고 이렇게 보정된 영상은 얼굴 검출에 필요한 특징을 추출하기 위해 AdaBoost알고리즘을 사용하여 실시간으로 얼굴이 검출된 영상을 획득하게 된다.

IPA를 활용한 비대면 환경 화상강의 개선 방안 연구 (A study on the improvement of non-face-to-face environment video lectures using IPA)

  • 권영애;박혜진
    • 디지털산업정보학회논문지
    • /
    • 제17권3호
    • /
    • pp.121-132
    • /
    • 2021
  • The purpose of this study is to explore ways to improve the quality of real-time video lectures in a non-face-to-face environment using IPA (Importance-Performance Analysis). Recently, due to the impact of COVID-19 in universities, all remote classes are being implemented, so research is needed to raise learner awareness. Accordingly, factor analysis, mean analysis, correspondence analysis, and IPA analysis were performed based on the data of 632 students who responded from March 21 to June 30, 2021 for learners of K University in Chungbuk. First, overall satisfaction was low compared to importance, and the difference in system perception was the largest. Second, the difference in learner perception of real-time video lectures through the IPA matrix showed that the system error and screen cutoff were the largest. Third, the difficulty of lecture content, task and test feedback, etc. are classified. Accordingly, the satisfaction of real-time video lectures in non-face-to-face environments is low, suggesting that school-level support for quality improvement to improve learner satisfaction in non-face-to-face environments and the role of instructors are needed to improve learners' academic achievement.

방송 비디오 등장인물 자동 분석 시스템 (Automatic Cast-list Analysis System in Broadcasting Videos)

  • 김기남;김형준;김회율
    • 방송공학회논문지
    • /
    • 제9권2호
    • /
    • pp.164-173
    • /
    • 2004
  • 본 논문에서는 등장인물 검출 및 인식과 함께 등장인물의 출연 구간 분석이 가능한 시스템을 제안한다. 드라마, 스포츠와 같은 방송 비디오는 그 특성상 인물이 중심이 되며 각 시점에 등장하는 주요 인물은 방송용 비디오의 중요한 특징이 된다. 본 논문에서는 비디오에서 등장하는 주요 인물을 자동으로 분석하는 ACAV(Automatic Cast-list Analysis in Videos) 시스템을 제안한다. ACAV 시스템은 등장인물을 자동 검출하여 인물 DB에 등록하는 FAGIS(FAce reGIStration)와 생성된 인물 DB을 이용하여 등장인물을 분석하는 FACOG(FAce reCOGnition)로 구성된다. 기존의 상용화된 등장인물 분석 시스템인 FaceIt과의 성능 비교를 통해 ACAV의 성능을 검증하였다. 얼굴 검출 실험에서 ACAV의 얼굴 검출률은 84.3%로 FaceIt 보다 약 30% 높았고, 얼굴 인식 실험에서도 ACAV의 얼굴 인식률은 75.7%로 FaceIt 보다 27.5% 높은 성능을 보였다. ACAV 시스템은 방송 멀티미디어 공급자를 위한 대용량 비디오 관리 시스템으로 이용될 수 있으며 일반 사용자를 대상으로 한 PVR(Personal Video Recorder), 모바일 폰 등의 비디오 관리 시스템으로도 이용될 수 있다.

대학의 원격화상수업과 대면수업의 만족도 비교 연구 (A Comparative Study on the Class Satisfaction between Remote Video Class and Face-to-face Class)

  • 이한샘;서은희
    • 한국콘텐츠학회논문지
    • /
    • 제21권7호
    • /
    • pp.440-447
    • /
    • 2021
  • 본 연구의 목적은 코로나 19의 영향으로 국내 대학에서 시행된 비대면 강의의 효과성을 검증하는 데에 있다. 특히 비대면 수업의 여러 유형 중에서도 원격화상수업은 실시간 양방향 소통이 가능하기 때문에 기존의 대면 수업을 대체할 수 있는 수업 모델이다. 이에 본 연구는 대면 수업과 원격화상수업 등 수업운영 형태에 따른 학생들의 수업만족도를 분석하였다. 이를 위하여 수도권 소재 종합대학의 2019-2020년도에 운영된 총 8707개 강좌를 대상으로 수업유형 및 수업규모별 수업만족도의 차이를 비교하였다. 연구결과 원격화상수업의 만족도가 대면수업보다 유의하게 높은 것으로 밝혀졌다. 또한 원격화상수업과 대면이 병행된 수업이 단일형태의 수업보다 높은 만족도를 보였는데, 이는 각 수업형태가 가지는 한계점을 극복함으로써 학생들의 만족도를 높인 것으로 분석된다. 한편, 수업규모에 따른 수업만족도에서는 대면수업과 원격화상수업 모두 소규모 수업의 만족도가 중형 또는 대형 수업보다 높은 것으로 나타났다. 이는 원격화상수업이더라도 소규모 수업에서 높은 만족도를 보이고 있음을 보여준다. 본 연구 결과를 바탕으로 새로운 대학 수업의 패러다임을 확립해 나갈 필요성을 제안하였다.

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.