• 제목/요약/키워드: 표정 변화

검색결과 251건 처리시간 0.022초

3D모델링에서 살펴본 눈 주변의 표정에 대한 연구 (Study of facial movement around eyes in 3D modeling)

  • 문희정
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.597-600
    • /
    • 2003
  • 이 연구에서는, 움직임이 커서 확실하게 움직임의 변화를 확인할 수 있는 입 주변의 움직임보다 움직임이 세밀하고 다양해 표현하기가 까다로울 수 있는 눈 주변의 움직임에 있어서 눈 주변의 세밀한 움직임의 근육을 잡는 것과 움직임의 기준정, 또 타겟들의 적절한 조합이 중요한 요소가 된다고 보고 절기에 근거를 두어 블렌드쉐이프를 적용하여 표정 타겟을 만들어 눈 주변의 표정에 대한 연구를 하여 3D얼굴 애니메이션에 적용시키는 방법으로 페이셜 애니메이션 중에서도 눈 주변의 움직임을 중심으로 제안한다.

  • PDF

카데바 자료를 이용한 얼굴근육의 해부학적 기능 학습을 위한 삼차원 교육 콘텐츠 제작과 관련된 융합 연구 (Convergence Study on the Three-dimensional Educational Model of the Functional Anatomy of Facial Muscles Based on Cadaveric Data)

  • 이재기
    • 한국융합학회논문지
    • /
    • 제12권9호
    • /
    • pp.57-63
    • /
    • 2021
  • 이 연구는 한국인 성인 시신의 얼굴근육을 해부하고 삼차원 스캔하여, 사실적인 얼굴근육의 형태를 삼차원 오브젝트를 만들고, 이를 통해 표정을 재현하여 카데바 얼굴근육의 복합적인 움직임을 삼차원적으로 관찰 가능한 교육 자료를 제작하는데 목적이 있다. 카데바 해부 사진 자료를 이용하여, 얼굴근육에 대해 삼차원 모델링 하였고, 네 가지 표정(슬픔, 미소, 놀람, 분노)에 따라 얼굴근육이 변화하는 삼차원 영상을 제작하였다. 이를 통해, 삼차원으로 구현한 카데바 얼굴근육의 복합적인 작용과 다양한 표정 변화를 확인할 수 있었다. 이 연구결과는 얼굴근육의 개별적인 기능에 대한 정량적인 자료를 확인할 수는 없지만, 사실적이고 입체적인 카데바의 얼굴근육 형태를 관찰할 수 있고, 복합적인 얼굴근육의 작용으로 인한 표정 변화를 확인할 수 있다. 이러한 자료는 얼굴근육의 해부학적 교육 자료로 활용할 수 있을 것으로 기대한다.

비선형방정식을 이용한 이방성판의 음향방출 위치표정 (AE Source Location in Anisotropic Plates by Using Nonlinear Analysis)

  • 이경주;권오양
    • 비파괴검사학회지
    • /
    • 제21권3호
    • /
    • pp.281-287
    • /
    • 2001
  • 2차원 음향방출 위치표정에서 전통적인 방법으로 문턱 전압값을 설정하여 도달시간차를 측정함으로써 2개의 쌍곡선을 형성하는 데는 해당 구조물에서 직접 측정한 속도를 이용하게 된다. 복합재료 적층판과 같은 이방성 재료에서는 섬유의 배열방향에 따라 탄성계수가 변하므로 속도가 섬유의 방향성에 의존하게 된다. 따라서 임의의 위치에서 발생한 탄성파의 도달시간차 측정에 의한 위치표정의 오차가 커지며, 위치표정의 과정이 복잡해지는 것을 피할 수 없다. 본 연구에서는 전통적인 음향방출 위치표정에서 쌍곡선의 2중 교점의 오차를 정정하기 위해 사용되어야 하는 제 4의 센서를 사용하지만 속도변화에 기인하는 위치표정의 오차를 줄일 수 있는 방법으로 수치해석에 의해 비선형방정식을 풀어내는 위치표정 알고리즘을 제안하였다. 또한 제안된 방법이 전통적인 방법에 비해 이방성 판에서의 2차원 위치 표정을 보다 간단하게 수행하고, 정확도를 향상할 수 있는 방법임을 실험적으로 입증하였다.

  • PDF

컴패니언 로봇의 멀티 모달 대화 인터랙션에서의 감정 표현 디자인 연구 (Design of the emotion expression in multimodal conversation interaction of companion robot)

  • 이슬비;유승헌
    • 디자인융복합연구
    • /
    • 제16권6호
    • /
    • pp.137-152
    • /
    • 2017
  • 본 연구는 실버세대를 위한 컴패니언 로봇의 인터랙션 경험 디자인을 위해 사용자 태스크- 로봇 기능 적합도 매핑에 기반한 로봇 유형 분석과 멀티모달 대화 인터랙션에서의 로봇 감정표현 연구를 수행하였다. 노인의 니즈 분석을 위해 노인과 자원 봉사자를 대상으로 FGI, 에스노그래피를 진행하였으며 로봇 지원 기능과 엑추에이터 매칭을 통해 로봇 기능 조합 유형에 대한 분석을 하였다. 도출된 4가지 유형의 로봇 중 표정 기반 대화형 로봇 유형으로 프로토타이핑을 하였으며 에크만의 얼굴 움직임 부호화 시스템(Facial Action Coding System: FACS)을 기반으로 6가지 기본 감정에 대한 표정을 시각화하였다. 사용자 실험에서는 로봇이 전달하는 정보의 정서코드에 맞게 로봇의 표정이 변화할 때와 로봇이 인터랙션 사이클을 자발적으로 시작할 때 사용자의 인지와 정서에 미치는 영향을 이야기 회상 검사(Story Recall Test: STR)와 표정 감정 분석 소프트웨어 Emotion API로 검증하였다. 실험 결과, 정보의 정서코드에 맞는 로봇의 표정 변화 그룹이 회상 검사에서 상대적으로 높은 기억 회상률을 보였다. 한편 피험자의 표정 분석에서는 로봇의 감정 표현과 자발적인 인터랙션 시작이 피험자들에게 정서적으로 긍정적 영향을 주고 선호되는 것을 확인하였다.

동적 감성 공간에 기반한 감성 표현 시스템 (Emotional Expression System Based on Dynamic Emotion Space)

  • 변광섭;박창현;심귀보;정인철;함호상
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 추계학술대회 학술발표 논문집 제14권 제2호
    • /
    • pp.130-133
    • /
    • 2004
  • 인간의 감정을 정의하거나 분류하는 것은 매우 어려운 일이다. 이러한 애매모호한 인간의 감정은 어느 한 감정만 나타나는 것이 아니고 다양한 감정의 복합으로, 눈에 띄는 강정이 드러나는 것이다. 인간의 애매모호한 감정 상태와 유사한 감성을 표현하는 알고리즘으로 dynamic emotion Space를 이용한 감성 표현 알고리즘을 제안한다. 기존의 감성 표현 아바타들이 키리 설정된 몇개의 감정만을 데이터 베이스에서 불러와 표현하는 반면에, 본 논문에서 제안하는 감성 표현 시스템은 동적으로 변화하는 감성 공간을 이용하여 감성을 표현함으로써 무수히 다양한 표정을 표현할 수 있다. 실제로 인간의 복합적이고 다양한 표정을 표현할 수 있는지를 알아보기 위해 실제 구현 및 실험을 수행하고, dynamic emotion space를 이용한 감성 표현 시스템의 성능을 입증한다.

  • PDF

텍스처 기반의 눈 검출 기법 (Eye Detection Based on Texture Information)

  • 박찬우;박현;문영식
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 춘계학술발표대회
    • /
    • pp.315-318
    • /
    • 2007
  • 자동 얼굴 인식, 표정 인식과 같은 얼굴 영상과 관련된 다양한 연구 분야는 일반적으로 입력 얼굴 영상에 대한 정규화가 필요하다. 사람의 얼굴은 표정, 조명 등에 따라 다양한 형태변화가 있어 입력 영상 마다 정확한 대표 특징 점을 찾는 것은 어려운 문제이다. 특히 감고 있는 눈이나 작은 눈 등은 검출하기 어렵기 때문에 얼굴 관련 연구에서 성능을 저하시키는 주요한 원인이 되고 있다. 이에 다양한 변화에 강건한 눈 검출을 위하여 본 논문에서는 눈의 텍스처 정보를 이용한 눈 검출 방법을 제안한다. 얼굴 영역에서 눈의 텍스처가 갖는 특성을 정의하고 두 가지 형태의 Eye 필터를 정의하였다. 제안된 방법은 Adaboost 기반의 얼굴 영역 검출 단계, 조명 정규화 단계, Eye 필터를 이용한 눈 후보 영역 검출 단계, 눈 위치 점 검출 단계 등 총 4단계로 구성된다. 실험 결과들은 제안된 방법이 얼굴의 자세, 표정, 조명 상태 등에 강건한 검출 결과를 보여주며 감은 눈 영상에서도 강건한 결과를 보여준다.

저가형 드론의 외부표정요소에 따른 위치결정 정확도 분석 (Positional Accuracy Analysis According to the Exterior Orientation Parameters of a Low-Cost Drone)

  • 김두표;이재원
    • 대한토목학회논문집
    • /
    • 제42권2호
    • /
    • pp.291-298
    • /
    • 2022
  • 최근 개발되는 드론은 저가이면서 운용의 편의성 또한 높아 드론을 이용한 공간정보 제작 및 활용이 나날이 증대되고 있다. 그러나, 대부분 저가형의 드론은 저정밀도 GNSS (Global Navigation Satellite System), IMU (Inertial Measurement Unit)를 탑재하여 영상을 취득하기 때문에 영상이 초기에 가지고 있는 위치정보 및 회전각 요소의 정확도가 낮다. 또한, 기체가 작고 가벼워 바람의 영향을 많이 받기 때문에 일정한 중복도를 유지하기에 어려움이 있으며 이러한 문제가 위치결정 정확도에 영향을 미친다. 이에 본 연구에서는 외부표정요소 변화에 따른 위치 정확도 변화를 분석하기 위하여 서로 다른 시기에 촬영한 영상을 Pix4D Mapper로 영상처리하고 성과물의 정확도를 분석하였다. 외부표정요소에 따른 정확도 변화를 세밀하게 분석하기 위하여 1차 처리 결과의 외부표정요소를 2차 처리 시 메타데이터로 활용하였다. 이후 외부표정요소를 스트립별로 나누어 변화량을 분석하였다. 분석 결과 회전각 요소 중 Omega, Phi값의 변화는 표고위치 정확도, Kappa값은 평면위치 정확도의 저하에 더욱 관련되어 있음을 입증하였다.

워핑 기반의 감정 적응형 실시간 캐릭터 표정변환 기법 (Warp-based Emotion-adaptive Real-Time Transforming Technique of Character's Facial Expression)

  • 배동희;김진모;윤도경;조형제
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(A)
    • /
    • pp.434-437
    • /
    • 2011
  • 최근 단일 프로세서의 성능 개선이 한계에 이르고, 이에 따라 데이터 병렬 처리를 통한 시스템 성능 개선에 관한 연구가 활발히 진행되고 있다. 또한 이러한 변화로 인해 영상처리 분야에서도 대규모 연산의 병렬 컴퓨팅 수행에 관한 연구가 꾸준히 진행되고 있으며 하드웨어 또한 발전하여 실시간 시스템에 영상처리 분야가 많이 활용되고 있다. 본 논문에서는 캐릭터의 감정 상태에 따른 표정을 영상처리 분야에서 많이 사용되고 있는 이미지 워핑 기법을 적용하여 변화시킨다. 인간이 표현할 수 있는 기본적인 감정에 따른 표정을 데이터베이스로 정리하여 캐릭터에게 임의의 감정값이 주어지면 그에 맞는 표정을 데이터베이스에서 선택하여 사용자가 설정한 프레임만큼 워핑을 수행한다. 하지만 매 프레임에 대해 정해져 있는 제어선에 따라 움직이는 픽셀들의 워핑 연산은 그 계산량이 너무 많아 실시간으로 처리하기에 여러 가지 제약이 뒤따른다. 따라서 이를 실시간으로 처리하기 위해 NVIDIA의 CUDA를 활용한 데이터 병렬처리를 수행하여 실시간 처리가 가능하게 하는 방법을 제안하고, 실험을 통해 그 유용성을 제시한다.

병렬 다중 홉 필드 네트워크 구성으로 인한 2-차원적 얼굴인식 기법에 대한 새로운 제안 (Redundant Parallel Hopfield Network Configurations: A New Approach to the Two-Dimensional Face Recognitions)

  • 김영택
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권2호
    • /
    • pp.63-68
    • /
    • 2018
  • 얼굴인식 분야의 관심은 다양한 신흥분야의 응용에 의해 증강되고 있다. 2-차원적인 인식 알고리즘의 필요성이 어떤 변화무쌍한 환경들, 예를 들어서, 얼굴의 방향이나 조명도, 안경의 유무, 혹은 웃음과 울음 같은 다양한 표정변화의 처리에 적합할 수 있게 고찰 되어 지고 있다. 형상 기억이나 일반화 과정, 유사성 인식, 오류수정 등에 장점을 가지고 있는 홉 필드 네트워크의 기능을 바탕으로 하여 본 연구에서는 새로운 방법의 병렬적인 다중 홉 필드 네트워크를 구성하여 변화에 강한 얼굴표정 인식의 실험을 2-차원 알고리즘으로 실시하였고 결과가 실제적인 얼굴 형상 환경 변화에서 강한 적응성을 가지고 있음을 확인하였다.

게임 사용자 얼굴표정 인식을 위한 얼굴인식 기법 분석 (An Analysis of Face Recognition Methods for Recognition of Game Player's Facial Expression)

  • 유채곤
    • 한국게임학회 논문지
    • /
    • 제3권2호
    • /
    • pp.19-23
    • /
    • 2003
  • 컴퓨터 기술의 발전에 따라서 게임분야 역시 다양한 첨단 기술이 적용되고 있다. 예를 들면 강력한 3D가속 기능을 가진 비디오카드, 5.1 채널 사운드, 포스피드백 지원 입력 장치, 운전대, 적외선 센서, 음성 감지기 등이 게임의 입출력 인터페이스로서 이용되고 있다. 전형적인 방법 이외에도 광학방식이나 휴대용 게임기에 대한 플레이 방식에 대한 연구도 활발하다. 최근에는 비디오 게임기에도 사람의 동작을 인식하여 게임의 입력으로 받아들이는 기술이 상용화되기도 하였다. 본 논문에서는 이런 발전 방향을 고려하여 차세대 게임 인터페이스의 방식으로서 사용될 수 있는 사람의 표정 인식을 통한 인터페이스 구현을 위한 접근 방법들에 대하여 고찰을 하고자 한다. 사람의 표정을 입력으로 사용하는 게임은 심리적인 변화를 게임에 적용시킬 수 있으며, 유아나 장애자들이 게임을 플레이하기 위한 수단으로도 유용하게 사용될 수 있다. 영상을 통한 자동 얼굴 인식 및 분석 기술은 다양한 응용분야에 적용될 수 있는 관계로 많은 연구가 진행되어 왔다. 얼굴 인식은 동영상이나 정지영상과 같은 영상의 형태, 해상도, 조명의 정도 등에 따른 요소에 의하여 인식률이나 인식의 목적이 달라진다. 게임플레이어의 표정인식을 위해서는 얼굴의 정확한 인식 방법을 필요로 하며, 이를 위한 비교적 최근의 연구 동향을 살펴보고자 한다.

  • PDF