• 제목/요약/키워드: 표정 요소

검색결과 266건 처리시간 0.025초

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

얼굴 표정 표현을 위한 얼굴 특징점 추출 (Facial Characteristic Point Extraction for Representation of Facial Expression)

  • 오정수;김진태
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.117-122
    • /
    • 2005
  • 본 논문은 얼굴 특징점 추출을 위한 알고리즘을 제안한다. 얼굴 특징점은 얼굴 애니메이션과 아바타 모방을 위한 표정 표현이나, 얼굴 표정 인식 등에서 중요한 자료이다. 얼굴 특징점 추출을 위한 기존 방법은 고가의 모션 캡쳐 장비나 표식을 사용하는 것으로 대상 인물에게 심리적 부담감이나 부자연스러움을 준다. 이에 반해 제안된 알고리즘은 카메라로 취득된 영상에서 영상 처리만으로 얼굴 특징점을 추출함으로써 기존 방법의 문제점을 해결한다. 또한 효율적인 특징점 추출을 위해 특징점 추출의 근원이 되는 기존 얼굴 구성요소 검출 알고리즘의 문제점을 분석하고 개선한다.

줌렌즈 디지털 카메라의 내부표정요소 변화 (The Change of Interior Orientation Parameters in Zoom Lens Digital Cameras)

  • 김기홍;정수;김백석
    • 한국측량학회지
    • /
    • 제28권1호
    • /
    • pp.93-98
    • /
    • 2010
  • 최근 건설을 비롯한 다양한 분야에서 수치사진측량이 활발히 이용되고 있는 가운데 각종 산업분야에도 폭넓게 이용되고 있다. 디지털 카메라를 수치사진측량에 적용하기 위해서는 카메라의 정확한 초점거리, 렌즈왜곡계수, 주점의 위치를 구하는 내부표정 과정이 필수적이다. 따라서 본 연구에서는 내부표정시 구해지는 내부표정요소 값의 안정성을 평가하기 위하여 일정 시간간격과 춤을 사용하여 동일한 내부표정 과정을 수행하였으며, 줌의 배율에 따른 방사왜곡계수와 렌즈주점의 변화 양상을 분석하였다. 방사왜곡 계수 $k_1,k_2$의 경우 모두 줌의 배율이 커짐에 따라 0에 수렴하는 변화를 확인할 수 있었으며 렌즈주정의 위치변화량은 줌의 배율이 커질수록 일정한 상관관계를 보이며 주점 이동량 $x_p$, $y_p$의 변동폭이 커짐을 확인 할수 있었다.

모델기반 특징추출을 이용한 지역변화 특성에 따른 개체기반 표정인식 (Facial Expression Recognition with Instance-based Learning Based on Regional-Variation Characteristics Using Models-based Feature Extraction)

  • 박미애;고재필
    • 한국멀티미디어학회논문지
    • /
    • 제9권11호
    • /
    • pp.1465-1473
    • /
    • 2006
  • 본 논문에서는 Active Shape Models(ASM)과 상태기반 모델을 사용하여 동영상으로부터 얼굴 표정을 인식하는 방법을 제시한다. ASM을 이용하여 하나의 입력 영상에 대한 얼굴요소특징점들을 정합하고, 그 과정에서 생성되는 모양변수벡터를 추출한다. 동영상에 대해 추출되는 모양변수벡터 집합을 세 가지 상태 중 한 가지를 가지는 상태벡터로 변환하고 분류기를 통해 얼굴의 표정을 인식한다. 분류단계에서는 표정별 표정변화에 따른 변화영역의 차이를 고려한 새로운 유사도 측정치를 제안한다. 공개데이터베이스 KCFD에 대한 실험에서는 제안한 측정치와 기존의 이친 측정치를 사용한 k-NN의 인식률이 k가 1일 때 각각 89.1% 및 86.2%을 보임으로써, 제안한 측정치가 기존의 이진 측정치보다 더 높은 인식률을 나타내는 것을 보인다.

  • PDF

스마트폰 영상정보를 활용한 쿼터니언 기반 후방교회법과 PnP 알고리즘의 외부표정요소 비교 분석 (Comparative Analysis of Exterior Orientation Parameters of Smartphone Images Using Quaternion-Based SPR and PnP Algorithms)

  • 김남훈;이지상;배준수;손홍규
    • 한국측량학회지
    • /
    • 제37권6호
    • /
    • pp.465-472
    • /
    • 2019
  • 사진 촬영 당시의 외부표정요소 추정 방법에는 공선조건식 기반 후방교회법이 널리 사용되지만 초기값을 필요로 하고, 그 값에 민감하다는 단점이 있다. 본 연구에서는 초기값을 필요로 하지 않는 외부표정요소 알고리즘인 쿼터니언 기반 공간후방교회법과 PnP (Perspective-n-Point algorithm)을 소개하고 그 결과를 비교하였다. 두 결과를 비교하기 위하여 일반 스마트폰으로 취득한 영상을 사용하였고, 지상기준점 취득은 본 연구진이 보유하고 있는 하이브리드 MMS (Mobile Mapping System) 점군 자료를 이용하였다. 그 결과, 공선조건식 기반 SPR (Single Photo Resection)을 참값으로 할 때, 쿼터니언 기반 SPR이 PnP 알고리즘에 비해 자세각 추정 정확도가 높았다. 카메라 위치추정의 경우에는 두 알고리즘 모두 지상기준점과 비교했을 때 0.8m 내의 정확도를 보임을 확인하였다.

외부표정요소 직접결정에 의한 수치정사영상 생성 (Generation of Digital Orthoimage using Direct Georeferencing)

  • 송연경
    • Spatial Information Research
    • /
    • 제13권1호
    • /
    • pp.55-63
    • /
    • 2005
  • 최근에는 항측기에 GPS/INS 장비를 탑재하여 사진의 촬영과 동시에 외부표정요소를 직접 결정할 수 있는 Direct Georeferencing기술의 개발로 인하여 지상기준점을 최소로 측량하거나 생략이 가능하게 되었다. Direct Georeferencing 기법을 이용하게 되면 외부표정요소를 구하기 위한 전처리 과정을 생략할 수 있다. 따라서 지상기준점을 이용한 사진기준점측량(AT)을 수행하지 않더라도 수치표고모델만 미리 확보되어 있으면 촬영과 동시에 수치정사사진을 생성할 수 있다. 본 연구에서는 촬영과 동시에 GPS/INS에 의해 획득한 외부표정요소와 항공사진을 이용하여 영상매칭에 의하여 수치표고모델(DEM)을 자동 생성하고, 이 결과를 바탕으로 정사사진을 제작하였다. 실제 도화데이터와 Direct Georeferencing 정사영상과의 오차를 평가한 결과, 표준편차가 X는 약 62cm, Y는 약 76cm 정도가 발생하였다. 이 결과는 축적 1:5,000 수치지도의 정확도 요구를 충분히 만족시킬 수 있는 양호한 결과임을 알 수 있다. Direct Georeferencing에 의한 정사영상의 제작방법은 큰 크기의 과대오차가 발생하는 부분을 수작업 또는 반자동으로 해결할 수 있으면 효율적으로 수치지도를 수정/갱신 할 수 있을 것으로 판단된다.

  • PDF

단사진의 외부표정요소 결정을 위한 후방교회법 알고리즘의 비교 (Comparisons of Single Photo Resection Algorithms for the Determination of Exterior Orientation Parameters)

  • 김의명;서홍덕
    • 한국측량학회지
    • /
    • 제38권4호
    • /
    • pp.305-315
    • /
    • 2020
  • 본 연구는 사진측량, 컴퓨터 비전, 로보틱스 등의 분야에서 사용되는 외부표정요소를 결정하는 단사진의 후방교회법의 알고리즘을 비교하는 것이 목적이다. 이를 위해 항공사진 및 근거리 사진측량에서 사용되고 있는 카메라를 기준으로 지형을 시뮬레이션하여 실험 데이터를 생성하여 알고리즘을 비교하였다. 거의 수직으로 촬영되는 항공사진측량용 카메라에 대한 실험을 통해서 3개의 지상기준점으로도 외부표정요소를 결정할 수 있었으나 프로쿠르스테스 알고리즘은 지상기준점 배치에 민감하였다. 카메라의 자세각이 크게 변하는 근거리 사진측량용 카메라를 대상으로한 실험에서도 프로쿠르스테스 알고리즘의 지상기준점 배치에 민감하였으며 모든 알고리즘이 적어도 6개의 지상기준점이 필요하였다. 두 종류의 카메라를 대상으로 한 실험을 통해서 코사인법칙 기반의 후방교회법은 반복회수가 짧고 명시적인 초기값이 필요하지 않기 때문에 전통적인 사진측량 알고리즘과 유사한 성능을 나타내는 것을 알 수 있었다.

방향코사인을 이용한 드론영상의 에피폴라 영상제작 (Generation of Epipolar Image from Drone Image Using Direction Cosine)

  • 김의명;최한승;홍송표
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.271-277
    • /
    • 2018
  • 에피폴라 영상은 원 영상에서 y-시차를 제거한 영상으로 3차원 입체 모델을 생성하거나 지도를 제작하기 위해서 필수적인 기술이다. 에피폴라 영상 제작에는 두 영상에서 특징점을 정합한 후 상호표정요소를 추정하여 생성하는 방법과 외부표정요소를 결정한 후 두 영상의 기선과 회전각을 이용하는 방법이 있다. 본 연구에서는 입력 영상의 외부표정요소에서 방향코사인을 이용하여 에피폴라 영상을 제작하는 방법과 원 영상에서 에피폴라 영상으로 변환할 때 용이한 계산을 위하여 변환관계를 행렬을 이용하는 방법론을 제안하였다. 제안한 방법론의 적용성은 고정익과 회전익 드론에서 촬영한 영상을 이용하여 평가하였으며 그 결과 드론의 형태에 관계없이 에피폴라 영상이 적합하게 제작됨을 알 수 있었다.

DMC 카메라의 블록기하 안정성 분석 (Stability Analysis of DMC's Block Geometry)

  • 이재원;이동민
    • 대한토목학회논문집
    • /
    • 제29권6D호
    • /
    • pp.771-779
    • /
    • 2009
  • GIS의 자료기반이 되는 수치지도는 주로 재래식 항공사진측량에 의해서 제작되고 있다. 따라서 촬영된 아날로그 항공사진은 필름의 현상, 인화, 스캐닝 작업 과정을 거쳐 수치지도 제작에 이용되고 있다. 하지만 디지털 항측카메라의 개발로 촬영된 사진의 전처리과정 없이 직접 디지털 영상의 획득이 가능하여 항공사진의 효율성이 극대화 되고 있는 실정이다. 본 연구 에서는 면형방식 카메라인 DMC(Digital Modular Camera) 영상의 블록구성에 따른 기하적 안정성을 검증하기 위하여 횡스트립의 유무, GPS/INS 외부표정요소의 유무 및 지상기준점 수를 달리한 조건으로 블록조정을 수행하였다. 각 조건별 블록조정의 결과로 부터 외부표정요소에 대한 잔차의 변화를 계산하여 정확도를 상호 비교하였다. 연구 결과 횡스트립 추가 시 블록은 기하학적으로 약 30% 안정함을 알 수 있었고, 외부표정요소에서는 횡스트립 추가 시 표준편차의 평균에서 X축으로 2cm, Y축으로 3cm, Z축으로 3cm 더 우수하였으며, omega는 6", phi는 4", kappa는 3" 더 우수하게 나타났다.

얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형 (A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points)

  • 반세범;정찬섭
    • 인지과학
    • /
    • 제12권1_2호
    • /
    • pp.77-89
    • /
    • 2001
  • 얼굴 특징점의 지각적 위계구조를 반영한 표정인식 신경망 모형을 설계하였다. 입력자료는 MPEG-4 SNHC(Synthetic/Natural Hybrid Coding)의 얼굴 정의 파라미터(FDP) 중 39개 특징점 각각에 대해 150장의 표정연기 사진을 5개의 크기와 8개의 바위를 갖는 Gabor 필터로분석한 값이었다. 표정영상에 대한 감정상태 평정 값과 39개 특징점의 필터 반응 값을 중가 회귀분석한 결과, 감정상태의 쾌-불쾌 차원은 주로 입과 눈썹 주변의 특징점과 밀접한 과련이 있었고, 각성-수면차원은 주로 눈 주변의 특징점과 밀접한 관련이 있었다. 필터의 크기는 주로 저역 공간 주파수 필터와 감정상태가 관련이 있었고, 필터의 방위는 주로 비스듬한 사선방위와 감정상태가 관련이 있었다. 이를 기초로 표정인식 신경망을 최적화한 결과 원래 1560개(39x5x8) 입력요소를 400개(25x2x8)입력요소로 줄일 수 있었다. 표정인식 신경망의 최적화 결과를 사람의 감정상태 평정과 비교하여 볼 때, 쾌-불쾌 차원에서는 0.886의 상관관계가 있었고, 각성-수면 차원에서는 0.631의 상관관계가 있었다. 표정인식 신경망의 최적화 모형을 기쁨, 슬픔, 놀람, 공포, 분노, 혐오 등의 6가지 기본 정서 범주에 대응한 결과 74%의 인식률을 얻었다. 이러한 결과는 사람의 표정인식 원리를 이용하면 작은 양의 정보로도 최적화된 표정인식 시스템을 구현할수 있다는 점을 시시한다.

  • PDF