• 제목/요약/키워드: Pose matching

검색결과 100건 처리시간 0.025초

얼굴과 얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A flexible Feature Matching for Automatic Face and Facial Feature Points Detection)

  • 박호식;배철수
    • 한국정보통신학회논문지
    • /
    • 제7권4호
    • /
    • pp.705-711
    • /
    • 2003
  • 본 논문에서는 자동적으로 얼굴과 얼굴 특징점(FFPs:Facial Feature Points)을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 또한, 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였으며, 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

헤어 뷰티 패션 디자인 선별을 위한 특징 점 정합을 이용한 헤어 라인 검출 (A Study on the Hair Line detection Using Feature Points Matching in Hair Beauty Fashion Design)

  • 송선희;나상동;배용근
    • 한국정보통신학회논문지
    • /
    • 제7권5호
    • /
    • pp.934-940
    • /
    • 2003
  • 본 논문은 헤어 뷰티 패션 디자인(Hair Beauty Fashion Design)을 위한 헤어모델과 헤어 얼굴 특징 점을 검출하여 긴 머리, 짧은 머리, 올림머리 등을 연출하는 헤어 라인 검출을 연구한다. 헤어 얼굴은 Gabor 특징에 의하여 지정된 특징 점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프 헤어 모델로 표현한다. 제안된 탄력적 특징 정합은 헤어 모델과 헤어 입력 영상에 상응하는 특징을 취하여 정합 헤어 모델에서 국부적으로 경쟁적이고, 전체적으로 협력적인 헤어 모델 구조를 제시하며, 또 헤어 영상공간에서 불규칙 확산 처리와 같은 역할도 한다. 복잡한 헤어 얼굴 배경이나 헤어 모델 자세의 변화, 그리고 왜곡된 헤어 얼굴 영상에서도 원활하게 동작하는 헤어(얼굴)설계 식별 시스템을 구성함으로서 헤어 라인응용의 방법 등을 탄력적 특징적 정합으로 검출한다.

얼굴과 얼굴 특징점 자동 검출을 위한 탄력적 특징 정합 (A Flexible Feature Matching for Automatic face and Facial feature Points Detection)

  • 박호식;손형경;정연길;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 춘계종합학술대회
    • /
    • pp.608-612
    • /
    • 2002
  • 본 논문에서는 자동적으로 얼굴과 얼굴 특징점을 검출하는 시스템을 제안하였다. 얼굴은 Gabor 특징에 의하여 지정된 특징점의 교점 그래프와 공간적 연결을 나타내는 에지 그래프로 표현하였으며, 제안된 탄력적 특징 정합은 모델과 입력 영상에 상응하는 특징을 취하였다. 정합 모델은 국부적으로 경쟁적이고 전체적으로 협력적인 구조를 이룸으로서 영상공간에서 불규칙 확산 처리와 같은 역할을 하도록 하였다. 복잡한 배경이나 자세의 변화, 그리고 왜곡된 얼굴 영상에서도 원활하게 동작하는 얼굴 식별 시스템을 구성함으로서 제안된 방법의 효율성을 증명하였다.

  • PDF

자율주행 차량의 강건한 횡 방향 제어를 위한 차선 지도 기반 차량 위치추정 (Lane Map-based Vehicle Localization for Robust Lateral Control of an Automated Vehicle)

  • 김동욱;정태영;이경수
    • 제어로봇시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.108-114
    • /
    • 2015
  • Automated driving systems require a high level of performance regarding environmental perception, especially in urban environments. Today's on-board sensors such as radars or cameras do not reach a satisfying level of development from the point of view of robustness and availability. Thus, map data is often used as an additional data input to support these systems. An accurate digital map is used as a powerful additional sensor. In this paper, we propose a new approach for vehicle localization using a lane map and a single-layer LiDAR. The maps are created beforehand using a highly accurate DGPS and a single-layer LiDAR. A pose estimation of the vehicle was derived from an iterative closest point (ICP) match of LiDAR's intensity data to the lane map, and the estimated pose was used as an observation inside a Kalmanfilter framework. The achieved accuracy of the proposed localization algorithm is evaluated with a highly accurate DGPS to investigate the performance with respect to lateral vehicle control.

동영상에서 추출한 키포인트 정보의 동적 시간워핑(DTW)을 이용한 인체 동작 유사도의 정량화 기법 (A Quantification Method of Human Body Motion Similarity using Dynamic Time Warping for Keypoints Extracted from Video Streams)

  • 임준석;김진헌
    • 전기전자학회논문지
    • /
    • 제24권4호
    • /
    • pp.1109-1116
    • /
    • 2020
  • 사람이 따라 하는 능력을 평가하는 스코어는 아동의 발달 단계 혹은 골프, 무용 동작 등을 점검하는 좋은 수단이 될 수 있다. 또한, 이는 AR, VR 응용에서 HCI로도 활용될 수 있다. 본 논문에서는 동작을 주도해서 수행하는 시범자와 그 동작을 따라 하는 참여자 간의 동작 유사도를 평가하는 방안을 제시하고, 여기서 우리는 Openpose의 키포인트 벡터 유사도의 유클리디안 L2 거리를 활용하는 동작 유사도를 제안한다. 제안된 기법은 DTW를 사용하기 때문에 시간 지연차가 있는 동작에 유연하게 대처할 수 있다.

단일 카메라를 이용한 이동 로봇의 실시간 위치 추정 및 지도 작성에 관한 연구 (A Study on Real-Time Localization and Map Building of Mobile Robot using Monocular Camera)

  • 정대섭;최종훈;장철웅;장문석;공정식;이응혁;심재홍
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년 학술대회 논문집 정보 및 제어부문
    • /
    • pp.536-538
    • /
    • 2006
  • The most important factor of mobile robot is to build a map for surrounding environment and estimate its localization. This paper proposes a real-time localization and map building method through 3-D reconstruction using scale invariant feature from monocular camera. Mobile robot attached monocular camera looking wall extracts scale invariant features in each image using SIFT(Scale Invariant Feature Transform) as it follows wall. Matching is carried out by the extracted features and matching feature map that is transformed into absolute coordinates using 3-D reconstruction of point and geometrical analysis of surrounding environment build, and store it map database. After finished feature map building, the robot finds some points matched with previous feature map and find its pose by affine parameter in real time. Position error of the proposed method was maximum. 8cm and angle error was within $10^{\circ}$.

  • PDF

무인로봇 정밀위치추정을 위한 전술통신 및 영상 기반의 통합항법 성능 분석 (The Performance Analysis of Integrated Navigation System Based on the Tactical Communication and VISION for the Accurate Localization of Unmanned Robot)

  • 최지훈;박용운;송재복;권인소
    • 한국군사과학기술학회지
    • /
    • 제14권2호
    • /
    • pp.271-280
    • /
    • 2011
  • This paper presents a navigation system based on the tactical communication and vision system in outdoor environments which is applied to unmanned robot for perimeter surveillance operations. GPS errors of robot are compensated by the reference station of C2(command and control) vehicle and WiBro(Wireless Broadband) is used for the communication between two systems. In the outdoor environments, GPS signals can be easily blocked due to trees and buildings. In this environments, however, vision system is very efficient because there are many features. With the feature MAP around the operation environments, the robot can estimate the position by the image matching and pose estimation. In the navigation system, thus, operation modes is switched by navigation manager according to some environment conditions. The experimental results show that the unmanned robot can estimate the position very accurately in outdoor environment.

야지환경에서 연합형 필터 기반의 다중센서 융합을 이용한 무인지상로봇 위치추정 (UGV Localization using Multi-sensor Fusion based on Federated Filter in Outdoor Environments)

  • 최지훈;박용운;주상현;심성대;민지홍
    • 한국군사과학기술학회지
    • /
    • 제15권5호
    • /
    • pp.557-564
    • /
    • 2012
  • This paper presents UGV localization using multi-sensor fusion based on federated filter in outdoor environments. The conventional GPS/INS integrated system does not guarantee the robustness of localization because GPS is vulnerable to external disturbances. In many environments, however, vision system is very efficient because there are many features compared to the open space and these features can provide much information for UGV localization. Thus, this paper uses the scene matching and pose estimation based vision navigation, magnetic compass and odometer to cope with the GPS-denied environments. NR-mode federated filter is used for system safety. The experiment results with a predefined path demonstrate enhancement of the robustness and accuracy of localization in outdoor environments.

Encoding Dictionary Feature for Deep Learning-based Named Entity Recognition

  • Ronran, Chirawan;Unankard, Sayan;Lee, Seungwoo
    • International Journal of Contents
    • /
    • 제17권4호
    • /
    • pp.1-15
    • /
    • 2021
  • Named entity recognition (NER) is a crucial task for NLP, which aims to extract information from texts. To build NER systems, deep learning (DL) models are learned with dictionary features by mapping each word in the dataset to dictionary features and generating a unique index. However, this technique might generate noisy labels, which pose significant challenges for the NER task. In this paper, we proposed DL-dictionary features, and evaluated them on two datasets, including the OntoNotes 5.0 dataset and our new infectious disease outbreak dataset named GFID. We used (1) a Bidirectional Long Short-Term Memory (BiLSTM) character and (2) pre-trained embedding to concatenate with (3) our proposed features, named the Convolutional Neural Network (CNN), BiLSTM, and self-attention dictionaries, respectively. The combined features (1-3) were fed through BiLSTM - Conditional Random Field (CRF) to predict named entity classes as outputs. We compared these outputs with other predictions of the BiLSTM character, pre-trained embedding, and dictionary features from previous research, which used the exact matching and partial matching dictionary technique. The findings showed that the model employing our dictionary features outperformed other models that used existing dictionary features. We also computed the F1 score with the GFID dataset to apply this technique to extract medical or healthcare information.

구름이 포함된 고해상도 다시기 위성영상의 자동 상호등록 (Automatic Co-registration of Cloud-covered High-resolution Multi-temporal Imagery)

  • 한유경;김용일;이원희
    • 대한공간정보학회지
    • /
    • 제21권4호
    • /
    • pp.101-107
    • /
    • 2013
  • 일반적으로 상용화되고 있는 고해상도 위성영상에는 좌표가 부여되어 있지만, 촬영 당시 센서의 자세나 지표면 특성 등에 따라서 영상 간의 지역적인 위치차이가 발생한다. 따라서 좌표를 일치시켜주는 영상 간 상호등록 과정이 필수적으로 적용되어야 한다. 하지만 영상 내에 구름이 분포할 경우 두 영상 간의 정합쌍을 추출하는데 어려움을 주며, 오정합쌍을 다수 추출하는 경향을 보인다. 이에 본 연구에서는 구름이 포함된 고해상도 KOMPSAT-2 영상간의 자동 기하보정을 수행하기 위한 방법론을 제안한다. 대표적인 특징기반 정합쌍 추출 기법인 SIFT 기법을 이용하였고, 기준영상의 특징점을 기준으로 원형 버퍼를 생성하여, 오직 버퍼 내에 존재하는 대상영상의 특징점만을 후보정합쌍으로 선정하여 정합률을 높이고자 하였다. 제안 기법을 구름이 포함된 다양한 실험지역에 적용한 결과, SIFT 기법에 비해 높은 정합률을 보였고, 상호등록 정확도를 향상시킴을 확인할 수 있었다.