• 제목/요약/키워드: camera pose

검색결과 271건 처리시간 0.039초

다중크기와 다중객체의 실시간 얼굴 검출과 머리 자세 추정을 위한 심층 신경망 (Multi-Scale, Multi-Object and Real-Time Face Detection and Head Pose Estimation Using Deep Neural Networks)

  • 안병태;최동걸;권인소
    • 로봇학회논문지
    • /
    • 제12권3호
    • /
    • pp.313-321
    • /
    • 2017
  • One of the most frequently performed tasks in human-robot interaction (HRI), intelligent vehicles, and security systems is face related applications such as face recognition, facial expression recognition, driver state monitoring, and gaze estimation. In these applications, accurate head pose estimation is an important issue. However, conventional methods have been lacking in accuracy, robustness or processing speed in practical use. In this paper, we propose a novel method for estimating head pose with a monocular camera. The proposed algorithm is based on a deep neural network for multi-task learning using a small grayscale image. This network jointly detects multi-view faces and estimates head pose in hard environmental conditions such as illumination change and large pose change. The proposed framework quantitatively and qualitatively outperforms the state-of-the-art method with an average head pose mean error of less than $4.5^{\circ}$ in real-time.

QR코드 기반의 온라인 모바일 증강현실 시스템의 구현 (An Implementation of QR Code based On-line Mobile Augmented Reality System)

  • 박민우;박정필;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제15권8호
    • /
    • pp.1004-1016
    • /
    • 2012
  • 본 논문에서는 제품에 삽입된 QR코드를 사용해 제품의 상세한 정보를 제공해주는 모바일 증강현실 시스템을 제안한다. 본 시스템에서는 마커기반의 자세 추정 기법과 마커리스 기반의 기법을 함께 적용하여 보다 강인한 카메라 자세 추정을 수행한다. QR코드가 근거리에 있거나, QR코드 전체가 영상 내에 들어올 경우에는 QR코드 내/외부의 사각형 집합을 추적하여 카메라 자세를 추정한다. 하지만, 영상 내에서 마커가 사라지거나, 모바일 기기가 QR코드 식별이 힘든 먼 거리에 위치할 경우 프레임간의 호모그래피에 기반을 둔 카메라 자세 보정을 수행한다. 또한 제안된 시스템은 증강현실 콘텐츠 제작을 위해서 메타데이터를 사용함으로서 사용자가 프로그램 수정 없이 메타데이터 파일을 작성하는 것만으로 다양한 시나리오의 콘텐츠를 제작 및 수정하는 것이 가능하다. 특히 증강현실 콘텐츠 가시화를 위한 메타데이터와 미디어 파일을 온라인 서버를 통해 항상 최신의 상태로 전송받을 수 있기 때문에 프로그램 업데이트와 같은 불필요한 작업을 최소화할 수 있다.

천정부착 랜드마크와 광류를 이용한 단일 카메라/관성 센서 융합 기반의 인공위성 지상시험장치의 위치 및 자세 추정 (Pose Estimation of Ground Test Bed using Ceiling Landmark and Optical Flow Based on Single Camera/IMU Fusion)

  • 신옥식;박찬국
    • 제어로봇시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.54-61
    • /
    • 2012
  • In this paper, the pose estimation method for the satellite GTB (Ground Test Bed) using vision/MEMS IMU (Inertial Measurement Unit) integrated system is presented. The GTB for verifying a satellite system on the ground is similar to the mobile robot having thrusters and a reaction wheel as actuators and floating on the floor by compressed air. The EKF (Extended Kalman Filter) is also used for fusion of MEMS IMU and vision system that consists of a single camera and infrared LEDs that is ceiling landmarks. The fusion filter generally utilizes the position of feature points from the image as measurement. However, this method can cause position error due to the bias of MEMS IMU when the camera image is not obtained if the bias is not properly estimated through the filter. Therefore, it is proposed that the fusion method which uses the position of feature points and the velocity of the camera determined from optical flow of feature points. It is verified by experiments that the performance of the proposed method is robust to the bias of IMU compared to the method that uses only the position of feature points.

다양한 환경에서 강건한 RGB-Depth-Thermal 카메라 기반의 차량 탑승자 점유 검출 (Robust Vehicle Occupant Detection based on RGB-Depth-Thermal Camera)

  • 송창호;김승훈
    • 로봇학회논문지
    • /
    • 제13권1호
    • /
    • pp.31-37
    • /
    • 2018
  • Recently, the safety in vehicle also has become a hot topic as self-driving car is developed. In passive safety systems such as airbags and seat belts, the system is being changed into an active system that actively grasps the status and behavior of the passengers including the driver to mitigate the risk. Furthermore, it is expected that it will be possible to provide customized services such as seat deformation, air conditioning operation and D.W.D (Distraction While Driving) warning suitable for the passenger by using occupant information. In this paper, we propose robust vehicle occupant detection algorithm based on RGB-Depth-Thermal camera for obtaining the passengers information. The RGB-Depth-Thermal camera sensor system was configured to be robust against various environment. Also, one of the deep learning algorithms, OpenPose, was used for occupant detection. This algorithm is advantageous not only for RGB image but also for thermal image even using existing learned model. The algorithm will be supplemented to acquire high level information such as passenger attitude detection and face recognition mentioned in the introduction and provide customized active convenience service.

CCD카메라와 적외선 카메라의 융합을 통한 효과적인 객체 추적 시스템 (Efficient Object Tracking System Using the Fusion of a CCD Camera and an Infrared Camera)

  • 김승훈;정일균;박창우;황정훈
    • 제어로봇시스템학회논문지
    • /
    • 제17권3호
    • /
    • pp.229-235
    • /
    • 2011
  • To make a robust object tracking and identifying system for an intelligent robot and/or home system, heterogeneous sensor fusion between visible ray system and infrared ray system is proposed. The proposed system separates the object by combining the ROI (Region of Interest) estimated from two different images based on a heterogeneous sensor that consolidates the ordinary CCD camera and the IR (Infrared) camera. Human's body and face are detected in both images by using different algorithms, such as histogram, optical-flow, skin-color model and Haar model. Also the pose of human body is estimated from the result of body detection in IR image by using PCA algorithm along with AdaBoost algorithm. Then, the results from each detection algorithm are fused to extract the best detection result. To verify the heterogeneous sensor fusion system, few experiments were done in various environments. From the experimental results, the system seems to have good tracking and identification performance regardless of the environmental changes. The application area of the proposed system is not limited to robot or home system but the surveillance system and military system.

Automatic Camera Pose Determination from a Single Face Image

  • Wei, Li;Lee, Eung-Joo;Ok, Soo-Yol;Bae, Sung-Ho;Lee, Suk-Hwan;Choo, Young-Yeol;Kwon, Ki-Ryong
    • 한국멀티미디어학회논문지
    • /
    • 제10권12호
    • /
    • pp.1566-1576
    • /
    • 2007
  • Camera pose information from 2D face image is very important for making virtual 3D face model synchronize with the real face. It is also very important for any other uses such as: human computer interface, 3D object estimation, automatic camera control etc. In this paper, we have presented a camera position determination algorithm from a single 2D face image using the relationship between mouth position information and face region boundary information. Our algorithm first corrects the color bias by a lighting compensation algorithm, then we nonlinearly transformed the image into $YC_bC_r$ color space and use the visible chrominance feature of face in this color space to detect human face region. And then for face candidate, use the nearly reversed relationship information between $C_b\;and\;C_r$ cluster of face feature to detect mouth position. And then we use the geometrical relationship between mouth position information and face region boundary information to determine rotation angles in both x-axis and y-axis of camera position and use the relationship between face region size information and Camera-Face distance information to determine the camera-face distance. Experimental results demonstrate the validity of our algorithm and the correct determination rate is accredited for applying it into practice.

  • PDF

사진계측기반 6자유도 포즈 예측의 오차 정량화 (Error Quantification of Photogrammetric 6DOF Pose Estimation)

  • 김상진;유흥철;류태규
    • 한국항공우주학회지
    • /
    • 제41권5호
    • /
    • pp.350-356
    • /
    • 2013
  • 먼거리에서 접촉하지 않고 측정할 수 있다는 장점으로 인해 사진계측은 항공분야에서도 널리 활용되고 있다. 본 연구에서는 한 대의 카메라로 6자유도 해석을 수행하는 사진계측에서 발생할 수 있는 오차를 분석하였다. 사진계측의 오차 분석 프로그램을 개발하였으며, 사진계측 문제를 공선조건에 기반한 기하학적 문제로 변환하여 프로그램을 검증하였다. 각 좌표계간 6자유도 해석을 위해 필요한 카메라 포즈에 대한 통계량은 정규분포한다는 것을 수치실험을 통해 유추할 수 있었으며, 모표준편차를 이용하여 사진계측의 오차를 정량화하였다.

증강현실 시스템 구현을 위한 단일 프레임에서의 고속 카메라 위치추정 (Fast Camera Pose Estimation from a Single Frame for Augmented Reality Applications)

  • 이범종;박종승;성미영;노성렬
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.7-14
    • /
    • 2006
  • 본 논문에서는 3D 복원과 카메라 측정과정 없이 정확하게 카메라 자세를 계산하고 가상객체를 비디오에 합성하기 위한 단일 프레임 기반의 고속 계산 기법을 제안한다. 객체의 로컬 좌표와 단일 이미지에서의 대응되는 이미지 좌표로부터 카메라 자세를 계산한다. 정사영 투영모델에서의 분해기법에 기반한 구조 계산 방법으로 카메라 자세의 고속 추정이 가능하다. 정사영 투영모델에 기반하기 때문에 참조점의 설정에 따라 정확도가 달라진다. 객체에 따라 참조점을 설정하여 정확한 카메라 자세를 계산하는 방법을 제안한다. 카메라 자세 및 물체의 형태는 단일 프레임 기반으로 수행되며 카메라 자세 추정 결과가 즉시 비디오 합성에 사용될 수 있도록 하였다. 제안하는 기법의 유효성 입증을 위해 실사 비디오에 기반한 증강현실시스템을 구현하고 카메라 자세 계산과 비디오 합성의 전체 과정을 단일 프레임에 기반하여 실험을 수행하고 제안 기법의 실용성을 보였다.

  • PDF

증강현실 기반의 인터랙티브 스토리보드 제작 시스템 (Augmented Reality based Interactive Storyboard System)

  • 박준
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제13권2호
    • /
    • pp.17-22
    • /
    • 2007
  • 영화나 애니메이션의 초기 제작 단계에서 스토리보드는 줄거리를 시각적으로 설명하기 위해 사용된다. 스토리 보드는 스토리의 텍스트 뿐 아니라 사람과 사물의 배치, 카메라 위치 등의 설정을 위해 그림이나 사진을 사용되기도 한다. 본 논문에서는 스토리보드 제작을 용이하게 그리고 직관적이 되도록 하기 위하여 증강현실 기반의 스토리보드 시스템을 제안한다. 본 시스템을 사용하면 경험이 없는 사용자라도 미리 만들어진 3차원 모델을 사용하여 사용자 자신의 실제 환경에서 모델들을 배치하고 애니메이션을 실행시킬 뿐 아니라 카메라의 위치와 방향까지도 제어할 수 있다.

  • PDF

Robot Posture Estimation Using Inner-Pipe Image

  • Sup, Yoon-Ji;Sok, Kang-E
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.173.1-173
    • /
    • 2001
  • This paper proposes the methodology in image processing algorithm that estimates the pose of the pipe crawling robot. The pipe crawling robots are usually equipped with a lighting device and a camera on its head for monitoring and inspection purpose. The proposed methodology is using these devices without introducing the extra sensors and is based on the fact that the position and the intensity of the reflected light varies with the robot posture. The algorithm is divided into two parts, estimating the translation and rotation angle of the camera, followed by the actual pose estimation of the robot. To investigate the performance of the algorithm, the algorithm is applied to a sewage maintenance robot.

  • PDF