• 제목/요약/키워드: Camera pose

검색결과 271건 처리시간 0.025초

구조물의 6자유도 변위 측정을 위한 비주얼 서보잉 기반 양립형 구조 광 로봇 시스템 (Visual Servoing-Based Paired Structured Light Robot System for Estimation of 6-DOF Structural Displacement)

  • 전해민;방유석;김한근;명현
    • 제어로봇시스템학회논문지
    • /
    • 제17권10호
    • /
    • pp.989-994
    • /
    • 2011
  • This study aims to demonstrate the feasibility of a visual servoing-based paired structured light (SL) robot for estimating structural displacement under various external loads. The former paired SL robot, which was proposed in the previous study, was composed of two screens facing with each other, each with one or two lasers and a camera. It was found that the paired SL robot could estimate the translational and rotational displacement each in 3-DOF with high accuracy and low cost. However, the measurable range is fairly limited due to the limited screen size. In this paper, therefore, a visual servoing-based 2-DOF manipulator which controls the pose of lasers is introduced. By controlling the positions of the projected laser points to be on the screen, the proposed robot can estimate the displacement regardless of the screen size. We performed various simulations and experimental tests to verify the performance of the newly proposed robot. The results show that the proposed system overcomes the range limitation of the former system and it can be utilized to accurately estimate the structural displacement.

POSE-VIWEPOINT ADAPTIVE OBJECT TRACKING VIA ONLINE LEARNING APPROACH

  • Mariappan, Vinayagam;Kim, Hyung-O;Lee, Minwoo;Cho, Juphil;Cha, Jaesang
    • International journal of advanced smart convergence
    • /
    • 제4권2호
    • /
    • pp.20-28
    • /
    • 2015
  • In this paper, we propose an effective tracking algorithm with an appearance model based on features extracted from a video frame with posture variation and camera view point adaptation by employing the non-adaptive random projections that preserve the structure of the image feature space of objects. The existing online tracking algorithms update models with features from recent video frames and the numerous issues remain to be addressed despite on the improvement in tracking. The data-dependent adaptive appearance models often encounter the drift problems because the online algorithms does not get the required amount of data for online learning. So, we propose an effective tracking algorithm with an appearance model based on features extracted from a video frame.

Real-time Multiple Pedestrians Tracking for Embedded Smart Visual Systems

  • Nguyen, Van Ngoc Nghia;Nguyen, Thanh Binh;Chung, Sun-Tae
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.167-177
    • /
    • 2019
  • Even though so much progresses have been achieved in Multiple Object Tracking (MOT), most of reported MOT methods are not still satisfactory for commercial embedded products like Pan-Tilt-Zoom (PTZ) camera. In this paper, we propose a real-time multiple pedestrians tracking method for embedded environments. First, we design a new light weight convolutional neural network(CNN)-based pedestrian detector, which is constructed to detect even small size pedestrians, as well. For further saving of processing time, the designed detector is applied for every other frame, and Kalman filter is employed to predict pedestrians' positions in frames where the designed CNN-based detector is not applied. The pose orientation information is incorporated to enhance object association for tracking pedestrians without further computational cost. Through experiments on Nvidia's embedded computing board, Jetson TX2, it is verified that the designed pedestrian detector detects even small size pedestrians fast and well, compared to many state-of-the-art detectors, and that the proposed tracking method can track pedestrians in real-time and show accuracy performance comparably to performances of many state-of-the-art tracking methods, which do not target for operation in embedded systems.

실시간 목 자세 모니터링을 위한 웨어러블 센서를 이용한 두개척추각 추정 (The Estimation of Craniovertebral Angle using Wearable Sensor for Monitoring of Neck Posture in Real-Time)

  • 이재현;지영준
    • 대한의용생체공학회:의공학회지
    • /
    • 제39권6호
    • /
    • pp.278-283
    • /
    • 2018
  • Nowdays, many people suffer from the neck pain due to forward head posture(FHP) and text neck(TN). To assess the severity of the FHP and TN the craniovertebral angle(CVA) is used in clinincs. However, it is difficult to monitor the neck posture using the CVA in daily life. We propose a new method using the cervical flexion angle(CFA) obtained from a wearable sensor to monitor neck posture in daily life. 15 participants were requested to pose FHP and TN. The CFA from the wearable sensor was compared with the CVA observed from a 3D motion camera system to analyze their correlation. The determination coefficients between CFA and CVA were 0.80 in TN and 0.57 in FHP, and 0.69 in TN and FHP. From the monitoring the neck posture while using laptop computer for 20 minutes, this wearable sensor can estimate the CVA with the mean squared error of 2.1 degree.

Design of Personalized Exercise Data Collection System based on Edge Computing

  • Jung, Hyon-Chel;Choi, Duk-Kyu;Park, Myeong-Chul
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권5호
    • /
    • pp.61-68
    • /
    • 2021
  • 본 논문에서는 운동 재활 서비스에 제공할 수 있는 엣지 컴퓨팅 기반의 운동 데이터 수집 디바이스를 제안한다. 기존 클라우드 컴퓨팅 방식에서는 사용자가 급증하는 경우 데이터 센터의 처리량이 증가하여 많은 지연 현상을 발생하는 문제점을 가진다. 본 논문에서는 엣지 컴퓨팅을 이용하여 사용자측에서 3차원 카메라를 통한 영상 정보를 기반으로 포즈 에스티메이션을 적용한 신체 관절의 키포인트 위치를 측정하고 추정하여 서버에 전송하는 디바이스를 설계하고 구현하였다. 본 연구의 결과를 통하여 클라우드 시스템에 부하없이 원활한 정보 수집 환경을 구축할 수 있으며 운동 재활을 원하는 다양한 사용자를 대상으로 IoT 및 엣지 컴퓨팅 기술을 통한 개인 맞춤형 재활운동 코칭 시스템에 활용될 수 있을 것이다.

BIM model-based structural damage localization using visual-inertial odometry

  • Junyeon Chung;Kiyoung Kim;Hoon Sohn
    • Smart Structures and Systems
    • /
    • 제31권6호
    • /
    • pp.561-571
    • /
    • 2023
  • Ensuring the safety of a structure necessitates that repairs are carried out based on accurate inspections and records of damage information. Traditional methods of recording damage rely on individual paper-based documents, making it challenging for inspectors to accurately record damage locations and track chronological changes. Recent research has suggested the adoption of building information modeling (BIM) to record detailed damage information; however, localizing damages on a BIM model can be time-consuming. To overcome this limitation, this study proposes a method to automatically localize damages on a BIM model in real-time, utilizing consecutive images and measurements from an inertial measurement unit in close proximity to damages. The proposed method employs a visual-inertial odometry algorithm to estimate the camera pose, detect damages, and compute the damage location in the coordinate of a prebuilt BIM model. The feasibility and effectiveness of the proposed method were validated through an experiment conducted on a campus building. Results revealed that the proposed method successfully localized damages on the BIM model in real-time, with a root mean square error of 6.6 cm.

능동 윤곽 기법을 적용한 단일 영상 기반 인공위성 상대항법 (Mono-Vision Based Satellite Relative Navigation Using Active Contour Method)

  • 김상현;최한림;심현철
    • 한국항공우주학회지
    • /
    • 제43권10호
    • /
    • pp.902-909
    • /
    • 2015
  • 본 논문에서는 인공위성 근접운용을 위한 단일 영상 기반 상대항법에 대한 연구를 수행하였다. 추적 위성은 하나의 카메라 센서만을 이용하여 표적 위성을 관측하고 영상추적을 통해 표적 위성의 위치 정보를 얻게 된다. 그러나 단일 영상만을 이용할 경우, 표적과의 상대 거리에 해당하는 깊이 정보를 얻기 힘들다. 이러한 문제를 해결하기 위해 능동 윤곽 기법을 영상 추적에 적용하였다. 능동 윤곽 기법을 통해 표적의 이미지 크기를 얻을 수 있고 이러한 형상 정보를 바탕으로 상대 거리를 간접적으로 계산할 수 있다. 두 인공 위성이 상대 운동을 하는 우주환경을 구현하고 가상의 카메라 영상을 생성하기 위해 3차원 가상현실이 이용되었다. 추적 위성은 UKF를 이용하여 표적 위성에 대한 상대위치를 추정하면서 글라이드슬로프 접근 기법을 이용하여 표적 위성에 근접한다. 상대항법의 성능을 분석하기 위해서 폐 루프 시뮬레이션을 수행하였다.

합성곱 신경망 기반 맨하탄 좌표계 추정 (Estimation of Manhattan Coordinate System using Convolutional Neural Network)

  • 이진우;이현준;김준호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.31-38
    • /
    • 2017
  • 본 논문에서는 도심 영상에 대해 맨하탄 좌표계를 추정하는 합성곱 신경망(Convolutional Neural Network) 기반의 시스템을 제안한다. 도심 영상에서 맨하탄 좌표계를 추정하는 것은 영상 조정, 3차원 장면 복원 등 컴퓨터 그래픽스 및 비전 문제 해결의 기본이 된다. 제안하는 합성곱 신경망은 GoogLeNet[1]을 기반으로 구성한다. 합성곱 신경망을 훈련하기 위해 구글 스트리트 뷰 API로 영상을 수집하고 기존 캘리브레이션 방법으로 맨하탄 좌표계를 계산하여 데이터셋을 생성한다. 장면마다 새롭게 합성곱 신경망을 학습해야하는 PoseNet[2]과 달리, 본 논문에서 제안하는 시스템은 장면의 구조를 학습하여 맨하탄 좌표계를 추정하기 때문에 학습되지 않은 새로운 장면에 대해서도 맨하탄 좌표계를 추정한다. 제안하는 방법은 학습에 참여하지 않은 구글 스트리트 뷰 영상을 검증 데이터로 테스트하였을 때 $3.157^{\circ}$의 중간 오차로 맨하탄 좌표계를 추정하였다. 또한, 동일 검증 데이터에 대해 제안하는 방법이 기존 맨하탄 좌표계 추정 알고리즘[3]보다 더 낮은 중간 오차를 보이는 것을 확인하였다.

Stereo Vision과 AlphaPose를 이용한 다중 객체 거리 추정 방법에 관한 연구 (A Study on the Estimation of Multi-Object Social Distancing Using Stereo Vision and AlphaPose)

  • 이주민;배현재;장규진;김진평
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권7호
    • /
    • pp.279-286
    • /
    • 2021
  • 최근 COVID-19 확산 방지를 위한 공공장소에서는 최소 1m 이상을 유지하는 물리적 거리두기 정책을 실행하고 있다. 본 논문에서는 드론과 CCTV가 취득한 스테레오 영상에서 실시간으로 사람들 간의 거리를 추정하는 방법과 추정된 거리에서 1m 이내의 객체를 인식하는 자동화 시스템을 제안한다. 기존의 CCTV를 이용하여 다중 객체 간의 거리 추정에 사용되었던 방법의 문제점으로는 한 대의 CCTV만을 이용하여 객체의 3차원 정보를 얻지 못한다는 것이다. 선, 후행하거나 겹쳐진 사람 간의 거리를 구하기 위해서는 3차원 정보가 필요하기 때문이다. 또한, 일반적인 Detected Bounding Box를 사용하여 영역 안에서 사람이 존재하는 정확한 좌표를 얻지 못한다. 따라서 사람이 존재하는 정확한 위치 정보를 얻기 위해 스켈레톤 추출하여 관절 키포인트의 2차원 좌표를 획득한 후, Stereo Vision을 이용한 카메라 캘리브레이션을 적용하여 3차원 좌표로 변환한다. 3차원으로 변환된 관절 키포인트의 중심좌표를 계산하고 객체 간 사이의 거리를 추정한다. 3차원 좌표의 정확성과 객체(사람) 간의 거리 추정 실험을 수행한 결과, 1m 이내에 존재하는 다수의 사람 간의 거리 추정에서 0.098m 이내 평균오차를 보였다.

관절 가동범위 향상을 위한 원격 모션 인식 재활 시스템 (A Home-Based Remote Rehabilitation System with Motion Recognition for Joint Range of Motion Improvement)

  • 김경아;정완영
    • 융합신호처리학회논문지
    • /
    • 제20권3호
    • /
    • pp.151-158
    • /
    • 2019
  • 재해로 인한 부상 및 만성 질환 등의 다양한 요인으로 신체적 장애를 가진 환자, 혹은 신체의 노화로 인하여 몸의 움직임의 범위가 제한된 노인과 같은 경우, 치료의 일종으로 병원에서의 재활 프로그램의 참여를 권장 받는 경우가 있다. 그러나 이들은 신체의 거동이 불편하므로 보호자의 동행 없이 재활 프로그램의 참여를 위한 이동이 쉽지 않다. 또한, 병원에서는 각각의 환자 및 노인들에게 재활 운동을 지도해주어야 하는 불편함이 존재한다. 이러한 이유로, 이 논문에서는 모션 인식을 통하여 집에서도 타인의 도움 없이 재활 운동이 가능한 원격 재활 프로그램을 개발하였다. 해당 시스템은 사용자 집의 스테레오 카메라와 컴퓨터를 이용하여 구동할 수 있으며, 모션 인식 기능을 통하여 사용자의 실시간 운동 상태 확인이 가능하다. 사용자가 재활 운동에 참여하는 동안, 시스템은 사용자의 특정 부위의 관절가동범위(Joint ROM; Joint Range of Motion)를 저장하여 신체 기능의 향상도를 확인한다. 이 논문에서는 시스템의 검증을 위하여 총 4명의 실험군이 참여하였으며, 총 3종류의 운동을 각 9회씩 반복한 데이터를 이용하여 각 실험군의 시작 및 마지막 운동의 관절가동범위의 차이를 비교하였다.