• 제목/요약/키워드: multi-view camera

검색결과 159건 처리시간 0.03초

Video-based Height Measurements of Multiple Moving Objects

  • Jiang, Mingxin;Wang, Hongyu;Qiu, Tianshuang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권9호
    • /
    • pp.3196-3210
    • /
    • 2014
  • This paper presents a novel video metrology approach based on robust tracking. From videos acquired by an uncalibrated stationary camera, the foreground likelihood map is obtained by using the Codebook background modeling algorithm, and the multiple moving objects are tracked by a combined tracking algorithm. Then, we compute vanishing line of the ground plane and the vertical vanishing point of the scene, and extract the head feature points and the feet feature points in each frame of video sequences. Finally, we apply a single view mensuration algorithm to each of the frames to obtain height measurements and fuse the multi-frame measurements using RANSAC algorithm. Compared with other popular methods, our proposed algorithm does not require calibrating the camera, and can track the multiple moving objects when occlusion occurs. Therefore, it reduces the complexity of calculation and improves the accuracy of measurement simultaneously. The experimental results demonstrate that our method is effective and robust to occlusion.

필수 행렬을 이용한 카메라 이동 위치 추정 기술 연구 (A Study on Estimating Skill of Smartphone Camera Position using Essential Matrix)

  • 오종택;김호겸
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권6호
    • /
    • pp.143-148
    • /
    • 2022
  • 이동하는 스마트폰이나 로봇의 단안 카메라를 이용하여 연속적으로 촬영된 이미지들을 분석하여 카메라의 위치를 추정하는 것은 메타버스나 이동 로봇, 사용자 위치 서비스에서 매우 중요하다. 지금까지는 PnP 관련 기술들을 적용하여 위치를 계산하였는데, 본 논문에서는 연속된 영상들에 적용된 에피폴라 기하학에서의 필수 행렬을 이용하여 카메라의 이동 방향을 구하고 기하학적인 수식 계산을 통해 카메라의 연속적인 이동 위치를 추정하는 방법을 새롭게 제안하였고, 시뮬레이션을 통해 그 정확성을 검증하였다. 이 방식은 기존의 방식과는 전혀 다른 방법으로 두 개 이상의 영상에서 하나 이상의 일치되는 특징점만 있어도 적용할 수 있는 특징이 있다.

Multi-view Human Recognition based on Face and Gait Features Detection

  • Nguyen, Anh Viet;Yu, He Xiao;Shin, Jae-Ho;Park, Sang-Yun;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제11권12호
    • /
    • pp.1676-1687
    • /
    • 2008
  • In this paper, we proposed a new multi-view human recognition method based on face and gait features detection algorithm. For getting the position of moving object, we used the different of two consecutive frames. And then, base on the extracted object, the first important characteristic, walking direction, will be determined by using the contour of head and shoulder region. If this individual appears in camera with frontal direction, we will use the face features for recognition. The face detection technique is based on the combination of skin color and Haar-like feature whereas eigen-images and PCA are used in the recognition stage. In the other case, if the walking direction is frontal view, gait features will be used. To evaluate the effect of this proposed and compare with another method, we also present some simulation results which are performed in indoor and outdoor environment. Experimental result shows that the proposed algorithm has better recognition efficiency than the conventional sing]e view recognition method.

  • PDF

다시점 카메라 모델의 기하학적 특성을 이용한 가상시점 영상 생성 기법 (Virtual Viewpoint Image Synthesis Algorithm using Multi-view Geometry)

  • 김태준;장은영;허남호;김진웅;유지상
    • 한국통신학회논문지
    • /
    • 제34권12C호
    • /
    • pp.1154-1166
    • /
    • 2009
  • 본 논문에서는 다시점 동영상을 이용한 기저선(baseline)상의 가상시점 영상 생성과 기저선상 외의 가상시점 영상 생성을 위한 기법을 제안한다. 제안한 기법에서는 가상 시점을 생성하기 위하여 영상의 깊이(depth)정보와 고정된 카메라의 기하학적 특성을 이용한 3차원 워핑(warping) 방법을 적용한다. 영상의 실제 3차원 좌표는 영상의 깊이 정보와 카메라의 기하학적 특성을 이용하여 산출되고, 산출된 3차원 좌표는 임의 위치의 가상 카메라에 투영(projection)되어 2차원의 가상 시점 영상이 생성된다. 제안한 방법에 의해 생성된 기저선상의 중간시점 영상은 기존의 방법으로 생성된 중간시점 영상보다 PSNR이 0.5dB 이상 향상된 결과를 나타내었고, 기저선상 외의 가상 시점 영상에서 나타나는 많은 미처리 영역을 보다 효과적으로 처리하여 가상시점 영상을 생성할 수 있었다.

다시점 3차원 디스플레이용 비디오 프로세서의 설계 (Design of Video Processor for Multi-View 3D Display)

  • 성준호;하태현;김성식;이성주;김재석
    • 방송공학회논문지
    • /
    • 제8권4호
    • /
    • pp.452-464
    • /
    • 2003
  • FPGA를 사용하여 실시간 응용 가능한 다시점 3차원 비디오 프로세서를 설계 및 구현하였다. 본 연구에서 설계된 3차원 비디오 프로세서는 최대 16시점으로부터의 2차원 비디오 신호를 입력받아 공간분할방식의 3차원 비디오 신호로 변환해주는 역할을 한다. 3차원 카메라 시스템의 다양한 구조에 대응이 가능하며, 또한 다양한 해상도의 3차원 디스플레이 장치에 대응이 가능하도록 설계하였다. 5개의 FPGA를 사용한 검증보드를 제작하여 3차원 비디오 프로세서의 기능을 검증하였다.

다시점 구조광을 이용한 3D 복원 (3D Reconstruction using multi-view structured light)

  • 강현민;박용문;서용덕
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.288-289
    • /
    • 2022
  • In this paper, we propose a method of obtaining high density geometric information using multi-view structured light. Reconstruction error due to the difference in resolution between the projector and the camera occurs when reconstruction a 3D shape from a structured light system to a single projector. This shows that the error in the point cloud in 3D is also the same when reconstruction the shape of the object. So we propose a high density method using multiple projectors to solve such a reconstruction error.

구형 물체를 이용한 다중 RGB-D 카메라의 간편한 시점보정 (Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object)

  • 박순용;최성인
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권8호
    • /
    • pp.309-314
    • /
    • 2014
  • 물체의 360도 방향에서 다수의 RGB-D(RGB-Depth) 카메라를 이용하여 깊이영상을 획득하고 3차원 모델을 생성하기 위해서는 RGB-D 카메라 간의 3차원 변환관계를 구하여야 한다. 본 논문에서는 구형 물체를 이용하여 4대의 RGB-D 카메라 사이의 변환관계를 간편하게 구할 수 있는 시점보정(view calibration) 방법을 제안한다. 기존의 시점보정 방법들은 평면 형태의 체크보드나 코드화된 패턴을 가진 3차원 물체를 주로 사용함으로써 패턴의 특징이나 코드를 추출하고 정합하는 작업에 상당한 시간이 걸린다. 본 논문에서는 구형 물체의 깊이영상과 사진영상을 동시에 사용하여 간편하게 시점을 보정할 수 있는 방법을 제안한다. 우선 하나의 구를 모델링 공간에서 연속적으로 움직이는 동안 모든 RGB-D 카메라에서 구의 깊이영상과 사진영상을 동시에 획득한다. 다음으로 각 RGB-D 카메라의 좌표계에서 획득한 구의 3차원 중심좌표를 월드좌표계에서 일치되도록 각 카메라의 외부변수를 보정한다.

염수 환경 열화 상태를 모의한 절연애자의 자외선 코로나 특성 분석 (Analysis of Properties of UV Corona on Insulator in Salt Water Environments)

  • 김영석;최명일;김종민;방선배;송길목;이명준;이우창
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1590-1591
    • /
    • 2011
  • In this paper, the UV corona camera was developed using the solar blind and Multi Channel Plate(MCP) technology for the target localization of UV camera. UV camera developed a $6.4^{\circ}{\times}4.8^{\circ}$ of the field of view as a conventional camera to diagnose a wide range of slightly enlarged, and power equipment to measure the distance between the camera and the distance meter has been attached. The UV camera was developed and measured using a UV image, as applied voltage increased ultraviolet images of the phenomenon could be obtained. And we investigated properties of UV corona image on insulator in salt water environments. From the results, the breakdown voltage was decreased and UV images were taken at low voltages and the UV image is rapidly increased with increasing High voltage.

  • PDF

Multi-Camera Vision System for Tele-Robotics

  • Park, Changhwn;Kohtaro Ohba;Park, Kyihwan;Sayaka Odano;Hisayaki Sasaki;Nakyoung Chong;Tetsuo Kotoku;Kazuo Tanie
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.25.6-25
    • /
    • 2001
  • A new monitoring system is proposed to give direct visual information of the remote site when working with a tele-operation system. In order to have a similar behavior of a human when he is inspecting an object, multiple cameras that have different view point are attached around the robot hand and are switched on and elf according to the operator´s motion such as joystick manipulation or operator´s head movement. The performance of the system is estimated by performing comparison experiments among single camera (SC) vision system, head mount display (HMD)system and proposed multiple camera (MC) vision system by applying a task to several examines. The reality, depth feeling and controllability are estimated for the examines ...

  • PDF

복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼 (Autonomous Driving Platform using Hybrid Camera System)

  • 이은경
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1307-1312
    • /
    • 2023
  • 본 논문에서는 자율주행 인지 기술의 핵심 요소인 객체 인식과 거리 측정을 위해 서로 다른 초점거리를 가진 다시점 카메라와 라이다(LiDAR) 센서를 결합한 복합형 카메라 시스템을 제안한다. 제안한 복합형 카메라 시스템을 이용해 장면 안의 객체를 추출하고, 추출한 객체의 정확한 위치와 거리 정보를 생성한다. 빠른 계산 속도와 높은 정확도, 실시간 처리가 가능하다는 장점 때문에 자율주행 분야에서 많이 사용하고 있는 YOLO7 알고리즘을 이용해 장면 안의 객체를 추출한다. 그리고 객체의 위치와 거리 정보를 생성하기 위해 다시점 카메라를 이용해 깊이맵을 생성한다. 마지막으로 거리 정확도를 향상시키기 위해 라이다 센서에서 획득한 3차원 거리 정보와 생성한 깊이맵을 하나로 결합한다. 본 논문에서는 제안한 복합형 카메라 시스템을 기반으로 주행중인 주변 환경을 더욱 정확하게 인식함과 동시에 3차원 공간상의 정확한 위치와 거리 정보까지 생성할 수 있는 자율주행 차량 플랫폼을 제안하였으며, 이를 통해 자율주행 차량의 안전성과 효율성을 향상시킬 수 있을 것으로 기대한다.