• 제목/요약/키워드: vision camera

검색결과 1,376건 처리시간 0.033초

시각과 평형각이 융합된 다이나믹한 시각 시스템에 관한 연구 (A Study on Dynamically Visual System that Vision and Sense of Equilibrium are Fused)

  • 문용선;정남채
    • 한국정보통신학회논문지
    • /
    • 제5권7호
    • /
    • pp.1354-1360
    • /
    • 2001
  • 카메라로 얻어진 화상을 근거로 계산된 속도분포를 시각정보로 이용하였으며, 이것으로부터 얻어진 대상물의 속도에 시선속도를 일치시켜 실험하였다. 즉 외란을 받은 환경에서도 안정된 화상을 얻기 위해서 외란이나 카메라 자체의 운동에 의해서 발생한 두부의 운동을 보상할 수 있는 눈의 운동이 필요하게 된다. 본 논문에서는 외란이 있는 환경에서 인간의 시선제어법 즉 시각과 평형각이 융합된 시선제어 알고리즘을 제안하고, 그에 대한 실험 결과에서 시각과 평형각이 융합된 시선제어가 시선제어만을 한 것과 비교하여 위치 편차가 적다는 것을 확인하였다. 이것은 카메라 받침대의 움직임이 각속도 센서에 의하여 보상되어 겉보기 속도가 적게 되어 속도의 추정오차도 적게 되는 효과가 있기 때문이었다.

  • PDF

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.

융합 센서 네트워크 정보로 보정된 관성항법센서를 이용한 추측항법의 위치추정 향상에 관한 연구 (Study on the Localization Improvement of the Dead Reckoning using the INS Calibrated by the Fusion Sensor Network Information)

  • 최재영;김성관
    • 제어로봇시스템학회논문지
    • /
    • 제18권8호
    • /
    • pp.744-749
    • /
    • 2012
  • In this paper, we suggest that how to improve an accuracy of mobile robot's localization by using the sensor network information which fuses the machine vision camera, encoder and IMU sensor. The heading value of IMU sensor is measured using terrestrial magnetism sensor which is based on magnetic field. However, this sensor is constantly affected by its surrounding environment. So, we isolated template of ceiling using vision camera to increase the sensor's accuracy when we use IMU sensor; we measured the angles by pattern matching algorithm; and to calibrate IMU sensor, we compared the obtained values with IMU sensor values and the offset value. The values that were used to obtain information on the robot's position which were of Encoder, IMU sensor, angle sensor of vision camera are transferred to the Host PC by wireless network. Then, the Host PC estimates the location of robot using all these values. As a result, we were able to get more accurate information on estimated positions than when using IMU sensor calibration solely.

유비쿼터스 이동로봇용 천장 인공표식을 이용한 비젼기반 자기위치인식법 (Vision-based Self Localization Using Ceiling Artificial Landmark for Ubiquitous Mobile Robot)

  • 이주상;임영철;유영재
    • 한국지능시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.560-566
    • /
    • 2005
  • 본 논문은 유비쿼터스 이동로봇의 자기위치인식에 적용되는 비젼시스템의 왜곡된 영상을 보정하기 위한 실용적인 방법을 제안하다. 이동로봇에서 자기위치인식은 필수적인 요소이며 카메라 비젼시스템을 이용하여 처리 가능하다. 자기위치인식에서 비젼시스템은 넓은 시야를 확보하기 위해 어안렌즈를 이용하는데, 이는 영상의 왜곡을 발생한다. 또한 이동로봇은 지속적인 움직임을 가지므로 빠른 시간 내에 영상을 처리하여 자기위치를 인식해야 한다. 따라서 이동로봇에 적용 가능한 실용적인 영상왜곡 보정기법을 제안하고 실험을 통하여 성능을 검증한다.

비젼프로브를 가지는 3차원 측정기를 위한 형상 측정 시스템 묘듈 개발 (Vision Inspection Module for Dimensional Measurement in CMM having Vision Probe)

  • 이일환;박희재;김구영
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 1995년도 추계학술대회 논문집
    • /
    • pp.379-383
    • /
    • 1995
  • In this paper, vision inspection module for dimensional measurement has been developed. For high accuracy of CMM, camera calibration and edge detection with subpixel accuracy have been implemented. In measurement process, the position of vision probe can be recognized in PC by serial communication with CMM controller. The developed vision inspection module can be widely applied to the practical measurement process.

  • PDF

사진측량과 컴퓨터비전 간의 카메라 렌즈왜곡 변환 (Conversion of Camera Lens Distortions between Photogrammetry and Computer Vision)

  • 홍송표;최한승;김의명
    • 한국측량학회지
    • /
    • 제37권4호
    • /
    • pp.267-277
    • /
    • 2019
  • 사진측량과 컴퓨터비전 분야는 카메라에서 촬영된 영상에서 3차원 좌표를 결정하는 것은 동일하지만 두 분야는 카메라 렌즈왜곡 모델링 방법과 카메라 좌표계의 차이점으로 인하여 서로 간에 직접적인 호환이 어렵다. 일반적으로 드론 영상의 자료처리는 컴퓨터비전 기반의 소프트웨어를 이용하여 번들블록조정을 수행한 후 지도제작을 위해서 사진측량 기반의 소프트웨어로 도화를 수행하게 된다. 이때 카메라 렌즈왜곡의 모델을 사진측량에서 사용하는 수식으로 변환해야 하는 문제에 직면하게 된다. 이에 본 연구에서는 사진측량과 컴퓨터비전에서 사용되는 좌표계와 렌즈왜곡 모델식의 차이점에 대하여 기술하고 이를 변환하는 방법론을 제안하였다. 카메라 렌즈왜곡 모델의 변환식의 검증을 위해서 먼저 렌즈왜곡이 없는 가상의 좌표에 컴퓨터비전 기반의 렌즈왜곡 모델을 이용하여 렌즈왜곡을 부여하였다. 그리고 나서 렌즈왜곡이 부여된 사진좌표를 이용하여 사진측량 기반의 렌즈왜곡 모델을 이용하여 왜곡계수를 결정한 후 사진좌표에서 렌즈왜곡을 제거하여 원래의 왜곡이 없는 가상좌표와 비교하였다. 그 결과 평균제곱근거리가 0.5픽셀 이내로 양호한 것으로 나타났다. 또한 사진측량용 렌즈왜곡 계수를 적용하여 정밀도화 가능여부를 판단하기 위해서 에피폴라 영상을 생성하였다. 생성된 에피폴라 영상에서 y-시차의 평균제곱근오차가 계산한 결과 0.3픽셀 이내로 양호하게 나타났음을 알 수 있었다.

PCB 패턴 검출을 위한 FPGA 기반 패턴 매칭 시스템 구현 (An Impletation of FPGA-based Pattern Matching System for PCB Pattern Detection)

  • 정광성;문철홍
    • 한국전자통신학회논문지
    • /
    • 제11권5호
    • /
    • pp.465-472
    • /
    • 2016
  • 본 논문에서는 PCB(: Printed Circuit Board) 패턴 검출을 위하여 Camera Link(Medium)을 지원하는 FPGA 기반 패턴 매칭 시스템을 구현하였다. 최근 생산되고 있는 PCB 패턴은 고집적화 시스템을 위해 점점 미세해지고 복잡해지고 있다. PCB 생산 공정의 비전 자동화를 위하여 고속 처리가 가능한 FPGA 기반 시스템을 제작하였고, 패턴 검출을 위해 사용되는 비전 라이브러리를 IP(: Intellectual property)로 구현하였다. 구현한 IP는 Camera Link IP, 패턴 매칭 IP, VGA IP, 에지 검출 IP, 메모리 IP이다.

스테레오 카메라와 2축 회전기구를 이용한 대형 이동물체의 치수측정 (Dimension Measurement for Large-scale Moving Objects Using Stereo Camera with 2-DOF Mechanism)

  • 응후쿠옹;이병룡
    • 한국정밀공학회지
    • /
    • 제32권6호
    • /
    • pp.543-551
    • /
    • 2015
  • In this study, a novel method for dimension measurement of large-scale moving objects using stereo camera with 2-degree of freedom (2-DOF) mechanism is presented. The proposed method utilizes both the advantages of stereo vision technique and the enlarged visibility range of camera due to 2-DOF rotary mechanism in measuring large-scale moving objects. The measurement system employs a stereo camera combined with a 2-DOF rotary mechanism that allows capturing separate corners of the measured object. The measuring algorithm consists of two main stages. First, three-dimensional (3-D) positions of the corners of the measured object are determined based on stereo vision algorithms. Then, using the rotary angles of the 2-DOF mechanism the dimensions of the measured object are calculated via coordinate transformation. The proposed system can measure the dimensions of moving objects with relatively slow and steady speed. We showed that the proposed system guarantees high measuring accuracy with some experiments.

천정부착 랜드마크와 광류를 이용한 단일 카메라/관성 센서 융합 기반의 인공위성 지상시험장치의 위치 및 자세 추정 (Pose Estimation of Ground Test Bed using Ceiling Landmark and Optical Flow Based on Single Camera/IMU Fusion)

  • 신옥식;박찬국
    • 제어로봇시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.54-61
    • /
    • 2012
  • In this paper, the pose estimation method for the satellite GTB (Ground Test Bed) using vision/MEMS IMU (Inertial Measurement Unit) integrated system is presented. The GTB for verifying a satellite system on the ground is similar to the mobile robot having thrusters and a reaction wheel as actuators and floating on the floor by compressed air. The EKF (Extended Kalman Filter) is also used for fusion of MEMS IMU and vision system that consists of a single camera and infrared LEDs that is ceiling landmarks. The fusion filter generally utilizes the position of feature points from the image as measurement. However, this method can cause position error due to the bias of MEMS IMU when the camera image is not obtained if the bias is not properly estimated through the filter. Therefore, it is proposed that the fusion method which uses the position of feature points and the velocity of the camera determined from optical flow of feature points. It is verified by experiments that the performance of the proposed method is robust to the bias of IMU compared to the method that uses only the position of feature points.

Appearance Based Object Identification for Mobile Robot Localization in Intelligent Space with Distributed Vision Sensors

  • Jin, TaeSeok;Morioka, Kazuyuki;Hashimoto, Hideki
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제4권2호
    • /
    • pp.165-171
    • /
    • 2004
  • Robots will be able to coexist with humans and support humans effectively in near future. One of the most important aspects in the development of human-friendly robots is to cooperation between humans and robots. In this paper, we proposed a method for multi-object identification in order to achieve such human-centered system and robot localization in intelligent space. The intelligent space is the space where many intelligent devices, such as computers and sensors, are distributed. The Intelligent Space achieves the human centered services by accelerating the physical and psychological interaction between humans and intelligent devices. As an intelligent device of the Intelligent Space, a color CCD camera module, which includes processing and networking part, has been chosen. The Intelligent Space requires functions of identifying and tracking the multiple objects to realize appropriate services to users under the multi-camera environments. In order to achieve seamless tracking and location estimation many camera modules are distributed. They causes some errors about object identification among different camera modules. This paper describes appearance based object representation for the distributed vision system in Intelligent Space to achieve consistent labeling of all objects. Then, we discuss how to learn the object color appearance model and how to achieve the multi-object tracking under occlusions.