• 제목/요약/키워드: Fish-eye lens

검색결과 37건 처리시간 0.019초

이동로봇의 자동충전을 위한 어안렌즈 카메라의 보정 및 인공표지의 검출 (Fish-eye camera calibration and artificial landmarks detection for the self-charging of a mobile robot)

  • 권오상
    • 센서학회지
    • /
    • 제14권4호
    • /
    • pp.278-285
    • /
    • 2005
  • This paper describes techniques of camera calibration and artificial landmarks detection for the automatic charging of a mobile robot, equipped with a fish-eye camera in the direction of its operation for movement or surveillance purposes. For its identification from the surrounding environments, three landmarks employed with infrared LEDs, were installed at the charging station. When the robot reaches a certain point, a signal is sent to the LEDs for activation, which allows the robot to easily detect the landmarks using its vision camera. To eliminate the effects of the outside light interference during the process, a difference image was generated by comparing the two images taken when the LEDs are on and off respectively. A fish-eye lens was used for the vision camera of the robot but the wide-angle lens resulted in a significant image distortion. The radial lens distortion was corrected after linear perspective projection transformation based on the pin-hole model. In the experiment, the designed system showed sensing accuracy of ${\pm}10$ mm in position and ${\pm}1^{\circ}$ in orientation at the distance of 550 mm.

비대칭 왜곡 어안렌즈를 위한 영상 손실 최소화 왜곡 보정 기법 (Image Data Loss Minimized Geometric Correction for Asymmetric Distortion Fish-eye Lens)

  • 조영주;김성희;박지영;손진우;이중렬;김명희
    • 한국시뮬레이션학회논문지
    • /
    • 제19권1호
    • /
    • pp.23-31
    • /
    • 2010
  • 180도 이상의 영역을 획득하는 어안렌즈(fisheye lens)는 최소의 카메라로 최대 시야각을 확보할 수 있는 장점으로 인해 차량 장착 시도가 늘고 있다. 이와 같이 어안렌즈를 통해 시야를 확보하고, 영상센서로 사용하기 위해서는 캘리브레이션 작업이 선행되어야 하며, 운전자에게 현실감 있는 영상을 제공하기 위해서는 이를 이용하여 방사왜곡(radial distortion)에 따른 기하학적인 왜곡 보정이 필요하다. 본 논문에서는 비대칭 왜곡을 가진 180도 이상 화각의 차량용 대각선 어안렌즈를 위해 영상 손실을 최소화하는 왜곡 보정 기법을 제안한다. 왜곡 보정은 왜곡 모델이 포함된 카메라 모델을 설정하고 캘리브레이션 과정을 통해 카메라 파라미터를 구한 후 왜곡이 보정된 뷰를 생성하는 과정으로 이루어진다. 먼저 왜곡모델로서 비선형의 왜곡 형상을 모방한 FOV(Field of View)모델을 사용한다. 또한 비대칭 왜곡렌즈의 경우 운전자의 좌우 시야각 확보에 중점을 두어 수직 화각보다 수평 화각이 크게 설계되었기 때문에 영상의 장축, 단축의 비율을 일치시킨 후 비선형 최적화 알고리즘을 사용하여 카메라 파라미터를 추정한다. 최종적으로 왜곡이 보정된 뷰 생성 시 역방향 사상과 함께 수평, 수직 방향에 대한 왜곡 보정 정도를 제어 가능하도록 함으로써 화각이 180도 이상인 영상에 대해서 핀홀 카메라 모델을 적용하여 2차원 평면으로 영상을 보정하는 경우 발생하는 영상 손실을 최소화하고 시각적 인지도를 높일 수 있도록 하였다.

타원체 모형을 통한 어안 영상 보정 (Fisheye Image Correction with Ellipsoid Model)

  • 김현태
    • 한국전자통신학회논문지
    • /
    • 제10권2호
    • /
    • pp.177-182
    • /
    • 2015
  • 어안렌즈의 특성으로 인해 발생하는 왜곡을 보정하는 일반적인 방법은 크게 두 가지 방법으로 분류할 수 있다. 첫 번째 방법은 렌즈의 특성을 고려한 수학적 모델링을 통한 보정 방법이고, 두 번째 방법은 렌즈의 종류와 상관없이 획득되는 영상만을 통한 보정 방법이다. 렌즈의 특성을 고려하는 경우는 렌즈의 파라미터와 실세계에 존재하는 3차원 실세계좌표와 2차원 영상좌표의 관계를 통해 기하학적으로 보정 식을 구할 수 있다. 그러나 기존 어안렌즈 보정에 관한 논문들은 구형태의 어안렌즈를 기준으로 유도되었기 때문에 타원체 형태의 어안렌즈에 대해서는 맞지 않는다. 본 논문에서는 어안렌즈를 타원체로 모델링하여 기하학적으로 보정하는 방법을 제안한다. 보정한 결과를 통해 제안한 방법이 타당한 것을 확인할 수 있다.

어안 렌즈를 이용한 파노라마 시스템 개발에 관한 연구 (The Development of a Panorama System with Fish-Eye Lens)

  • 이운근;조석빈;백광렬;강범수
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2428-2430
    • /
    • 2001
  • 일반적인 카메라의 시야는 사람에 비하여 매우 좁기 때문에 큰 물체를 한 화면으로 얻기 힘들며, 그 움직임도 넓게 감시하기 어려움 점이 많다. 이에 본 논문에서는 어안 렌즈(Fish-Eye Lens)를 사용하여 넓은 시야의 영상을 획득하여 perspective 영상과 panorama 영상을 실시간 복원하는 파노라마 시스템을 구현하였다. 또한 어안 렌즈의 특성으로 인한 영상 변환과정에서 발생되는 해상도 차이를 보완하기 위하여 여러 가지 interpolation 방법을 적용하여 이의 결과를 비교하였다.

  • PDF

어안 이미지 기반의 움직임 추정 기법을 이용한 전방향 영상 SLAM (Omni-directional Vision SLAM using a Motion Estimation Method based on Fisheye Image)

  • 최윤원;최정원;대염염;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.868-874
    • /
    • 2014
  • This paper proposes a novel mapping algorithm in Omni-directional Vision SLAM based on an obstacle's feature extraction using Lucas-Kanade Optical Flow motion detection and images obtained through fish-eye lenses mounted on robots. Omni-directional image sensors have distortion problems because they use a fish-eye lens or mirror, but it is possible in real time image processing for mobile robots because it measured all information around the robot at one time. In previous Omni-Directional Vision SLAM research, feature points in corrected fisheye images were used but the proposed algorithm corrected only the feature point of the obstacle. We obtained faster processing than previous systems through this process. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we remove the feature points of the floor surface using a histogram filter, and label the candidates of the obstacle extracted. Third, we estimate the location of obstacles based on motion vectors using LKOF. Finally, it estimates the robot position using an Extended Kalman Filter based on the obstacle position obtained by LKOF and creates a map. We will confirm the reliability of the mapping algorithm using motion estimation based on fisheye images through the comparison between maps obtained using the proposed algorithm and real maps.

어안렌즈 카메라 영상과 투시영상을 이용한 기절동작 인식 (Fall Detection based on Fish-eye Lens Camera Image and Perspective Image)

  • 소인미;김영운;강선경;한대경;정성태
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (C)
    • /
    • pp.468-471
    • /
    • 2008
  • 이 논문은 응급상황을 인식하기 위하여 어안렌즈를 통해 획득된 영상을 이용하여 기절 동작을 인식하는 방법을 제안한다. 거실의 천장 중앙에 위치한 어안렌즈(fish-eye lens)를 장착한 카메라로부터 화각이 170인 RGB 컬러 모델의 어안 영상을 입력 받은 뒤, 가우시안 혼합 모델 기반의 적응적 배경 모델링 방법을 이용하여 동적으로 배경 영상을 갱신한다. 입력 영상의 평균 밝기를 구하고 평균 밝기가 급격하게 변화하지 않도록 영상 픽셀을 보정한 뒤, 입력 영상과 배경 영상과 차이가 큰 픽셀을 찾음으로써 움직이는 객체를 추출하였다. 그리고 연결되어 있는 전경 픽셀 영역들의 외곽점들을 추적하여 타원으로 매핑하고 움직이는 객체 영역의 형태를 단순화하였다. 이 타원을 추적하면서 어안 렌즈 영상을 투시 영상으로 변환한 다음 타원의 크기 변화, 위치 변화, 이동 속도 정보를 추출하여 이동과 정지 및 움직임이 기절동작과 유사한지를 판단하도록 하였다. 본 논문에서는 실험자로 하여금 기절동작, 걷기 동작, 앉기 동작 등 여러 동작을 취하게 하고 기절 동작 인식을 실험하였다. 실험 결과 어안 렌즈 영상을 그대로 사용하는 것보다 투시 영상으로 변환하여 타원의 크기변화, 위치변화, 이동속도 정보를 이용하는 것이 높은 인식률을 보였다.

  • PDF

실사 가상환경 항해를 위해 Spheroid를 이용한 어안렌즈의 왜곡보정 (Using Spheroid Fish-eye Lens Distortion Correction for Image-based Virtual Environment Navigation)

  • 신주홍;남동환;권기준;정순기
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 추계학술발표논문집(상)
    • /
    • pp.829-832
    • /
    • 2004
  • 실제영상으로 가상환경을 구축해서 사용자가 가상환경을 돌아다님으로써 보다 큰 몰입감과 현실감을 제공하는 영상기반 가상현실 기술은 최근 들어 웹 기반 가상현실시스템을 구축하기 위해서 많이 사용된다. 이 기술은 가상환경 구축에 있어 항해를 쉽게 하기 위한 한 방법으로 넓은 시각 영역(field of view)을 얻을 수 있는 wide-angle 렌즈를 흔히 사용한다. 어안렌즈(fish-eye lens)는 전형적인 넓은 시각 영역을 가진 렌즈로서, 매우 큰 radial distortion 을 가진다. 왜곡을 없앤 영상을 얻기 위해 본 논문에서는 구면기하(spherical geometry) 및 사영기하(projective geometry)를 사용하여 어안영상을 보정하는 non-metric기법을 제안한다. 제안한 이 방법은, 기존의 방법들 보다는 쉽고 빠른 속도로 왜곡을 보정할 수 있으므로 어안영상의 왜곡을 보정하는 하드웨어를 효율적으로 구현할 수 있다. 그리고 spheroid 를 이용해 좀 더 왜곡을 정확히 보정방법과 별도의 서보 모터 없이 pan/title 를 가능케 하는 시점이동에 따른 왜곡 보정 방법을 제시한다.

  • PDF

Phrixocephalus umbellatus (Copepoda : Lernaeidae) from Marine Fish, Branchiostegus japonicus of the Korea Southern Sea

  • Choi, Sang-Duk;Lee, Chang-Hoon;Chang, Dae-Soo;Ha, Dong-Soo
    • 한국양식학회지
    • /
    • 제13권1호
    • /
    • pp.9-12
    • /
    • 2000
  • A species of the parasitic copepods Phrixcephalus unbellatus (Lernaeide ; Cyclopoidea) from Branchiostegus japonicus is described and reported for the first time in Korea. The parasite was recovered from the eye of host. P. umbellatus was easily identified by the body shape extensive ramification of the antennal processes and numerous branches on the thoracic horns, The parasite inserted its head and the anterior portion of thorax up to the 4th segment in the eye ball of the host through a narrow hole which it usually burrowed near the upper margin of the cornea above the crystalline lens. Prevaklence of the parasite increased from 3.3% January to 11.9% in June.

  • PDF

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.

Creation of 3D Maps for Satellite Communications to Support Ambulatory Rescue Operations

  • Nakajima, Isao;Nawaz, Muhammad Naeem;Juzoji, Hiroshi;Ta, Masuhisa
    • Journal of Multimedia Information System
    • /
    • 제6권1호
    • /
    • pp.23-30
    • /
    • 2019
  • A communications profile is a system that acquires information from communication links to an ambulance or other vehicle moving on a road and compiles a database based on this information. The equipment (six sets of HDTVs, fish-eye camera, satellite antenna with tracking system, and receiving power from the satellite beacon of the N-star) mounted on the roof of the vehicle, image data were obtained at Yokohama Japan. From these data, the polygon of the building was actually produced and has arranged on the map of the Geographical Survey Institute of a 50 m-mesh. The optical study (relationship between visibility rate and elevation angle) were performed on actual data taken by fish-eye lens, and simulated data by 3D-Map with polygons. There was no big difference. This 3D map system then predicts the communication links that will be available at a given location. For line-of-sight communication, optical analysis allows approximation if the frequency is sufficiently high. For non-line-of-sight communication, previously obtained electric power data can be used as reference information for approximation in certain cases when combined with predicted values calculated based on a 3D map. 3D maps are more effective than 2D maps for landing emergency medical helicopters on public roadways in the event of a disaster. Using advanced imaging technologies, we have produced a semi-automatic creation of a high-precision 3D map at Yokohama Yamashita Park and vicinity and assessed its effectiveness on telecommunications and ambulatory merits.