• 제목/요약/키워드: fish eye lens

검색결과 37건 처리시간 0.02초

어안 영상을 이용한 물체 추적 기반의 한 멀티로봇의 대형 제어 (Multi-robot Formation based on Object Tracking Method using Fisheye Images)

  • 최윤원;김종욱;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.547-554
    • /
    • 2013
  • This paper proposes a novel formation algorithm of identical robots based on object tracking method using omni-directional images obtained through fisheye lenses which are mounted on the robots. Conventional formation methods of multi-robots often use stereo vision system or vision system with reflector instead of general purpose camera which has small angle of view to enlarge view angle of camera. In addition, to make up the lack of image information on the environment, robots share the information on their positions through communication. The proposed system estimates the region of robots using SURF in fisheye images that have $360^{\circ}$ of image information without merging images. The whole system controls formation of robots based on moving directions and velocities of robots which can be obtained by applying Lucas-Kanade Optical Flow Estimation for the estimated region of robots. We confirmed the reliability of the proposed formation control strategy for multi-robots through both simulation and experiment.

IMPLEMENTATION OFWHOLE SHAPE MEASUREMENT SYSTEM USING A CYLINDRICAL MIRROR

  • Uranishi, Yuki;Manabe, Yoshitsugu;Sasaki, Hiroshi;Chihara, Kunihiro
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.601-605
    • /
    • 2009
  • We have proposed a measurement system for measuring a whole shape of an object easily. The proposed system consists of a camera and a cylinder whose inside is coated by a mirror layer. A target object is placed inside the cylinder and an image is captured by the camera from right above. The captured image includes sets of points that are observed from multiple viewpoints: one is observed directly, and others are observed via the mirror. Therefore, the whole shape of the object can be measured using stereo vision in a single shot. This paper shows that a prototype of the proposed system was implemented and an actual object was measured using the prototype. A method based on a pattern matching which uses a value of SSD (Sum of Squared Difference), and a method based on DP (Dynamic Programming) are employed to identify a set of corresponding points in warped captured images.

  • PDF

정밀조도정보를 이용한 전천카메라 기반의 주·야간 구름영상촬영용 원형장치 개발 (Development of A Prototype Device to Capture Day/Night Cloud Images based on Whole-Sky Camera Using the Illumination Data)

  • 이재원;박인춘;조정호;기균도;김영철
    • 대기
    • /
    • 제28권3호
    • /
    • pp.317-324
    • /
    • 2018
  • In this study, we review the ground-based whole-sky camera (WSC), which is developed to continuously capture day and night cloud images using the illumination data from a precision Lightmeter with a high temporal resolution. The WSC is combined with a precision Lightmeter developed in IYA (International Year of Astronomy) for analysis of an artificial light pollution at night and a DSLR camera equipped with a fish-eye lens widely applied in observational astronomy. The WSC is designed to adjust the shutter speed and ISO of the equipped camera according to illumination data in order to stably capture cloud images. And Raspberry Pi is applied to control automatically the related process of taking cloud and sky images every minute under various conditions depending on illumination data from Lightmeter for 24 hours. In addition, it is utilized to post-process and store the cloud images and to upload the data to web page in real time. Finally, we check the technical possibility of the method to observe the cloud distribution (cover, type, height) quantitatively and objectively by the optical system, through analysis of the captured cloud images from the developed device.

유비쿼터스 이동로봇용 천장 인공표식을 이용한 비젼기반 자기위치인식법 (Vision-based Self Localization Using Ceiling Artificial Landmark for Ubiquitous Mobile Robot)

  • 이주상;임영철;유영재
    • 한국지능시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.560-566
    • /
    • 2005
  • 본 논문은 유비쿼터스 이동로봇의 자기위치인식에 적용되는 비젼시스템의 왜곡된 영상을 보정하기 위한 실용적인 방법을 제안하다. 이동로봇에서 자기위치인식은 필수적인 요소이며 카메라 비젼시스템을 이용하여 처리 가능하다. 자기위치인식에서 비젼시스템은 넓은 시야를 확보하기 위해 어안렌즈를 이용하는데, 이는 영상의 왜곡을 발생한다. 또한 이동로봇은 지속적인 움직임을 가지므로 빠른 시간 내에 영상을 처리하여 자기위치를 인식해야 한다. 따라서 이동로봇에 적용 가능한 실용적인 영상왜곡 보정기법을 제안하고 실험을 통하여 성능을 검증한다.

VR 영상 콘텐츠 제작에 유용한 360도 이미지 제작 방법에 관한 연구 (A Study on 360° Image Production Method for VR Image Contents)

  • 곽대위;정진헌
    • 디지털융복합연구
    • /
    • 제15권12호
    • /
    • pp.543-548
    • /
    • 2017
  • 360도 이미지는 대중에게 이전에 경험하지 못했던 특별한 시각적 경험을 제공한다. 360도 이미지를 제작할 수 있는 방법은 여러 가지가 있지만, 본 논문에서는 기존의 제작방식을 포함하여 간단하며 유효한 두 가지의 제작방법을 제시하고자 한다. 첫 번째 방법으로는 48장의 이미지를 합성하여 한 장의 360도 이미지를 만드는 것이고, 두 번째 방법으로는 6장의 이미지를 사용하여 한 장의 360도 이미지를 제작하는 것이다. 앞서 제시한 두 가지 제작 방식의 특징과 장단점의 비교를 통하여 더욱 간단하면서도 효율적인 제작방식을 선택할 수 있다. 소개를 통하여 제시되는 제작방법은 VR작품 제작의 문턱을 낮출 수 있으며, 일반인들도 360이미지 제작을 더욱 간편하게 할 수 있게 됨으로써 VR영상 콘텐츠 산업이 더욱 발전될 수 있을 것으로 기대한다.

개선된 영상 정보를 이용한 가혹한 환경에서의 후방 차량 감지 방법 (Rear Vehicle Detection Method in Harsh Environment Using Improved Image Information)

  • 정진성;김현태;장영민;조상복
    • 전자공학회논문지
    • /
    • 제54권1호
    • /
    • pp.96-110
    • /
    • 2017
  • 기존의 차량 검출 연구들의 대부분은 일반렌즈 또는 광각렌즈를 가지는 후방 카메라를 사용하기 때문에 사각지대가 넓으며, 영상에 노이즈 및 다양한 외부 환경에 취약한 부분이 있다. 본 논문에서는 사각지대를 줄이고, 노이즈 및 가혹한 외부 환경에서도 인식이 가능한 검출 방법을 제안한다. 먼저 광각렌즈보다 더 넓은 화각을 가진 어안렌즈를 이용해 사각지대를 최소화한다. 렌즈의 화각이 커진 만큼 비선형 방사왜곡도 커지게 되므로, 정확한 영상 결과를 얻기 위해서 왜곡 상수 초기화와 최적화를 실시한 후 Calibration을 이용하였다. 그리고 Calibration과 동시에 원본 영상을 분석하여 안개가 자욱한 상황과 갑작스러운 조도 변화로 인해 생기는 명순응, 암순응 현상에 의한 시야 방해 상황에서도 인식이 가능하도록 안개 제거와 밝기 보정을 이용하였다. 안개 제거는 일반적으로 계산 시간이 매우 크다. 따라서 계산 시간을 줄이기 위해 대표적인 안개 제거 알고리즘인 Dark channel prior를 기반으로 안개를 제거하였다. 밝기 보정 시에는 Gamma correction을 이용했고, 보정에 필요한 Gamma value를 결정하기 위해 영상에 대한 밝기 및 명암 평가가 수행하였다. 평가는 영상의 전체가 아닌 일부분을 이용하여 할애되는 계산시간을 줄였다. 밝기 및 명암 값이 계산되면 그 값을 이용해 Gamma value를 결정하고 전체 영상에 보정을 실시하였다. 그리고 밝기 보정과 안개 제거로 나누어 병렬 처리한 후, 영상을 하나로 정합함으로써 전 처리 과정의 연산시간을 줄였다. 이후 보정된 영상으로부터 특징추출법인 HOG를 이용하여 차량을 검출하였다. 그 결과 본 논문에서 제안하는 방법의 영상 보정을 이용한 차량 검출을 하는데 1프레임당 0.064초가 걸렸으며, 기존의 차량 검출 방법에 비해 7.5%의 향상된 검출률을 얻었다.

한국산 담수어류 버들붕어, Macropodus ocellatus (Pisces, Osphronemidae) 망막의 시각세포에 관한 연구 (Study on the Visual Cells in the Retina of Macropodus ocellatus (Pisces, Osphronemidae) Freshwater Fish from Korea)

  • 김재구;박종영
    • 한국어류학회지
    • /
    • 제29권3호
    • /
    • pp.218-223
    • /
    • 2017
  • 한국산 담수어류 버들붕어의 눈을 관찰하고 시각을 담당하는 망막의 시각세포 구조를 광학현미경과 주사전자현미경을 이용하여 조사하였다. 버들붕어는 구형의 수정체를 보유하고 있었으며, 각막은 노란색으로 확인하였다. 눈은 $3.5{\pm}0.2mm$의 크기였으며 두장/안경비는 $31.1{\pm}5.0$으로 비교적 큰 눈을 가지고 있었다. 버들붕어의 망막은 $158.2{\pm}10.6{\mu}m$의 두께였으며 시각세포층에는 간상세포 ($57.3{\pm}1.3$), 동형 이중원추세포($33.9{\pm}3.7$) 및 단일원추세포($27.8{\pm}1.6$)로 구성되어 있었으며 횡단면을 확인한 결과 정방형의 모자이크 모델을 보유하고 있었다. 모든 시각세포는 내절과 외절의 구분이 뚜렷하였으며 간상세포가 원추세포보다 더 길어 원추세포들의 외절과 외절사이에 간상세포의 내절이 존재하였다. 간상세포의 외절은 망막 색소상피층 아래까지 신장되어 있었다. 전자현미경을 통해 미세구조를 확인한 결과 원추세포와 간상세포 모두 내절과 외절을 연결하는 배상극이 관찰되었으며 간상세포 및 동형 이중원추세포의 형태가 뚜렷하게 구분되었다. 시각세포의 횡단면을 관찰한 결과 짧은 단일원추세포를 기준으로 상하좌우에 동형 이중원추세포가 정방형 배열을 하고 있었다.