• 제목/요약/키워드: $360^{\circ}$ Lens Angle

검색결과 6건 처리시간 0.018초

소형 360° 구강 스캐너 렌즈 모듈 개발 (The Developement of Small 360° Oral Scanner Lens Module)

  • 곽동훈;이선구;이승호
    • 전기전자학회논문지
    • /
    • 제22권3호
    • /
    • pp.858-861
    • /
    • 2018
  • 본 논문에서는 소형 $360^{\circ}$ 구강 스캐너 렌즈 모듈의 개발을 제안한다. 제안하는 소형 $360^{\circ}$ 구강 스캐너 렌즈 모듈은 소형 $360^{\circ}$ 고해상도(4MegaPixel) 렌즈 광학계, 15mm 이미지 센서부, 소형 $360^{\circ}$ 구강 스캐너 렌즈 외형 등으로 구성된다. 소형 $360^{\circ}$ 고해상도 렌즈 광학계는 총 9매의 렌즈로 어린이부터 성년까지 전 연령에 걸쳐 사용이 가능하도록 렌즈 외경을 15mm 이하로 제작한다. 소형 $360^{\circ}$ 고해상도 렌즈 광학계에 의해 입사되는 빛을 $90^{\circ}$ 굴곡을 시켜 이미지 센서에 영상 이미지를 전달하게 한다. 15mm 이미지 센서부는 이미지 센서의 열, 행 주소를 통해 이미지 배열을 거친 후 전압으로 변환된 값을 임베디드 보드의 ISP(Image Signal Processor)에 전송한다. 소형 $360^{\circ}$ 구강 스캐너 렌즈 외형은 개발된 렌즈의 고정을 위하여 경통을 설계하였다. 제안된 소형 $360^{\circ}$ 구강 스캐너 렌즈 모듈의 성능을 평가하기 위하여 공인시험기관에서 실험한 결과, $360^{\circ}$ 렌즈 광학계 분해능은 150cycles/mm에서 30% 이상, $360^{\circ}$ 렌즈 화각은 수평은 $360^{\circ}$, 수직은 $42^{\circ}{\sim}85^{\circ}$, 렌즈 왜곡률은 5% 이하의 세계최고 수준과 동일한 결과를 산출하였다.

1200만 화소의 고해상도 360° 전방위 IP 카메라 개발 (Development of 360° Omnidirectional IP Camera with High Resolution of 12Million Pixels)

  • 이희열;이선구;이승호
    • 전기전자학회논문지
    • /
    • 제21권3호
    • /
    • pp.268-271
    • /
    • 2017
  • 본 논문에서는 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라의 개발을 제안한다. 제안하는 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라는 $360^{\circ}$ 전방위 시야각의 렌즈 부와 1200만 화소 고해상도 IP 카메라 부로 구성된다. $360^{\circ}$ 전방위 시야각의 렌즈 부는 등사영 렌즈 설계방식과 catadioptric 면 제작방식을 적용하여 어안 렌즈에서 필연적으로 발생되고 있는 주변부 왜곡현상이 없는 화상을 얻을 수 있도록 한다. 1200만 화소 고해상도 IP 카메라 부는 CMOS 센서 & ISP 부, DSP 부, I/O 부 등으로 구성하여 카메라에 들어온 영상을 디지털 영상으로 변환하여 영상 왜곡 보정, 영상 보정, 영상 압축 등의 기능 등을 수행한 후에, NVR(Network Video Recorder)에 전송한다. 제안된 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라의 성능을 평가하기 위하여 외부시험기관에서 실험한 결과, 1200만 화소의 영상효율, $360^{\circ}$ 전방위 렌즈 화각, 전자파 인증 규격 등이 목표값에 적합하게 측정됨이 확인되었다.

LED 광원과 프레넬 렌즈를 이용한 중광도 항공장애등 광학계 설계 (Design of an Optical System for a Medium Luminous-Intensity Aircraft-Warning Light Using a LED Light Source and a Fresnel Lens)

  • 박현준;최성원;김종태
    • 새물리
    • /
    • 제68권11호
    • /
    • pp.1268-1274
    • /
    • 2018
  • 항공장애등이란 비행 중인 조종사에게 건축물이나 위험물의 존재를 알리기 위해 사용되는 등화를 말한다. 현재 대부분의 항공장애등의 광원은 발광다이오드(light-emitting diode, LED)로 대체되었고, 급격하게 확장 및 보급되었으나, 설치된 항공장애등이 광학적 성능 기준을 충족하지 못하여 항공 수송기기의 충돌 사고를 유발하고 있으며, 이러한 이유로 항공 안전상의 위험에 노출되어 있는 실정이다. 이러한 문제를 해결하기 위하여 본 연구에서는 $360^{\circ}$ 방향에서 동일한 광도 분포를 가지고, LED 광원에서 나오는 광선을 좁은 빔(beam) 발산각으로 시준할 수 있는 프레넬 렌즈(fresnel lens)를 각각의 비구면 조각의 집합 (array) 형태로 설계를 하였다. 그 후에, 렌즈 기울기(tilt), LED와 프레넬 렌즈 사이의 거리를 최적화하여 중심 광도 20,000 cd, $3^{\circ}$ 이상의 수직 빔 발산각을 구현하는 항공장애등 광학계 설계와 시뮬레이션을 진행하였다.

중심 구멍이 있는 구면거울과 평면거울을 이용한 가시광용 반사굴절식 전방위 광학계 (Catadioptric Omnidirectional Optical System Using a Spherical Mirror with a Central Hole and a Plane Mirror for Visible Light)

  • 서현진;조재흥
    • 한국광학회지
    • /
    • 제26권2호
    • /
    • pp.88-97
    • /
    • 2015
  • 전방위 광학계는 360도의 방위각과 지평선 위와 아래의 수직화각에 대한 상을 동시에 결상이 가능한 광학계이다. 본 논문에서는 제작을 쉽게 하면서 크기가 작아지도록 하기 위해서 가운데에 구멍이 뚫려있는 옵스큐레이션(obscuration)을 갖는 구면거울 1장과 평면거울 1장으로 이루어진 거울계 및 이 거울계에서 반사하여 구면거울의 옵스큐레이션을 통과한 시야각 범위 안의 광을 결상하는 구면렌즈 3개와 하나의 구면 이중렌즈로 구성된 결상렌즈계를 사용하는 가시광용 반사굴절식 전방위 광학계를 설계하고 제작하여 전방위 영상을 실제로 결상하였다. 그리고 자동차 앞, 뒷번호판의 영상을 보고 이 전방위 광학계의 통과 공간주파수를 측정하고, ISO 12233 차트의 영상으로부터 전방위 광학계의 수직화각을 측정하여 광학계의 성능을 평가하였다. 이 결과 전방위 광학계의 수직화각은 $+53^{\circ}{\sim}-17^{\circ}$이며, 방위각은 $360^{\circ}$이고, 3 m 거리에서 자동차 앞번호판의 숫자를 구별할 수 있었는데, 이는 135 lp/mm의 통과 공간주파수에 해당한다.

어안 영상을 이용한 물체 추적 기반의 한 멀티로봇의 대형 제어 (Multi-robot Formation based on Object Tracking Method using Fisheye Images)

  • 최윤원;김종욱;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제19권6호
    • /
    • pp.547-554
    • /
    • 2013
  • This paper proposes a novel formation algorithm of identical robots based on object tracking method using omni-directional images obtained through fisheye lenses which are mounted on the robots. Conventional formation methods of multi-robots often use stereo vision system or vision system with reflector instead of general purpose camera which has small angle of view to enlarge view angle of camera. In addition, to make up the lack of image information on the environment, robots share the information on their positions through communication. The proposed system estimates the region of robots using SURF in fisheye images that have $360^{\circ}$ of image information without merging images. The whole system controls formation of robots based on moving directions and velocities of robots which can be obtained by applying Lucas-Kanade Optical Flow Estimation for the estimated region of robots. We confirmed the reliability of the proposed formation control strategy for multi-robots through both simulation and experiment.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.