• 제목/요약/키워드: $360^{\circ}$ Lens Distortion

검색결과 7건 처리시간 0.02초

소형 360° 구강 스캐너 렌즈 모듈 개발 (The Developement of Small 360° Oral Scanner Lens Module)

  • 곽동훈;이선구;이승호
    • 전기전자학회논문지
    • /
    • 제22권3호
    • /
    • pp.858-861
    • /
    • 2018
  • 본 논문에서는 소형 $360^{\circ}$ 구강 스캐너 렌즈 모듈의 개발을 제안한다. 제안하는 소형 $360^{\circ}$ 구강 스캐너 렌즈 모듈은 소형 $360^{\circ}$ 고해상도(4MegaPixel) 렌즈 광학계, 15mm 이미지 센서부, 소형 $360^{\circ}$ 구강 스캐너 렌즈 외형 등으로 구성된다. 소형 $360^{\circ}$ 고해상도 렌즈 광학계는 총 9매의 렌즈로 어린이부터 성년까지 전 연령에 걸쳐 사용이 가능하도록 렌즈 외경을 15mm 이하로 제작한다. 소형 $360^{\circ}$ 고해상도 렌즈 광학계에 의해 입사되는 빛을 $90^{\circ}$ 굴곡을 시켜 이미지 센서에 영상 이미지를 전달하게 한다. 15mm 이미지 센서부는 이미지 센서의 열, 행 주소를 통해 이미지 배열을 거친 후 전압으로 변환된 값을 임베디드 보드의 ISP(Image Signal Processor)에 전송한다. 소형 $360^{\circ}$ 구강 스캐너 렌즈 외형은 개발된 렌즈의 고정을 위하여 경통을 설계하였다. 제안된 소형 $360^{\circ}$ 구강 스캐너 렌즈 모듈의 성능을 평가하기 위하여 공인시험기관에서 실험한 결과, $360^{\circ}$ 렌즈 광학계 분해능은 150cycles/mm에서 30% 이상, $360^{\circ}$ 렌즈 화각은 수평은 $360^{\circ}$, 수직은 $42^{\circ}{\sim}85^{\circ}$, 렌즈 왜곡률은 5% 이하의 세계최고 수준과 동일한 결과를 산출하였다.

1200만 화소의 고해상도 360° 전방위 IP 카메라 개발 (Development of 360° Omnidirectional IP Camera with High Resolution of 12Million Pixels)

  • 이희열;이선구;이승호
    • 전기전자학회논문지
    • /
    • 제21권3호
    • /
    • pp.268-271
    • /
    • 2017
  • 본 논문에서는 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라의 개발을 제안한다. 제안하는 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라는 $360^{\circ}$ 전방위 시야각의 렌즈 부와 1200만 화소 고해상도 IP 카메라 부로 구성된다. $360^{\circ}$ 전방위 시야각의 렌즈 부는 등사영 렌즈 설계방식과 catadioptric 면 제작방식을 적용하여 어안 렌즈에서 필연적으로 발생되고 있는 주변부 왜곡현상이 없는 화상을 얻을 수 있도록 한다. 1200만 화소 고해상도 IP 카메라 부는 CMOS 센서 & ISP 부, DSP 부, I/O 부 등으로 구성하여 카메라에 들어온 영상을 디지털 영상으로 변환하여 영상 왜곡 보정, 영상 보정, 영상 압축 등의 기능 등을 수행한 후에, NVR(Network Video Recorder)에 전송한다. 제안된 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라의 성능을 평가하기 위하여 외부시험기관에서 실험한 결과, 1200만 화소의 영상효율, $360^{\circ}$ 전방위 렌즈 화각, 전자파 인증 규격 등이 목표값에 적합하게 측정됨이 확인되었다.

360° 카메라 영상의 효율적인 스티칭 기법에 관한 연구 (A Study on Effective Stitching Technique of 360° Camera Image)

  • 이랑구;정진헌
    • 디지털융복합연구
    • /
    • 제16권2호
    • /
    • pp.335-341
    • /
    • 2018
  • 본 연구는 두 개의 어안렌즈로 구성된 이안식 일체형 $360^{\circ}$ 카메라로 촬영한 영상의 효율적인 스티칭 기법에 관한 연구이다. 먼저, 기본적으로 제공되는 번들 프로그램의 스티칭 결과물의 문제점을 찾아보고, 전문 스티칭 프로그램인 Autopano Video Pro와 Autopano Giga를 사용한 스티칭 결과를 비교 분석하여, 보다 효율적이고 완성도 높은 스티칭 기법을 찾아내는 것에 중점을 두고 연구하였다. 그 결과 번들 프로그램의 문제점으로는 수평과 수직의 왜곡, 노출과 컬러의 불일치, 그리고 매끄럽지 못한 스티칭 라인 등이 나타났으며, Autopano Video Pro와 Autopano Giga의 Automatic Horizon과 Verticals Tool로 수평과 수직을, Levels와 Color 및 Edit Color Anchors로 노출과 컬러를, 그리고 Mask 기능으로 스티칭 라인의 문제를 해결할 수 있었다. 본 연구를 바탕으로 향후 이안식 일체형 $360^{\circ}$ 카메라 촬영 영상의 효율적인 스티칭 기법으로 더욱 완성도 높은 $360^{\circ}$ VR 영상 콘텐츠를 제작할 수 있을 것으로 기대한다.

국내 시판 안경렌즈의 성능 분석 및 설계 (The Performance Analysis and Design of Selling Spectacle Lenses in Domestic Market)

  • 김세진;임현선
    • 한국안광학회지
    • /
    • 제15권4호
    • /
    • pp.355-360
    • /
    • 2010
  • 목적: 국내에서 시판되는 안경렌즈의 성능을 분석하고 최적화 설계로 수차가 보정된 안경렌즈를 설계하였다. 방법: 굴절률 1.6의 재질을 갖는 4개 회사의 ${\pm}$5.00D의 구면 렌즈와 비구면 렌즈의 중심두께, 곡률반경, 비구면 계수를 측정하였다. Mitutoyo사의 ID-F150으로 중심두께를 측정하였고, Automation Robotics사의 FOCOVISION(SR-2)를 이용하여 곡률반경을 측정하였다. 비구면 계수는 Taylor Hobson사의 PGI 1240S로 측정하였다. 렌즈 후면부터 눈의 회선점까지의 거리 27 mm, 동공직경 4 mm, 중심시야 $30^{\circ}$에서 적은 양의 수차를 갖는 안경렌즈를 설계하였다. 측정 렌즈보다 Axial height를 짧게 함으로써 미용 상의 이점을 높였다. 설계에는 ORA사의 Code V를 이용했다. 결과: -5.00D 비구면 렌즈는 구면 렌즈보다 비점수차와 왜곡수차는 약간 크게 나타났으나 Axial height가 짧고 가장자리 두께가 감소하여 미용 상의 장점이 있다. +5.00D 비구면 렌즈는 왜곡수차의 성능이 향상되고 (-)렌즈와 마찬가지로 Axial height와 중심두께의 감소로 미용 상의 장점을 확인하였다. 최적화 과정을 통한 전면 비구면 렌즈는 비점수차와 왜곡수차가 측정 구면 렌즈보다 좋은 성능과 미용 상의 장점을 확인할 수 있다. 결론: 국내에서 시판되는 비구면 렌즈는 수차의 성능보다는 미용 상의 장점을 키우는 Axial height의 감소와 두께의 감소에 주안점을 둔전면 비구면 설계가 이뤄지고 있다. 최적화 설계이론을 통해 측정렌즈보다 향상된 수차성능과 미용 상의 이점을 모두 갖는 전면 비구면 안경렌즈의 설계를 하였다. 후면 비구면 렌즈의 설계를 통해 전면 비구면 렌즈보다 향상된 성능을 얻을 수 있음을 기대할 수 있다.

어안 이미지 기반의 움직임 추정 기법을 이용한 전방향 영상 SLAM (Omni-directional Vision SLAM using a Motion Estimation Method based on Fisheye Image)

  • 최윤원;최정원;대염염;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.868-874
    • /
    • 2014
  • This paper proposes a novel mapping algorithm in Omni-directional Vision SLAM based on an obstacle's feature extraction using Lucas-Kanade Optical Flow motion detection and images obtained through fish-eye lenses mounted on robots. Omni-directional image sensors have distortion problems because they use a fish-eye lens or mirror, but it is possible in real time image processing for mobile robots because it measured all information around the robot at one time. In previous Omni-Directional Vision SLAM research, feature points in corrected fisheye images were used but the proposed algorithm corrected only the feature point of the obstacle. We obtained faster processing than previous systems through this process. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we remove the feature points of the floor surface using a histogram filter, and label the candidates of the obstacle extracted. Third, we estimate the location of obstacles based on motion vectors using LKOF. Finally, it estimates the robot position using an Extended Kalman Filter based on the obstacle position obtained by LKOF and creates a map. We will confirm the reliability of the mapping algorithm using motion estimation based on fisheye images through the comparison between maps obtained using the proposed algorithm and real maps.

왜곡된 전 방향 영상에서의 좌표 변환 및 보정 (Coordinates Transformation and Correction Techniques of the Distorted Omni-directional Image)

  • 차선희;박용민;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.816-819
    • /
    • 2005
  • 본 논문에서는 카타디옵트릭 카메라를 사용할 때 발생하는 공간 왜곡 문제를 해결하기 위해 3차원 포물면 좌표 변환 함수와 신경회로망을 이용한 좌표 변환 및 보정 기법을 제안한다. 본 연구에서 사용하는 포물면 거울을 이용한 카타디옵트릭 카메라는 360$^{\circ}$의 전 방향 영상을 얻을 수 있으나, 렌즈의 외형에 의해 영상이 왜곡되어 나타나는 특징을 가지고 있다. 따라서 3차원 공간상에서 왜곡 영상에서의 좌표를 실제 거리 좌표로 변환하기 위해 포물면 거울 초점과 이미지 상의 좌표를 포물면 거울 위로 투영시킨 좌표를 이용한 좌표 변환 함수를 사용한다. 이 과정에서 발생하는 오차를 BP(Back propagation) 신경망 알고리즘으로 수정한다.

  • PDF

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.