• 제목/요약/키워드: RGB sensor

검색결과 144건 처리시간 0.029초

마이크로 UAV 다중영상센서 페이로드개발과 정사영상제작 (The Development of a Multi-sensor Payload for a Micro UAV and Generation of Ortho-images)

  • 한승희
    • 대한토목학회논문집
    • /
    • 제34권5호
    • /
    • pp.1645-1653
    • /
    • 2014
  • 대부분의 지형정보획득을 위한 영상에는 RGB, 근적외선, 열영상이 주로 사용된다. 이 멀티밴드영상은 위성이나 유인항공기에 탑재되어 획득되고 있으나 주기해상도, 비용, 공간해상도, 그리고 구름의 영향 등으로 사용자를 만족시키기 어렵다. 자동항법UAV에 적합한 페이로드와 콘트롤러를 개발한다면 원하는 시간과 주기로 고해상도 멀티밴드영상을 획득할 수 있다. 본 연구에서는 멀티밴드 영상획득을 위한 센서와 페이로드의 개발을 통해 저가의 고해상 영상획득시스템을 구축하고 이를 이용하여 geo-referencing data와 함께 RGB, NIR과 열영상을 획득하였다. 획득한 RGB영상으로 정사모자익영상을 제작하여 검사점에 대한 위치정확도를 분석한 결과 수평좌표에서 0.181m, 수직좌표에서 0.203m의 편차를 얻을 수 있었다. 이는 1:1,000~5000수치지도제작과 소규모지역에 대한 원격탐측이 가능한 공간정확도를 만족하므로 페이로드의 활용성을 검증할 수 있었으며 활용이 기대된다.

The diagnosis of Plasma Through RGB Data Using Rough Set Theory

  • Lim, Woo-Yup;Park, Soo-Kyong;Hong, Sang-Jeen
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2009년도 제38회 동계학술대회 초록집
    • /
    • pp.413-413
    • /
    • 2010
  • In semiconductor manufacturing field, all equipments have various sensors to diagnosis the situations of processes. For increasing the accuracy of diagnosis, hundreds of sensors are emplyed. As sensors provide millions of data, the process diagnosis from them are unrealistic. Besides, in some cases, the results from some data which have same conditions are different. We want to find some information, such as data and knowledge, from the data. Nowadays, fault detection and classification (FDC) has been concerned to increasing the yield. Certain faults and no-faults can be classified by various FDC tools. The uncertainty in semiconductor manufacturing, no-faulty in faulty and faulty in no-faulty, has been caused the productivity to decreased. From the uncertainty, the rough set theory is a viable approach for extraction of meaningful knowledge and making predictions. Reduction of data sets, finding hidden data patterns, and generation of decision rules contrasts other approaches such as regression analysis and neural networks. In this research, a RGB sensor was used for diagnosis plasma instead of optical emission spectroscopy (OES). RGB data has just three variables (red, green and blue), while OES data has thousands of variables. RGB data, however, is difficult to analyze by human's eyes. Same outputs in a variable show different outcomes. In other words, RGB data includes the uncertainty. In this research, by rough set theory, decision rules were generated. In decision rules, we could find the hidden data patterns from the uncertainty. RGB sensor can diagnosis the change of plasma condition as over 90% accuracy by the rough set theory. Although we only present a preliminary research result, in this paper, we will continuously develop uncertainty problem solving data mining algorithm for the application of semiconductor process diagnosis.

  • PDF

RGB-Depth 카메라 기반의 실내 연기검출 (Smoke Detection Based on RGB-Depth Camera in Interior)

  • 박장식
    • 한국전자통신학회논문지
    • /
    • 제9권2호
    • /
    • pp.155-160
    • /
    • 2014
  • 본 논문에서 RGB-Depth 카메라를 이용하여 실내에서의 연기를 검출하는 알고리즘을 제안한다. RGB-Depth 카메라는 RGB 색영상과 깊이 정보를 제공한다. 키넥트(Kinect)는 특정한 패턴의 적외선을 출력하고 이를 적외선 카메라로 수집하고 분석하여 깊이 정보를 획득한다. 특정한 패턴을 구성하는 점들 각각에 대하여 거리를 측정하고 객체면의 깊이를 추정한다. 따라서, 이웃하는 점들의 깊이 변화가 많은 객체인 경우에는 객체면의 깊이를 결정하지 못한다. 연기의 농도가 일정 주파수로 변화하고, 적외선 영상의 이웃하는 화소간의 변화가 많기 때문에 키넥트가 깊이를 결정하지 못한다. 본 논문에서는 연기에 대한 키넥트의 특성을 이용하여 연기를 검출한다. 키넥트가 깊이를 결정하지 못한 영역을 후보영역으로 설정하고, 색영상의 밝기가 임계값보다 큰 경우 연기영역으로 결정한다. 본 논문에서는 시뮬레이션을 통하여 실내에서의 연기 검출에 RGB-Depth 카메라가 효과적임을 확인할 수 있다.

센서 융합 시스템을 이용한 심층 컨벌루션 신경망 기반 6자유도 위치 재인식 (A Deep Convolutional Neural Network Based 6-DOF Relocalization with Sensor Fusion System)

  • 조형기;조해민;이성원;김은태
    • 로봇학회논문지
    • /
    • 제14권2호
    • /
    • pp.87-93
    • /
    • 2019
  • This paper presents a 6-DOF relocalization using a 3D laser scanner and a monocular camera. A relocalization problem in robotics is to estimate pose of sensor when a robot revisits the area. A deep convolutional neural network (CNN) is designed to regress 6-DOF sensor pose and trained using both RGB image and 3D point cloud information in end-to-end manner. We generate the new input that consists of RGB and range information. After training step, the relocalization system results in the pose of the sensor corresponding to each input when a new input is received. However, most of cases, mobile robot navigation system has successive sensor measurements. In order to improve the localization performance, the output of CNN is used for measurements of the particle filter that smooth the trajectory. We evaluate our relocalization method on real world datasets using a mobile robot platform.

RGB/NIR CMOS 센서에서 정면 영상과 측면 영상을 동시에 결상하는 캡슐 내시경용 개선된 반사굴절식 전방위 광학계의 광학 설계 (Optical Design of a Modified Catadioptric Omnidirectional Optical System for a Capsule Endoscope to Image Simultaneously Front and Side Views on a RGB/NIR CMOS Sensor)

  • 홍영기;조재흥
    • 한국광학회지
    • /
    • 제32권6호
    • /
    • pp.286-295
    • /
    • 2021
  • RGB/NIR CMOS 센서를 사용하여 가시광에서의 정면 시야각과 가시광(RGB) 및 근적외선(near-infrared, NIR)에서의 측면 시야각을 갖는 캡슐 내시경용 개선된 반사굴절식 전방위 광학계(modified catadioptric omnidirectional optical system, MCOOS)를 설계한다. 전방 시야각 내의 영상은 반사굴절식 전방위 광학계(catadioptric omnidirectional optical system, COOS)의 부경 뒤에 배치된 3개의 추가된 렌즈와 COOS의 결상 렌즈계로 구성된 MCOOS의 전방 결상 렌즈계로 결상한다. 측면 영상은 COOS로부터 얻어진다. 이 센서에 대한 가시광과 근적외선에서의 나이퀴스트 주파수는 각각 90 lp/mm와 180 lp/mm이다. 설계 사양에서 전장길이, F-수, 전방과 측면 반화각은 각각 12 mm, 3.5, 70°, 50°-120°로 결정하였다. MCOOS의 COOS에 대한 변조전달함수 0.3에서의 공간주파수, 초점심도, 가시광과 근적외선 영역에서의 공차에 따른 누적 확률은 각각 154 lp/mm, -0.051-+0.052 mm, 99%이다. MCOOS의 정면 결상광학계의 변조전달함수 0.3에서의 공간주파수, 초점 심도, 가시광 영역에서 공차에 따른 누적 확률은 각각 170 lp/mm, -0.035-0.051 mm, 99.9%이다.

다양한 환경에서 강건한 RGB-Depth-Thermal 카메라 기반의 차량 탑승자 점유 검출 (Robust Vehicle Occupant Detection based on RGB-Depth-Thermal Camera)

  • 송창호;김승훈
    • 로봇학회논문지
    • /
    • 제13권1호
    • /
    • pp.31-37
    • /
    • 2018
  • Recently, the safety in vehicle also has become a hot topic as self-driving car is developed. In passive safety systems such as airbags and seat belts, the system is being changed into an active system that actively grasps the status and behavior of the passengers including the driver to mitigate the risk. Furthermore, it is expected that it will be possible to provide customized services such as seat deformation, air conditioning operation and D.W.D (Distraction While Driving) warning suitable for the passenger by using occupant information. In this paper, we propose robust vehicle occupant detection algorithm based on RGB-Depth-Thermal camera for obtaining the passengers information. The RGB-Depth-Thermal camera sensor system was configured to be robust against various environment. Also, one of the deep learning algorithms, OpenPose, was used for occupant detection. This algorithm is advantageous not only for RGB image but also for thermal image even using existing learned model. The algorithm will be supplemented to acquire high level information such as passenger attitude detection and face recognition mentioned in the introduction and provide customized active convenience service.

의료 약물주입용 미세 유량 제어 장치 (Fine Flow Controlling Device for Medicine Injection)

  • 조수찬;신보성
    • 마이크로전자및패키징학회지
    • /
    • 제28권4호
    • /
    • pp.51-55
    • /
    • 2021
  • 본 논문은 보통 병원에서 간호사가 수작업으로 진행하는 약물주입 과정을 대신할 수 있는 의료용 미세 유량 제어 장치를 소개한다. 이는 아두이노로 구현되었으며 환자의 지속적인 관리에 도움이 되고자 한다. 기본적으로 연동펌프를 통해 약물이 주입되며 RGB color sensor를 통해 배출액의 색상을 값으로 받아들이고 이 값을 바탕으로 수액백에 달린 연동펌프의 모터 속도를 조절하는 알고리즘을 아두이노 코딩을 통해 구현한다. 전체적인 시스템은 배터리를 통해 작동되며 연구실에서 355nm UV pulsed laser를 통해 제작한 LIG strain sensor의 추가를 통해 수액백으로부터 주입되는 약물의 양을 측정한다. 이렇게 제작된 미세 유량 제어 장치는 모든 과정을 수작업으로 진행해오던 병원에 곧장 사용 가능하며 간호사의 편의를 제공하고자 한다. 이 장치를 통해 한층 향상된 의료서비스를 제공할 수 있다.

RGB와 IR 영상의 압축률에 따른 객체 탐지 신경망 성능 분석 (Performance Analysis of Object Detection Neural Network According to Compression Ratio of RGB and IR Images)

  • 이예지;김신;임한신;이희경;추현곤;서정일;윤경로
    • 방송공학회논문지
    • /
    • 제26권2호
    • /
    • pp.155-166
    • /
    • 2021
  • 현재 대부분의 객체 탐지 알고리즘은 RGB 영상을 기반으로 연구되고 있다. 하지만 RGB 카메라는 물체에서 반사되는 빛을 받아들여 영상을 생성하기 때문에, 물체에서 나오는 빛이 적거나 산란이 되는 야간 또는 안개가 끼는 환경에서는 물체의 정보가 잘 표현되는 영상 취득이 어려워 객체 탐지의 정확도가 떨어진다. 그에 반해 IR(열 적외선, Infra-Red) 영상은 열 센서로 이미지를 생성하기 때문에 RGB 영상에 비해 정확한 물체의 정보를 표현할 수 있다. 따라서 본 논문에서는 이러한 이미지 특성 차이에 따른 객체 탐지 성능을 비교하고자 하며, RGB와 IR 영상의 압축률에 따른 객체 탐지를 수행하고, 결과를 비교 분석 하고자 한다. 실험에 사용된 영상은 첨단운전자 보조 시스템(ADAS) 연구용 데이터 세트인 Free FLIR Thermal 데이터 세트 중 야간에 촬영된 RGB 영상과 IR 영상을 사용하였으며, 기존 RGB 영상 기반으로 사전 학습된 신경망과 FLIR Thermal 데이터 세트 내 RGB 영상과 IR 영상을 일부 골라 재학습한 신경망을 이용하여 객체 탐지를 수행하였다. 실험 결과 RGB 기반으로 사전 학습된 신경망과 재학습한 신경망 모두 IR 영상 기반 객체 탐지 성능이 RGB 영상 기반 성능보다 월등한 것을 확인할 수 있었다.

RGB-D 센서, AR 마커, 색수정 알고리즘을 활용한 매니퓰레이터 투명화 (Transparent Manipulators Accomplished with RGB-D Sensor, AR Marker, and Color Correction Algorithm)

  • 김동엽;김영지;손현식;황정훈
    • 로봇학회논문지
    • /
    • 제15권3호
    • /
    • pp.293-300
    • /
    • 2020
  • The purpose of our sensor system is to transparentize the large hydraulic manipulators of a six-ton dual arm excavator from the operator camera view. Almost 40% of the camera view is blocked by the manipulators. In other words, the operator loses 40% of visual information which might be useful for many manipulator control scenarios such as clearing debris on a disaster site. The proposed method is based on a 3D reconstruction technology. By overlaying the camera image from front top of the cabin with the point cloud data from RGB-D (red, green, blue and depth) cameras placed at the outer side of each manipulator, the manipulator-free camera image can be obtained. Two additional algorithms are proposed to further enhance the productivity of dual arm excavators. First, a color correction algorithm is proposed to cope with the different color distribution of the RGB and RGB-D sensors used on the system. Also, the edge overlay algorithm is proposed. Although the manipulators often limit the operator's view, the visual feedback of the manipulator's configurations or states may be useful to the operator. Thus, the overlay algorithm is proposed to show the edge of the manipulators on the camera image. The experimental results show that the proposed transparentization algorithm helps the operator get information about the environment and objects around the excavator.

UAS 기반, 가시, 근적외 및 열적외 영상을 활용한 식생조사 (Vegetation Monitoring using Unmanned Aerial System based Visible, Near Infrared and Thermal Images)

  • 이용창
    • 지적과 국토정보
    • /
    • 제48권1호
    • /
    • pp.71-91
    • /
    • 2018
  • 최근 영농분야에서 종자파종, 병충해 방제 등에 무인항공기(UAV ; Unmanned Aerial Vehicle)를 활용한 응용이 활발히 진행되고 있다. 본 연구는 UAV에 다양한 파장대의 영상센서를 탑재하고 SfM(Structure from Motion) 영상해석기법과 연계한'고해상 저고도 원격탐측시스템(UAS ; Unmanned Aerial System)'를 구성, UAS 기반 식생조사의 효용성을 고찰하여 정밀영농의 활용성을 검토하였다. 이를 위해 저가 UAV에 가시 컬러(VIS_RGB ; Visible Red, Green, and Blue) 영상센서, 수정된 BG_NIR(Blue Green_Near Infrared Red) 근적외 영상 센서, $7.5{\sim}13.5{\mu}m$ 분광대역의 열적외 영상(TIR ; Thermal Infrared Red)센서를 조합 연계한 UAS를 구성하였다. 또한, 가시 근적외 및 열적외 파장대를 기본요소로 광합성에 따른 식물의 엽록소, 질소 및 수분 함유량 등을 검토할 수 있는 총 10종의 식생지수를 선정, 식생상태 검출에 활용하였다. 시험대상지에 대한 각 파장대역의 영상을 획득하고 사전에 조사된 지상 피복현황을 기준으로 각 식생지수의 분포도 및 식생지수 간 상관성(결정계수 R2) 등을 비교 고찰하여 무인항공기를 활용한 가시 컬러, 근 적외 및 열 적외 영상에 의한 식생상태의 검측 수행능력을 검토하였다. 저가 무인항공기에 VIS_RGB, BG_NIR 및 TIR 영상 센서를 탑재, 식생조사의 효용성을 종합적으로 검토한 결과, 인공위성과 항공영상에 의존한 과거의 식생조사방식 대비, 영상해상도, 경제성 및 운용성 면에서 UAV기반 고해상 저고도 원격탐측시스템(UAS)의 효용성을 입증할 수 있었으므로 정밀농업, 수계 및 산림조사 등의 분야에 그 활용이 기대된다.