• 제목/요약/키워드: RGB sensor

검색결과 144건 처리시간 0.025초

CIS의 전달특성과 SGL 함수를 이용한 적응적인 영상의 Colorimetry 분석 기법 (An Adaptive Colorimetry Analysis Method of Image using a CIS Transfer Characteristic and SGL Functions)

  • 이성학;이종협;송규익
    • 한국멀티미디어학회논문지
    • /
    • 제13권5호
    • /
    • pp.641-650
    • /
    • 2010
  • 컬러 이미지 센서는 광전 변환을 일으키는 촬상 소자와 내부의 영상처리 과정을 거쳐서 컬러 이미지를 출력한다. 일반적으로 출력 영상은 원 피사체의 XYZ 3 자극치와 카메라 RGB 출력 신호 사이의 변환 관계인 카메라 전달 특성에 의해 결정된다. 본 논문에서는 컬러 이미지 센서의 내부 조정 항목인 노출-증폭-레벨(shutter-gain-level, SGL)의 특성함수와 자동 화이트 밸런스 상태를 이용한 카메라 전달 행렬을 이용하여 영상의 colorimetry(측색) 상태를 분석하는 기법을 제안한다. 제안 방법으로부터 실제 영상물의 색도와 휘도 등을 예측할 수 있다. 연구에 사용된 컬러 이미지 센서의 AE(auto exposure) 상태와 실제 휘도의 관계를 정량화하여 SGL 함수를 유도하여 영상의 휘도를 예측 한다. 그리고 영상의 색도는 최소 제곱 다항식 모델링 (polynomial modeling)을 이용하여 기준 환경에서 얻은 카메라 전달 행렬과 AWB(auto white balance) 상태를 통해 예측한다. 실험을 통해서 컬러 이미지 센서를 이용한 제안된 영상의 색도와 휘도 예측 기법의 성능이 우수함을 볼 수 있고, 예측된 결과는 실제 영상물 계측과 시청 환경 측정을 이용한 디스플레이 화질 설정 시스템, 보안 등의 다양한 분야에서 응용이 가능하다.

공감각인지 기반 근감각신호에서 색·음으로의 변환 시스템 (The System of Converting Muscular Sense into both Color and Sound based on the Synesthetic Perception)

  • 배명진;김성일
    • 한국지능시스템학회논문지
    • /
    • 제24권5호
    • /
    • pp.462-469
    • /
    • 2014
  • 본 논문은 공감각의 공학적인 응용 및 표현방법에 관한 기초연구로서, 인간이 인지할 수 있는 감각들 중 근감각을 시각 및 청각 요소로 변환하는 기본 시스템의 구축을 목표로 한다. 구축방법으로서, 근감각 신호를 3축 가속도 센서 및 2축 자이로센서로부터 계산된 롤(roll), 피치(pitch) 신호를 통하여 근감각 신호 데이터를 획득하고 그 데이터에서 시각적 컬러 정보와 청각적 정보로 변환하는 방법을 제안한다. 롤 신호는 HSI 컬러 모델의 명도(Intensity)와 청각의 요소인 옥타브(Octave)로 변환하고, 피치 신호는 HSI 컬러 모델의 색상(Hue)과 청각의 음계(Scale)에 대응하여 변환한다. 추출된 HSI 컬러모델의 요소성분들을 기반으로 RGB 컬러모델로 변환한 후 실시간 컬러 출력신호를 얻는다. 또한, 청각의 요소인 옥타브 및 음계 성분을 기반으로 MIDI 신호로 변환, 합성한 후 실시간 사운드 출력신호를 얻는다. 실험에서, 신체의 움직임 즉 근감각을 표현하는 롤과 피치 값에서 색과 음 사이의 유사성에 기초한 변환관계에 따라 정상적인 색과 음이 출력되는 것을 확인하였다.

RGB-D 센서를 이용한 이동로봇의 안전한 엘리베이터 승하차 (Getting On and Off an Elevator Safely for a Mobile Robot Using RGB-D Sensors)

  • 김지환;정민국;송재복
    • 로봇학회논문지
    • /
    • 제15권1호
    • /
    • pp.55-61
    • /
    • 2020
  • Getting on and off an elevator is one of the most important parts for multi-floor navigation of a mobile robot. In this study, we proposed the method for the pose recognition of elevator doors, safe path planning, and motion estimation of a robot using RGB-D sensors in order to safely get on and off the elevator. The accurate pose of the elevator doors is recognized using a particle filter algorithm. After the elevator door is open, the robot builds an occupancy grid map including the internal environments of the elevator to generate a safe path. The safe path prevents collision with obstacles in the elevator. While the robot gets on and off the elevator, the robot uses the optical flow algorithm of the floor image to detect the state that the robot cannot move due to an elevator door sill. The experimental results in various experiments show that the proposed method enables the robot to get on and off the elevator safely.

군 로봇의 장소 분류 정확도 향상을 위한 적외선 이미지 데이터 결합 학습 방법 연구 (A Study on the Training Methodology of Combining Infrared Image Data for Improving Place Classification Accuracy of Military Robots)

  • 최동규;도승원;이창은
    • 로봇학회논문지
    • /
    • 제18권3호
    • /
    • pp.293-298
    • /
    • 2023
  • The military is facing a continuous decrease in personnel, and in order to cope with potential accidents and challenges in operations, efforts are being made to reduce the direct involvement of personnel by utilizing the latest technologies. Recently, the use of various sensors related to Manned-Unmanned Teaming and artificial intelligence technologies has gained attention, emphasizing the need for flexible utilization methods. In this paper, we propose four dataset construction methods that can be used for effective training of robots that can be deployed in military operations, utilizing not only RGB image data but also data acquired from IR image sensors. Since there is no publicly available dataset that combines RGB and IR image data, we directly acquired the dataset within buildings. The input values were constructed by combining RGB and IR image sensor data, taking into account the field of view, resolution, and channel values of both sensors. We compared the proposed method with conventional RGB image data classification training using the same learning model. By employing the proposed image data fusion method, we observed improved stability in training loss and approximately 3% higher accuracy.

퍼지 제어 시스템과 RGB LED 모듈을 이용한 선박 실내용 조명 제어 시스템에 관한 연구 (A Study on the Lighting Control System using Fuzzy Control System and RGB Modules in the Ship's Indoor)

  • 남영철;이상배
    • 한국항해항만학회지
    • /
    • 제42권6호
    • /
    • pp.421-426
    • /
    • 2018
  • 현재 기존에 상용화 되어 있는 LED 조명기기의 경우, LED 동작 시퀀스가 고정이 되어 있는 상태로 판매되고 있다. 이와 같은 상태로는 외부 환경 요인이 고려되지 않고 오직 장소에만 적용되는 조명 환경 용도로서의 기능만을 수행한다. 현재는 선박 내 외부 환경 요인의 변화에 따른 최적의 조명 환경 조성이 어렵게 되어있다. 그러므로 외부 환경 요인의 변화에 좀 더 유기적이고 능동적으로 적응할 수 있도록 외부 환경 값을 입력받아 실시간으로 최적 조명 값이 반영될 수 있도록 해야 될 필요성이 있다는 결론을 얻게 되었다. 본 논문에서는 마이크로프로세서를 선박 통합관리 시스템으로 활용하여 기존의 외부 환경 요인에 의하여 실시간으로 변동되는 환경 데이터를 다루며, 외부 환경요인을 확인하고 또한 퍼지 추론 시스템을 접목하여 RGB LED 모듈 조명 제어가 가능한 제어기를 구성하였다. 이를 위하여 퍼지 제어 알고리즘을 설계하고, 퍼지 제어 시스템을 구성하였다. 외부 환경 요소인 피사체와의 거리, 조도 값을 센서로 통해 입력 받고 이 값들을 퍼지 제어 알고리즘을 통하여 최적 조명 값으로 변환하여 RGB LED 모듈 조광 제어를 통하여 표현하고 퍼지 제어 시스템의 실질적인 효능을 확인하였다.

DO 센서와 라즈베리파이 카메라를 활용한 아두이노와 OpenCV기반의 이동식 녹조제거장치에 관한 연구 (A Study on Portable Green-algae Remover Device based on Arduino and OpenCV using Do Sensor and Raspberry Pi Camera)

  • 김민섭;김예지;임예은;황유성;백수황
    • 한국전자통신학회논문지
    • /
    • 제17권4호
    • /
    • pp.679-686
    • /
    • 2022
  • 본 논문에서는 라즈베리파이 카메라와 DO(Dissolved Oxygen)센서를 사용하여 수중에 존재하는 녹조를 인식하고 녹조를 제거하는 기능을 갖는 녹조제거장치를 구현하였다. 라즈베리파이 보드는 카메라로부터 취득한 RGB 값을 HSV로 변환하여 녹조의 색을 인식한다. 이를 통해 녹조의 위치를 파악하고, DO 센서를 활용해 해당 위치의 용존산소량의 감소량이 기준치 이상일 경우 녹조제거장치가 녹조 제거 용액을 살포하도록 구동한다. 라즈베리파이의 카메라는 OpenCV를 활용하였고, 모터의 움직임은 DO 센서의 출력값과 카메라의 녹조인식 결과에 따라 제어한다. 녹조인식 및 녹조제거용액의 살포 기능은 아두이노와 라즈베리파이를 통해 구현되었으며 실험을 통해 제안한 이동식 녹조제거장치의 타당성을 검증하였다.

오일 열화 진행에 따른 오일의 색채 특성 변화 (Change in Chromatic Characteristics with the Oil Degradation)

  • 공호성;오씨아빅터;한흥구;류보브마르코바
    • Tribology and Lubricants
    • /
    • 제24권1호
    • /
    • pp.7-13
    • /
    • 2008
  • In this work, a simple and low cost sensor technique is proposed to test oil color in real time using in-line sensor. It is presented to use a ratio of intensity in red wavelength range to intensities of green and blue wavelength ranges (defined as a 'chromatic ratio') in order to estimate the oil color change. The proposed sensor technique is realized by irradiating a white LED as light source and a RGB color sensor as photoreceiver, and the chromatic ratio of various types of used oils are measured. The results show that chromatic ratio generally reflects chemical deterioration of oil, including oil oxidation and thermal degradation. It is concluded that the proposed sensor could be used for an effective oil monitoring technology.

깊이 센서를 이용한 등고선 레이어 생성 및 모델링 방법 (A Method for Generation of Contour lines and 3D Modeling using Depth Sensor)

  • 정훈조;이동은
    • 디지털산업정보학회논문지
    • /
    • 제12권1호
    • /
    • pp.27-33
    • /
    • 2016
  • In this study we propose a method for 3D landform reconstruction and object modeling method by generating contour lines on the map using a depth sensor which abstracts characteristics of geological layers from the depth map. Unlike the common visual camera, the depth-sensor is not affected by the intensity of illumination, and therefore a more robust contour and object can be extracted. The algorithm suggested in this paper first abstracts the characteristics of each geological layer from the depth map image and rearranges it into the proper order, then creates contour lines using the Bezier curve. Using the created contour lines, 3D images are reconstructed through rendering by mapping RGB images of the visual camera. Experimental results show that the proposed method using depth sensor can reconstruct contour map and 3D modeling in real-time. The generation of the contours with depth data is more efficient and economical in terms of the quality and accuracy.

화재 특성 고찰을 통한 농연 극복 센서 모듈 (A Sensor Module Overcoming Thick Smoke through Investigation of Fire Characteristics)

  • 조민영;신동인;전세웅
    • 로봇학회논문지
    • /
    • 제13권4호
    • /
    • pp.237-247
    • /
    • 2018
  • In this paper, we describe a sensor module that monitors fire environment by analyzing fire characteristics. We analyzed the smoke characteristics of indoor fire. Six different environments were defined according to the type of smoke and the flame, and the sensors available for each environment were combined. Based on this analysis, the sensors were selected from the perspective of firefighter. The sensor module consists of an RGB camera, an infrared camera and a radar. It is designed with minimum weight to fit on the robot. the enclosure of sensor is designed to protect against the radiant heat of the fire scene. We propose a single camera mode, thermal stereo mode, data fusion mode, and radar mode that can be used depending on the fire scene. Thermal stereo was effectively refined using an image segmentation algorithm, SLIC (Simple Linear Iterative Clustering). In order to reproduce the fire scene, three fire test environments were built and each sensor was verified.

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.