• 제목/요약/키워드: RGB camera

검색결과 312건 처리시간 0.025초

적외선 카메라 영상에서의 마스크 R-CNN기반 발열객체검출 (Object Detection based on Mask R-CNN from Infrared Camera)

  • 송현철;강민식;김태은
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권6호
    • /
    • pp.1213-1218
    • /
    • 2018
  • 최근 비전분야에 소개된 Mask R-CNN은 객체 인스턴스 세분화를위한 개념적으로 간단하고 유연하며 일반적인 프레임 워크를 제시한다. 이 논문에서는 열적외선 카메라로부터 획득한 열감지영상에서 발열체인 인스턴스에 대해 발열부위의 세그멘테이션 마스크를 생성하는 동시에 이미지 내의 오브젝트 발열부분을 효율적으로 탐색하는 알고리즘을 제안한다. Mask R-CNN 기법은 바운딩 박스 인식을 위해 기존 브랜치와 병렬로 객체 마스크를 예측하기 위한 브랜치를 추가함으로써 Faster R-CNN을 확장한 알고리즘이다. Mask R-CNN은 훈련이 간단하고 빠르게 실행하는 고속 R-CNN에 추가된다. 더욱이, Mask R-CNN은 다른 작업으로 일반화하기 용이하다. 본 연구에서는 이 R-CNN기반 적외선 영상 검출알고리즘을 제안하여 RGB영상에서 구별할 수 없는 발열체를 탐지하였다. 실험결과 Mask R-CNN에서 변별하지 못하는 발열객체를 성공적으로 검출하였다.

유사색 모집단을 이용한 물체의 분광 반사율 추정 (Estimation of Surface Spectral Reflectance using A Population with Similar Colors)

  • 이철희;서봉우;안석출
    • 한국멀티미디어학회논문지
    • /
    • 제4권1호
    • /
    • pp.37-45
    • /
    • 2001
  • 다대역(multi-band) 카메라 시스템으로 물체의 분광 반사율을 추정하여 피사체의 고유한 색자극을 기록하기 위한 연구가 활발하다. 그러나 다대역 카메라 시스템은 대역 수에 따라 추가적인 색필터가 필요하며 중복촬영으로 인하여 시스템의 복잡성이 증가하는 단점이 있다. 따라서 본 논문에서는 기존의 3대역 RGB 카메라를 이용하여 분광 반사율의 추정 오차를 개선하는 방법을 제안한다. 제안된 방법에서는 화소 단위로 반사광의 모집단을 갱신하여 각 입력색에 대해 적응적인 주성분 벡터를 구하였으며 이를 이용하여 해당 화소의 분광반사율 추정시 오차를 줄였다. 제안된 반사율 추정 방법의 유용성을 평가하기 위하여 제안된 방법과 3대역 주성분 분석(principal component analysis) 방법 및 5대역 위너 추정(Wiener estimation) 방법에 대하여 각각 Macbeth ColorChecker에 대한 분광 반사율 추정 실험을 하였다. 결과, 제안한 방법은 색차 및 분광 반사율 평균자승오차가 기존의 3대역 주성분 분석 방법보다 적었으며 5대역 카메라를 이용한 분광 반사율 추정 방법과 근사하건, 개선되었음을 확인하였다.

  • PDF

기계 장치와의 상호작용을 위한 실시간 저비용 손동작 제어 시스템 (A Real Time Low-Cost Hand Gesture Control System for Interaction with Mechanical Device)

  • 황태훈;김진헌
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1423-1429
    • /
    • 2019
  • 최근에, 효율적인 상호작용을 지원하는 시스템 인 휴먼 머신 인터페이스(HMI)가 인기를 끌고있다. 본 논문에서는 차량 상호작용방법 중 하나로 새로운 실시간 저비용 손동작 제어 시스템을 제안한다. 계산 시간을 줄이기 위해 RGB 카메라를 사용하여 손 영역을 감지할 때 많은 계산이 필요하므로 TOF (Time-of-Flight) 카메라를 사용하여 깊이 정보를 취득한다. 또한, 푸리에 기술자를 사용하여 학습 모델을 줄였다. 푸리에 디스크립터는 전체 이미지에서 적은 수의 포인트만 사용하므로 학습 모델을 소형화 할 수 있다. 제안 된 기법의 성능을 평가하기 위해 데스크탑과 라즈베리 pi 2의 속도를 비교했다. 실험 결과에 따르면 소형 임베디드와 데스크탑의 성능 차이는 크지 않다. 제스처 인식 실험에서 95.16 %의 인식률이 확인되었다.

걸음걸이 인식을 통한 연령 및 성별 분류 방법 (Method for Classification of Age and Gender Using Gait Recognition)

  • 유현우;권기연
    • 대한기계학회논문집A
    • /
    • 제41권11호
    • /
    • pp.1035-1045
    • /
    • 2017
  • 얼굴 모양 및 목소리를 이용하는 방법을 포함하여 연령 및 성별을 분류하는 다양한 방법이 연구되고 있다. 그러나 얼굴 기반 방법은 원거리에서 인식률이 급격히 감소하고, 오디오 기반 방법은 잡음이 많은 환경에서는 적용하기 어렵다. 대조적으로 보행 기반 방법은 대상자가 카메라에 촬영만 되면 인식이 가능하다. 기존 연구에서 카메라의 시점은 측면에서만 볼 수 있어서 실제 환경에서 일반 보행과는 현실적으로 차이가 발생했다. 본 연구에서는 일반 보행 데이터를 이용하여 연령과 성별을 분류할 수 있도록 RGB-D 센서로부터 획득된 골격 모델을 이용한 특징 추출 방법을 제안한다. 실험 결과는 제안된 방법이 실제 환경에서 효율적임을 보여준다.

Kinect Sensor를 이용한 실시간 3D 인체 전신 융합 모션 캡처 (Realtime 3D Human Full-Body Convergence Motion Capture using a Kinect Sensor)

  • 김성호
    • 디지털융복합연구
    • /
    • 제14권1호
    • /
    • pp.189-194
    • /
    • 2016
  • 최근 카메라, 캠코더 및 CCTV 등의 사용이 활발해지면서 영상 처리 기술의 수요가 급증하고 있다. 특히 키넥트 센서와 같은 깊이(Depth) 카메라를 사용한 3D 영상 기술에 대한 연구개발이 더욱더 활성화되고 있다. 키넥트 센서는 RGB, 골격(Skeleton) 및 깊이(Depth) 영상을 통해 인체의 3D 골격 구조를 실시간 프레임 단위로 획득할 수 있는 고성능 카메라이다. 본 논문에서는 키넥트 센서를 사용하여 인체의 3D 골격 구조를 모션 캡처하고 범용으로 사용되고 있는 모션 파일 포맷($^*.trc$$^*.bvh$)으로 선택하여 저장할 수 있는 시스템을 개발한다. 또한 본 시스템은 광학식 모션 캡처 파일 포맷($^*.trc$)을 자기식 모션 캡처 파일 포맷($^*.bvh$)으로 변환할 수 있도록 하는 기능을 가진다. 마지막으로 본 논문에서는 키넥트 센서를 사용하여 캡처한 모션 데이터가 제대로 캡처되어졌는지 모션 캡처 데이터 뷰어를 통하여 확인한다.

웹 카메라와 손을 이용한 마우스 기능의 구현 (Implementation of Mouse Function Using Web Camera and Hand)

  • 김성훈;우영운;이광의
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권5호
    • /
    • pp.33-38
    • /
    • 2010
  • 본 논문에서는 USB 인터페이스 방식의 웹 카메라를 통해 입력받은 영상을 영상처리 기법을 통해 손의 움직임과 손가락 개수를 파악하여 실시간으로 마우스의 기능을 구현하는 알고리즘을 제안하였다. 웹 카메라로부터 입력받은 RGB 컬러모델 영상을 조명 변화에 강한 YCbCr 컬러 모델 영상으로 변환하여 휘도 성분을 제외한 색차 성분만으로 피부색을 추출해 이진화된 영상으로 만든다. YCbCr 컬러 모델을 이용하여 피부색을 추출할 경우, 주변 환경에 의해 정확한 손 영역을 추출할 수 없어 라벨링(labeling)과 열림(opening) 연산, 닫힘(closing) 연산을 수행하여 정확한 손 영역을 추출한다. 이렇게 추출된 손 영역의 중심을 이용하여 마우스 포인터를 이동시키며 손가락 개수를 이용하여 마우스의 클릭을 수행하였다. 구현된 제안 기법을 실험한 결과, 마우스 포인터 이동을 위한 기능 성공률은 평균 94.0%, 손가락 개수 인식률은 평균 96.0%로 실용화 가능성을 보였다.

분광특성 분석에 의한 논 잡초 검출의 기초연구 (A Fundamental Study on Detection of Weeds in Paddy Field using Spectrophotometric Analysis)

  • 서규현;서상룡;성제훈
    • Journal of Biosystems Engineering
    • /
    • 제27권2호
    • /
    • pp.133-142
    • /
    • 2002
  • This is a fundamental study to develop a sensor to detect weeds in paddy field using machine vision adopted spectralphotometric technique in order to use the sensor to spread herbicide selectively. A set of spectral reflectance data was collected from dry and wet soil and leaves of rice and 6 kinds of weed to select desirable wavelengths to classify soil, rice and weeds. Stepwise variable selection method of discriminant analysis was applied to the data set and wavelengths of 680 and 802 m were selected to distinguish plants (including rice and weeds) from dry and wet soil, respectively. And wavelengths of 580 and 680 nm were selected to classify rice and weeds by the same method. Validity of the wavelengths to distinguish the plants from soil was tested by cross-validation test with built discriminant function to prove that all of soil and plants were classified correctly without any failure. Validity of the wavelengths for classification of rice and weeds was tested by the same method and the test resulted that 98% of rice and 83% of weeds were classified correctly. Feasibility of CCD color camera to detect weeds in paddy field was tested with the spectral reflectance data by the same statistical method as above. Central wavelengths of RGB frame of color camera were tried as tile effective wavelengths to distingush plants from soil and weeds from plants. The trial resulted that 100% and 94% of plants in dry soil and wet soil, respectively, were classified correctly by the central wavelength or R frame only, and 95% of rice and 85% of weeds were classified correctly by the central wavelengths of RGB frames. As a result, it was concluded that CCD color camera has good potential to be used to detect weeds in paddy field.

RGBD 카메라 기반의 Human-Skeleton Keypoints와 2-Stacked Bi-LSTM 모델을 이용한 낙상 탐지 (Fall Detection Based on 2-Stacked Bi-LSTM and Human-Skeleton Keypoints of RGBD Camera)

  • 신병근;김응호;이상우;양재영;김원겸
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권11호
    • /
    • pp.491-500
    • /
    • 2021
  • 본 연구에서는 MS Kinect v2 RGBD 카메라 기반의 Human-Skeleton Keypoints와 2-Stacked Bi-LSTM 모델을 이용하여 낙상 행위를 탐지하는 방법을 제안한다. 기존의 연구는 RGB 영상에서 OpenPose 등의 딥러닝 모델을 이용하여 골격 정보를 추출한 후 LSTM, GRU 등의 순환신경망 모델을 이용해 인식을 수행하였다. 제안한 방법은 카메라로부터 골격정보를 바로 전달 받아 가속도 및 거리의 2개의 시계열 특징을 추출한 후 2-Stacked Bi-LSTM 모델을 이용하여 낙상 행위를 인식하였다. 어깨, 척추, 골반 등 주요 골격을 대상으로 중심관절을 구하고 이 중심관절의 움직임 가속도와 바닥과의 거리를 특징으로 제안하였다. 추출된 특징은 Stacked LSTM, Bi-LSTM 등의 모델과 성능비교를 수행하였고 GRU, LSTM 등의 기존연구에 비해 향상된 검출 성능을 실험을 통해 증명하였다.

모바일 디바이스를 이용한 3차원 특징점 추출 기법 (3D feature point extraction technique using a mobile device)

  • 김진겸;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.256-257
    • /
    • 2022
  • 본 논문에서는 단일 모바일 디바이스의 움직임을 통해 3차원 특징점을 추출하는 방법에 대해 소개한다. 단안 카메라를 이용해 카메라 움직임에 따라 2D 영상을 획득하고 Baseline을 추정한다. 특징점 기반의 스테레오 매칭을 진행한다. 특징점과 디스크립터를 획득하고 특징점을 매칭한다. 매칭된 특징점을 이용해 디스패리티를 계산하고 깊이값을 생성한다. 3차원 특징점은 카메라 움직임에 따라 업데이트 된다. 마지막으로 장면 전환 검출을 이용하여 장면 전환시 특징점을 리셋한다. 위 과정을 통해 특징점 데이터베이스에 평균 73.5%의 저장공간 추가 확보를 할 수 있다. TUM Dataset의 Depth Ground truth 값과 RGB 영상으로 제안한 알고리즘을 적용하여 3차원 특징점 결과와 비교하여 평균 26.88mm의 거리 차이가 나는것을 확인하였다.

  • PDF

Lab Color Space based Rice Yield Prediction using Low Altitude UAV Field Image

  • Reza, Md Nasim;Na, Inseop;Baek, Sunwook;Lee, In;Lee, Kyeonghwan
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2017년도 춘계공동학술대회
    • /
    • pp.42-42
    • /
    • 2017
  • Prediction of rice yield during a growing season would be very helpful to magnify rice yield as it also allows better farm practices to maximize yield with greater profit and lesser costs. UAV imagery based automatic detection of rice can be a relevant solution for early prediction of yield. So, we propose an image processing technique to predict rice yield using low altitude UAV images. We proposed $L^*a^*b^*$ color space based image segmentation algorithm. All images were captured using UAV mounted RGB camera. The proposed algorithm was developed to find out rice grain area from the image background. We took RGB image and applied filter to remove noise and converted RGB image to $L^*a^*b^*$ color space. All color information contain in both $a^*$ and $b^*$ layers and by using k-mean clustering classification of these colors were executed. Variation between two colors can be measured and labelling of pixels was completed by cluster index. Image was finally segmented using color. The proposed method showed that rice grain could be segmented and we can recognize rice grains from the UAV images. We can analyze grain areas and by estimating area and volume we could predict rice yield.

  • PDF