• 제목/요약/키워드: vision camera

검색결과 1,372건 처리시간 0.028초

낮은 도로 조명의 노면 휘도 실태 분석에 대한 연구 (The Study on the Analysis of Road Surface Brightness of Low Mounted Road Lighting System)

  • 남기호;김충혁
    • 한국전기전자재료학회논문지
    • /
    • 제37권3호
    • /
    • pp.314-321
    • /
    • 2024
  • Low road lighting is a lighting device that complements the shortcomings of existing pillar-type street lights. It is a lighting device that emits light from the side of the road surface and adjusts the luminance of the road surface like a light carpet. In this paper, to achieve full commercialization, we analyzed the luminance of the installed road surface and studied whether lighting could replace existing road lighting. In this study, the LMK (Luminance Measurement Camera) LABSOFT program was used to measure and analyze the surface luminance of road lighting, and the RELUX program was used to evaluate and analyze the simulation performance to determine light-based lighting conditions. A study was conducted to determine whether replacing pillar-type road lighting with low-level road lighting in a real environment would ensure comfortable and safe night vision for drivers at night.

작업자 모니터링을 위한 자동 감시추적 시스템 (Autonomous Surveillance-tracking System for Workers Monitoring)

  • 고정환;이정석;안영환
    • 전자공학회논문지 IE
    • /
    • 제47권2호
    • /
    • pp.38-46
    • /
    • 2010
  • 본 논문에서는 스테레오 비젼 기법에 기반한 작업자 모니터링을 위한 자동 감시추적 시스템을 제안하였다. 즉, 인간 시각 시스템을 모방한 교차식 스테레오 카메라 시스템의 특성을 이용하여 작업자의 인식은 물론 추적, 감시가 가능한 새로운 형태의 지능형 감시추적 시스템을 설계 제안하였다. 즉, 작업자 표적의 다양한 변화에 관계없이 배경과 분리된 표적인식은 물론 움직이는 표적의 3차원적 위치 정보를 검출함으로써 실시간적 물체인식 및 추적이 가능한 새로운 형태의 지능형 스테레오 감시 추적 시스템을 제시하였다. 실험결과, 교차식 스테레오 카메라 기반의 이동물체 감시추적 시스템의 실험결과 팬과 틸트를 통한 물체추적 후 표적 중심좌표의 수평, 수직 평균오차는 1.82%, 1.11%의 매우 낮은 에러 값을 각각 유지하였으며, 추정된 물체의 3차원 위치좌표의 경우도 실제 물체 위치값과 비교하여 평균 2.5% 이하의 낮은 오차가 나타남이 분석되었다. 따라서, 본 논문에서 제안한 팬과 틸트가 탑제된 스테레오 카메라 기반의 감시추적 시스템은 복잡한 배경 및 주위환경 변화에도 이동 물체를 효과적으로 추출하여 적응적으로 감시 및 추적이 가능한 산업용 무인 감시추적 시스템의 구현 가능성을 제시하였다.

모바일 증강현실 물체와 몰입형 상호작용을 위한 비전기반 동작제어 (Vision-based Motion Control for the Immersive Interaction with a Mobile Augmented Reality Object)

  • 전준철
    • 인터넷정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.119-129
    • /
    • 2011
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 특히 최근 모바일 증강현실의 활용에 대한 수요증대는 증강된 가상 객체와 사용자간의 효과적인 상호작용 기술 개발을 요구하고 있다. 본 논문에서는 안드로이드기반 모바일 플랫폼에서 비 마커기반의 새로운 모바일 증강현실 객체생성 및 제어 방법을 제시하였다. 전통적인 마커를 대신하여 비 마커기반 모바일 증강현실 시스템에서는 사용자에게 친숙한 손 인터페이스를 이용하였다. 기존의 데스크 탑 기반의 증강현실에 비하여 제한된 시스템 사양을 이용하는 비 마커기반 모바일 증강현실을 구현하기 위하여 마커의 역할을 수행할 손의 최적영역을 모바일 장치의 카메라로부터 실시간으로 검출 하여 객체를 증강시키는 방법을 제시하였다. 손의 최적영역의 추출은 YCbCr 스킨컬러 모델을 이용한 손영역 검출과 Rotating Calipers 알고리즘을 적용한 최적 사각형 추출에 의해 구현하였다. 이때 추출된 최적 사각형은 통상적인 마커기반 증강현실에서의 마커역할을 수행할 수 있도록 하였으며, 기존의 손끝추적에 의한 마커 생성 시 발생하는 손의 회전이나 가려짐에 의한 문제를 해결하였다. 실험을 통하여 제안된 방법이 비 마커기반 모바일 객체를 효과적으로 생성 제어할 수 있음을 입증하였다.

스테레오 비전 시스템에서 차 영상을 이용한 이동 물체의 거리와 속도측정 ((Distance and Speed Measurements of Moving Object Using Difference Image in Stereo Vision System))

  • 허상민;조미령;이상훈;강준길;전형준
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권9호
    • /
    • pp.1145-1156
    • /
    • 2002
  • 스테레오 비전 시스템을 이용하여 이동 물체의 거리와 속도를 측정하기 위한 방법을 제안하였다. 이동 물체의 거리와 속도 측정에 있어서 가장 중요한 요소 중 하나는 물체 추적의 정확성이다. 따라서 빠르게 움직이는 물체 추적을 위해 배경 영상 기법을 이용하였고, 물체의 그림자와 잡음을 제거하기 위해 지역 Opening 연산을 이용하였다. 적응형 임계치를 적용하여 자기 변화에 상관없이 이동 물체의 추출 효율을 높이도록 하였다. 좌, 우 중심점 위치를 보정하여 더 정확한 물체의 속도와 거리를 측정할 수 있도록 하였다. 배경 영상 기법과 지역 Opening 연산을 사용하여 계산 과정을 줄임으로써 이동 물체의 거리와 속도의 실시간 처리가 가능하도록 하였다. 실험 결과, 배경 영상 기법은 다른 알고리즘과는 달리 빠르게 움직이는 물체를 추적할 수 있음을 보여준다. 적응형 임계치를 적용하여 후보 영역을 줄임으로써 목표물 추출 효율이 개선되었다. 양안 시차를 이용하여 목표물의 중심점을 보정함으로써 거리와 속도 측정 오차가 감소하였다. 스테레오 카메라에서부터 이동 물체까지의 거리 측정 오차율은 2.68%, 이동 물체의 속도 측정 오차율은 3.32%로 본 시스템의 향상된 효율성을 나타냈다.

  • PDF

영상 및 레이저레이더 정보융합을 통한 자율주행자동차의 주행환경인식 및 추적방법 (Information Fusion of Cameras and Laser Radars for Perception Systems of Autonomous Vehicles)

  • 이민채;한재현;장철훈;선우명호
    • 한국지능시스템학회논문지
    • /
    • 제23권1호
    • /
    • pp.35-45
    • /
    • 2013
  • 자동차의 자율주행기능 실현을 위해서는 기존의 지능형자동차 인식시스템 보다 강인하고 우수한 성능의 주행환경 인식시스템이 요구된다. 특히, 카메라와 레이저레이더 센서는 물체의 특징, 거리 등의 정보를 제공하는 대표적인 주행환경인식 센서로, 이를 이용한 단일센서기반 인식시스템 연구가 활발히 이루어지고 있다. 일반적으로 레이저레이더 센서의 거리정보는 도로의 구조, 차량, 보행자 등의 인식을 위하여 많이 사용되며, 카메라의 영상정보는 차선, 횡단보도, 표지판 등의 주행환경 인지에 사용된다. 하지만, 단일센서기반 인식시스템은 센서의 특성 및 주행환경에 의한 오검출 또는 미검출 발생률이 높기 때문에 자율주행기능 구현에 적합하지 않다. 따라서 단일센서기반의 인식시스템의 한계를 극복하기 위하여 카메라, 레이저레이더, GPS 등을 이용한 정보융합 인식시스템 개발이 필수적이다. 이 연구에서는 영상 및 레이저레이더의 정보융합을 통해 강인한 차선인식, 횡단보도 인식 등을 수행하는 자율주행자동차의 주행환경 인식기술을 개발하였다. 이 연구를 통해 개발된 주행환경 인식기술은 자율주행자동차에 적용되어 다양한 주행시험을 통해 신뢰성 및 안정성이 검증되었다.

어안렌즈를 이용한 비전 기반의 이동 로봇 위치 추정 및 매핑 (Vision-based Mobile Robot Localization and Mapping using fisheye Lens)

  • 이종실;민홍기;홍승홍
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.256-262
    • /
    • 2004
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다. 본 논문에서는 어안렌즈를 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특징을 갖는 고급의 영상 특징을 구하고, 이 특징들을 맵 빌딩과 위치 추정에 이용하였다. 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 이용하여 보정된 영상에서 천정영역과 벽영역으로 분할한다. 최초 맵 빌딩시에는 분할된 영역에 대해 특징점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특징점들을 구하고 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맵에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩 과정과 맵 상에서 로봇의 위치를 찾는데 이용된다. 로봇의 위치에서 구해진 특징점들은 로봇의 실제 위치를 추정하기 위해 기존의 맵과 매칭을 행하고 동시에 기존의 맵 데이터베이스는 갱신된다. 제안한 방법을 적용하면 50㎡의 영역에 대한 맵 빌딩 소요 시간은 2분 이내, 위치 추정시 위치 정확도는 ±13cm, 로봇의 자세에 대한 각도 오차는 ±3도이다.

  • PDF

Positive Random Forest 기반의 강건한 객체 추적 (Positive Random Forest based Robust Object Tracking)

  • 조윤섭;정수웅;이상근
    • 전자공학회논문지
    • /
    • 제52권6호
    • /
    • pp.107-116
    • /
    • 2015
  • 고성능 컴퓨터와 디지털 카메라의 보급으로 컴퓨터를 이용한 객체 탐지 및 추적은 컴퓨터 비전의 다양한 응용분야에서 중요한 문제로 대두 되고 있다. 또한, 지능형 자동화 감시 장치, 영상 분석 장치, 자동화된 로봇 분야 등에서 그 필요성이 점점 부각 되고 있다. 객체 추적은 카메라를 이용하여 움직이는 객체의 위치를 찾는 처리 과정을 의미 하며, 강건한 객체 추적을 위해서는 객체의 스케일, 형태 변화, 회전에 강건하고 정확한 객체의 위치를 파악할 수 있어야한다. 본 논문에서는 랜덤 포레스트를 이용한 강건한 객체 추적에 대한 알고리즘을 제안하였다. 정확한 객체의 위치를 찾기 위해 지역 공분산과 ZNCC (Zeros Mean Normalized Cross Correlation)를 사용하여 객체를 검출하고 검출된 객체를 5개의 부분으로 나누어 랜덤 포레스트로 객체가 잘 검출 되었는지 검증 한다. 검증된 객체 중 모델을 선택하여 객체 검출이 잘못 되었다고 판단된 경우 입력 모델을 변경하여 정확한 객체를 찾도록 하였다. 제안된 알고리즘과 기존의 알고리즘들을 비교 하였을 때 비교적 정확한 객체의 위치를 잘 찾아 가는 것을 확인하였다.

해태(김)두께측정 및 조절 장치 설계 (Laver(Kim) Thickness Measurement and Control System Design)

  • 이배규;최영일;김정화
    • 전자공학회논문지
    • /
    • 제50권11호
    • /
    • pp.226-233
    • /
    • 2013
  • 본 논문에서는 해태를 자동적으로 가공 처리하는 건조 장치에서, 해태의 두께측정 및 조절하는 장치에 관한 것으로서, 해태를 자동적으로 가공 처리하는 건조 장치에 있어서, 김과 물의 혼합된 상태로 일정한 크기의 형상을 가진 틀에 소정의 양을 투입해 물과 김을 분리하여, 목적하는 김의 크기와 두께(무게)를 결정짓는 공정에, 일정한 광원을 발생할 LED Lamp 와 영상을 검출하는 Vision Sensor(카메라)등을 구비하고, 이들의 영상 상태 값 들을 임베디드 컴퓨터에 실시간 전송하고, 함께 내장된 측정 및 제어 목적의 응용 프로그램에 의하여, 각각의 해당 채널의 측정값을 별도로 구비된 모니터에 표시함은 물론 각각의 해당 채널의 엑츄에이터에 서보 신호를 전송해, 기 설정된 목적의 기능이 가능 하도록 한 해태(김)의 두께를 측정하여 조절하는 장치에 관한 것이다. 본 논문의 해태(김)건조 장치에서 해태(김)의 두께측정 및 조절하는 장치는, 기존 작업자의 경험에 의지하여 직접 김의 두께조절 레버를 수동으로 조작하여 김의 두께를 조절하는 방식에서 탈피하여, 각각의 채널별 조절 레버에 엑츄에이터를 설치하여 상대적으로 품질 향상을 할 수 있도록 하였다. 또한 기존에 비해 생산성 향상 및 노동력 절감 효과도 있다.

산업용 매니퓰레이터의 작업 성능 향상을 위한 영상 기반 물체 인식에 관한 연구 (Study on vision-based object recognition to improve performance of industrial manipulator)

  • 박인철;박종호;류지형;김형주;정길도
    • 한국산학기술학회논문지
    • /
    • 제18권4호
    • /
    • pp.358-365
    • /
    • 2017
  • 본 논문에서는 산업용 매니퓰레이터의 작업 성능 향상을 위하여 영상 기반의 물체 인식 방법을 제안하였다. 기존 산업용 매니퓰레이터의 경우 대부분 산업 현장에서 제공하는 정보만을 활용해 산업용 매니퓰레이터를 동작시킴으로써 작업 물체 틀어짐 등에 대한 문제를 고려하지 않고 있기에 보다 안정적인 작업을 수행하는데 있어 문제점이 발생할 수 있다. 본 연구에서 사용된 물체인식 방법은 기존의 Harris Coner 알고리즘의 인식률 향상을 위하여 HSV채널로부터 색상정보를 포함한 V채널과 배경분리가 용이한 S채널을 분리 한 뒤 이를 바탕으로 Otsu Thresholding 기법을 적용하였다. 이를 통해 작업 물체를 보다 정확하게 인식하고 만약 작업 물체가 외부요인에 의하여 정확한 위치에 놓여있지 않거나 뒤틀어져 있는 경우 신속하게 확인한 후 원활한 작업을 위해 산업용 매니퓰레이터의 동작 제어를 수행하는 것으로 실제 산업용 매니퓰레이터에 적용한 후 실험을 통하여 이를 검증하였다. 이는 실제 공장 시스템에서 갑작스런 사람의 유입 혹은 외부요인에 의한 작업 물체의 변화 등의 문제점에 대하여 강인하고 유연하게 대처하며 오류로 인한 작업공정의 중단을 사전에 방지함으로서 전체시스템 가동시간의 효율성을 증대시키는 결과를 가져올 수 있다.

시각 장애인을 위한 영상 기반 심층 합성곱 신경망을 이용한 화재 감지기 (Fire Detection using Deep Convolutional Neural Networks for Assisting People with Visual Impairments in an Emergency Situation)

  • 보라시 콩;원인수;권장우
    • 재활복지
    • /
    • 제21권3호
    • /
    • pp.129-146
    • /
    • 2017
  • 본 연구는 실내에서 화재 발생시 시각 장애인들을 지원하기 위한 영상 기반의 화재감지기를 제안한다. 건물 내에 화재가 발생하는 비상 상황 발생시 시각 장애인은 일반인보다 상황을 인지하는 것이 늦기 때문에 위험한 상황에 노출되기 쉽다. 기존의 연기 감지기와 같은 현재의 화재 감지 방법은 화재 발생시 발생하는 화학 센서 기반 기술을 사용함으로써 감지가 상대적으로 늦으며 화재가 확산된 후에 감지가 되는 등 낮은 신뢰성이 문제가 될 수 있다. 이를 보완하기 위해 영상 기반의 화재 감지 기술이 개발되었지만 낮은 정확도가 문제가 되어 실용화되지 못하였다. 최근 인공 지능을 위한 심층 학습 분야의 큰 발전으로 영상 내의 물체 인식률이 높아짐에 따라 관련 연구가 활발히 진행되고 있다. 따라서 본 연구에서는 보안 카메라 영상을 사용하여 화재를 감지할 수 있는 심층 학습 기반의 화재 감지기를 제안한다. 심층 학습 기반의 접근법은 영상에서 자동으로 특징을 학습할 수 있으므로 일반적으로 복잡한 상황에 대해서도 일반화가 가능하다. 본 논문에서는 화재감지 정확도와 속도 측면의 균형을 고려하여 두 개의 심층 합성곱 신경망 모델을 제안하였다. 실험을 통해 두 모델 모두 99%의 평균 정밀도로 화재를 감지할 수 있으며 첫 번째 모델은 초당 30장의 처리 속도와 76%의 정확도를 나타냈다. 두번째 모델은 초당 50장의 처리 속도와 61%의 정확도를 나타낸다. 또한 두 개의 모델의 메모리 사용량을 서로 비교하였으며 다양한 실제 화재 시나리오에서 테스트하여 신뢰할 수 있는 모델임을 증명하였다. 본 논문에 제안한 영상 기반 화재 감지기가 상용화된다면 상대적으로 실내 화재에 취약한 시각 장애인들의 안전에 도움이 될 것이다.