• 제목/요약/키워드: Video Image detector

검색결과 46건 처리시간 0.025초

딥러닝 기반 사물 검출을 활용한 우선순위 사물 중심의 영상 스티칭 (Image Stitching focused on Priority Object using Deep Learning based Object Detection)

  • 이성배;강전호;김규헌
    • 방송공학회논문지
    • /
    • 제25권6호
    • /
    • pp.882-897
    • /
    • 2020
  • 최근 Panorama와 360° 영상이 대표되는 몰입형 미디어 콘텐츠의 활용이 증가하고 있다. 일반적인 카메라 한 대를 통해서 해당 콘텐츠를 생성하기에는 시야각이 제한되기 때문에, 다수의 카메라로 촬영한 영상을 넓은 시야각을 갖는 하나의 영상으로 합성하는 영상 스티칭이 주로 사용되고 있다. 그러나 촬영하는 카메라 간의 시차(Parallax)가 크다면 스티칭 영상에서 시차 왜곡이 발생할 수 있고, 이는 사용자의 콘텐츠 몰입을 제한하기 때문에 시차 왜곡을 극복할 수 있는 영상 스티칭 기술이 필요하다. 시차 왜곡을 극복하기 위한 기존의 Seam Optimization 기반 영상 스티칭 방법은 사물의 위치 정보를 반영하기 위하여 에너지 함수나 객체 세그먼트 정보를 활용하고 있지만, 초기 Seam 생성 위치, 배경 정보, 사물 검출기의 성능 그리고 사물의 배치 등의 제한 사항으로 인해 기술의 적용이 제한될 수 있다. 이에 본 논문에서는 딥러닝 기반 사물 검출을 활용하여 사물의 종류에 따라 다르게 설정한 가중치 값을 시각적 인지 에너지 값에 더함으로써, 기존 기술의 제한 사항을 극복할 수 있는 영상 스티칭 방법을 제안하고자 한다.

고속 영상 검지기 시스템 개발에 관한 연구 (A Study On Development of Fast Image Detector System)

  • 김병철;하동문;김용득
    • 전자공학회논문지SC
    • /
    • 제41권1호
    • /
    • pp.25-32
    • /
    • 2004
  • 교통 분야에서도 역시 영상을 이용한 시스템의 개발이 주요 이슈가 되고 있다. 이는 영상을 이용한 시스템의 경우 설치비용이 기존 시스템들에 비해 엄청나게 저렴하다는 것과 설치하는 기간 중에도 교통의 흐름을 거의 방해하지 않고 설치가 가능하다는 장점을 가지고 있기 때문이다. 본 연구에서는 임베디드 시스템 환경에서 영상 검지기 시스템의 구현을 제안하였다. 전체 시스템은 호스트 컨트롤러 보드부분과 영상처리 보드 부분으로 나뉜다. 호스트 컨트롤러 보드 부분은 전체 시스템의 제어와 외부와의 인터페이스, 그리고 OSD(On Screen Display) 부분을 담당하게 된다. 영상처리 보드 부분은 알고리즘의 적용, 마우스 신호의 베어를 담당하고 있다 그리고 안정적인 호스트 컨트롤러의 보드의 운영을 위해 uC/OS-II 를 호스트 컨트롤러 보드에 포팅하였다.

실험적으로 제작한 Videodensitometer의 디지털 영상처리와 임상적 적용에 관한 연구 (DIGITAL IMAGE PROCESSING AND CLINICAL APPLICATION OF VIDEODENSITOMETER)

  • 박관수;이상래
    • 치과방사선
    • /
    • 제22권2호
    • /
    • pp.273-282
    • /
    • 1992
  • The purpose of this study was to propose the utility which was evaluated the digital image processing and clinical application of the videodensitomery. The experiments were performed with IBM-PC/16bit-AT compatible, video camera(CCdtr55, Sony Co., Japan), an color monitor(MultiSync 3D, NEC, Japan) providing the resolution of 512×480 and 64 levels of gray. Sylvia Image Capture Board for the ADC(analog to digital converter) was used, composed of digitized image from digital signal and the radiographic density was measured by 256 level of gray. The periapical radiograph(Ektaspeed EP-21, Kodak Co., U. S. A) which was radiographed dried human mandible by exposure condition of 70 kVp and 48 impulses, was used for primary X-ray detector. And them evaluated for digitzed image by low and high pass filtering, correlations between aluminum equivalent values and the thickness of aluminum step wedge, aluminum equivalent values of sound enamel, dentin, and alveolar bone, the range of diffuse density for gray level ranging from 0 to 255. The obtained results were as follows: 1. The edge between aluminum steps of digitized image were somewhat blurred by low pass filtering, but edge enhancement could be resulted by high pass filtering. Expecially, edge enhancement between distal root of lower left 2nd molar and alveolar lamina dura was observed. 2. The correlation between aluminum equivalent values and the thickness of aluminum step wedge was intimated, yielding the coefficient of correlation r=0.9997(p<0.00l), the regression line was described by Y=0.9699X+0.456, and coefficient of variation amounting to 1.5%. 3. The aluminum equivalent values of sound enamel, dentin, and alvolar bone were 15.41㎜, 12.48㎜, 10.35㎜, respectively. 4. The range of diffuse density for gray level ranging from 0 to 255 was wider enough than that of photodenstiometer to be within the range of 1-4.9.

  • PDF

NON-UNIFORMITY CORRECTION- SYSTEM ANALYSIS FOR MULTI-SPECTRAL CAMERA

  • Park Jong-Euk;Kong Jong-Pil;Heo Haeng-Pal;Kim Young Sun;Chang Young Jun
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.478-481
    • /
    • 2005
  • The PMU (Payload Management Unit) is the main subsystem for the management, control and power supply of the MSC (Multi-Spectral Camera) Payload operation. It is the most important function for the electro-optical camera system that performs the Non-Uniformity Correction (NUC) function of the raw imagery data, rearranges the data from the CCD (Charge Coupled Device) detector and output it to the Data Compression and Storage Unit (DCSU). The NUC board in PMU performs it. In this paper, the NUC board system is described in terms of the configuration and the function, the efficiency for non-uniformity correction, and the influence of the data compression upon the peculiar feature of the CCD pixel. The NUC board is an image-processing unit within the PMU that receives video data from the CEV (Camera Electronic Unit) boards via a hotlinkand performs non-uniformity corrections upon the pixels according to commands received from the SBC (Single Board Computer) in the PMU. The lossy compression in DCSU needs the NUC in on-orbit condition.

  • PDF

환경 변화에 강인한 방범용 차량 검지 시스템 (A Vehicle Detection System Robust to Environmental Changes for Preventing Crime)

  • 배성호;홍준의
    • 한국멀티미디어학회논문지
    • /
    • 제13권7호
    • /
    • pp.983-990
    • /
    • 2010
  • 외부 환경에서의 영상처리 기술은 환경에 매우 민감하여 외부환경이 급격하게 변화할 때마다 정확도가 많이 떨어지는 경향이 있다. 본 논문에서는 다양한 변화가 일어나는 실외환경에서 영상처리 기술을 이용한 방범용 차량 검지 및 추적 시스템을 제안한다. 방범용 카메라검지기는 하나의 차선내에서 차량을 검지하고 추적하기 때문에 차량의 윤곽보다는 차량의 특징 영역을 분리하는 것이 중요하다. 제안한 시스템은 차량 진입의 판단을 광류를 통하여 검지하며, 차량의 전조등, 본넷, 전면창, 루프 등으로 영역을 분류하여 차량을 추적한다. 실험을 통하여 제안한 시스템이 차량의 종류, 속도 및 시간 의 환경 변화에도 강인함을 확인하였다.

딥러닝을 이용한 마스크 착용 여부 검사 시스템 (Mask Wearing Detection System using Deep Learning)

  • 남충현;남은정;장경식
    • 한국정보통신학회논문지
    • /
    • 제25권1호
    • /
    • pp.44-49
    • /
    • 2021
  • 최근 COVID-19로 인해 마스크 착용 여부 자동 검사 시스템에 신경망 기술들을 적용하는 연구가 활발히 진행되고 있다. 신경망 적용 방식에 있어서 1단계 검출 방식 또는 2단계 검출 방식을 사용하며, 데이터를 충분히 확보할 수 없는 경우 사전 학습된 신경망에 대해 가중치 미세 조절 기법을 적용하여 학습한다. 본 논문에서는 얼굴 인식부와 마스크 검출부로 구성되는 2단계 검출 방식을 적용하였으며, 얼굴 인식부에는 MTCNN 모델, 마스크 검출부에는 ResNet 모델을 사용하였다. 마스크 검출부는 다양한 실 상황에서의 인식률과 추론 속도 향상을 위하여 5개의 ResNet모델을 적용하여 실험하였다. 학습 데이터는 웹 크롤러를 이용하여 수집한 17,219개의 정지 영상을 이용하였으며, 1,913개의 정지 영상과 1분 동영상 2개에 대해 각각 추론을 실시하였다. 실험 결과 정지 영상인 경우 96.39%, 동영상인 경우 92.98%의 높은 정확도를 보였고, 동영상 추론 속도는 10.78fps임을 확인하였다.

Research on Local and Global Infrared Image Pre-Processing Methods for Deep Learning Based Guided Weapon Target Detection

  • Jae-Yong Baek;Dae-Hyeon Park;Hyuk-Jin Shin;Yong-Sang Yoo;Deok-Woong Kim;Du-Hwan Hur;SeungHwan Bae;Jun-Ho Cheon;Seung-Hwan Bae
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권7호
    • /
    • pp.41-51
    • /
    • 2024
  • 본 논문에서는 적외선 이미지에서 딥러닝 물체 탐지를 사용하여 유도무기의 표적 탐지 정확도 향상 방법을 연구한다. 적외선 이미지의 특성은 시간, 온도 등의 요인에 의해 영향을 받기 때문에 모델을 학습할 때 다양한 환경에서 표적 객체의 특징을 일관되게 표현하는 것이 중요하다. 이러한 문제를 해결하는 간단한 방법은 적절한 전처리 기술을 통해 적외선 이미지 내 표적 객체의 특징을 강조하고 노이즈를 줄이는 것이다. 그러나, 기존 연구에서는 적외선 영상 기반 딥러닝 모델 학습에서 전처리기법에 관한 충분한 논의가 이루어지지 못했다. 이에, 본 논문에서는 표적 객체 검출을 위한 적외선 이미지 기반 훈련에 대한 이미지 전처리 기술의 영향을 조사하는 것을 목표로 한다. 이를 위해 영상과 이미지의 전역(global) 또는 지역(local) 정보를 활용한 적외선 영상에 대한 전처리인 Min-max normalization, Z-score normalization, Histogram equalization, CLAHE (Contrast Limited Adaptive Histogram Equalization)에 대한 결과를 분석한다. 또한, 각 전처리 기법으로 변환된 이미지들이 객체 검출기 훈련에 미치는 영향을 확인하기 위해 다양한 전처리 방법으로 처리된 이미지에 대해 YOLOX 표적 검출기를 학습하고, 이에 대한 분석을 진행한다. 실험과 분석을 통해 전처리 기법들이 객체 검출기 정확도에 영향을 미친다는 사실을 알게 되었다. 특히, 전처리 기법 중에서도 CLAHE 기법을 사용해 실험을 진행한 결과가 81.9%의 mAP (mean average precision)을 기록하며 가장 높은 검출 정확도를 보임을 확인하였다.

딥 러닝 및 칼만 필터를 이용한 객체 추적 방법 (Object Tracking Method using Deep Learning and Kalman Filter)

  • 김기철;손소희;김민섭;전진우;이인재;차지훈;최해철
    • 방송공학회논문지
    • /
    • 제24권3호
    • /
    • pp.495-505
    • /
    • 2019
  • 딥 러닝의 대표 알고리즘에는 영상 인식에 주로 사용되는 CNN(Convolutional Neural Networks), 음성인식 및 자연어 처리에 주로 사용되는 RNN(Recurrent Neural Networks) 등이 있다. 이 중 CNN은 데이터로부터 자동으로 특징을 학습하는 알고리즘으로 특징 맵을 생성하는 필터까지 학습할 수 있어 영상 인식 분야에서 우수한 성능을 보이면서 주류를 이루게 되었다. 이후, 객체 탐지 분야에서는 CNN의 성능을 향상하고자 R-CNN 등 다양한 알고리즘이 등장하였으며, 최근에는 검출 속도 향상을 위해 YOLO(You Only Look Once), SSD(Single Shot Multi-box Detector) 등의 알고리즘이 제안되고 있다. 하지만 이러한 딥러닝 기반 탐지 네트워크는 정지 영상에서 탐지의 성공 여부를 결정하기 때문에 동영상에서의 안정적인 객체 추적 및 탐지를 위해서는 별도의 추적 기능이 필요하다. 따라서 본 논문에서는 동영상에서의 객체 추적 및 탐지 성능 향상을 위해 딥 러닝 기반 탐지 네트워크에 칼만 필터를 결합한 방법을 제안한다. 탐지 네트워크는 실시간 처리가 가능한 YOLO v2를 이용하였으며, 실험 결과 제안한 방법은 기존 YOLO v2 네트워크에 비교하여 7.7%의 IoU 성능 향상 결과를 보였고 FHD 영상에서 20 fps의 처리 속도를 보였다.

딥 러닝 기반의 영상처리 기법을 이용한 겹침 돼지 분리 (Separation of Occluding Pigs using Deep Learning-based Image Processing Techniques)

  • 이한해솔;사재원;신현준;정용화;박대희;김학재
    • 한국멀티미디어학회논문지
    • /
    • 제22권2호
    • /
    • pp.136-145
    • /
    • 2019
  • The crowded environment of a domestic pig farm is highly vulnerable to the spread of infectious diseases such as foot-and-mouth disease, and studies have been conducted to automatically analyze behavior of pigs in a crowded pig farm through a video surveillance system using a camera. Although it is required to correctly separate occluding pigs for tracking each individual pigs, extracting the boundaries of the occluding pigs fast and accurately is a challenging issue due to the complicated occlusion patterns such as X shape and T shape. In this study, we propose a fast and accurate method to separate occluding pigs not only by exploiting the characteristics (i.e., one of the fast deep learning-based object detectors) of You Only Look Once, YOLO, but also by overcoming the limitation (i.e., the bounding box-based object detector) of YOLO with the test-time data augmentation of rotation. Experimental results with two-pigs occlusion patterns show that the proposed method can provide better accuracy and processing speed than one of the state-of-the-art widely used deep learning-based segmentation techniques such as Mask R-CNN (i.e., the performance improvement over Mask R-CNN was about 11 times, in terms of the accuracy/processing speed performance metrics).

컨텍스트 기반의 지능형 영상 감시 시스템 구현에 관한 연구 (Implementation of Intelligent Image Surveillance System based Context)

  • 문성룡;신성
    • 대한전자공학회논문지SP
    • /
    • 제47권3호
    • /
    • pp.11-22
    • /
    • 2010
  • 본 논문은 컨텍스트 기반의 지능형 영상 감시 시스템 구현에 관한 연구로써 기존 연구의 시공간적 제약성 및 실시간 처리가 어려운 단점을 보완하여 초당 30 프레임으로 이루어져 있는 저해상도 동영상(320*240)을 대상으로 다양한 환경에서 실시간 처리가 가능한 움직임 검출 및 장면 분석 알고리즘을 제안하고 이를 이용해 동영상 감시 시스템을 구축한다. 먼저 장면 분석을 수행하기 위한 전처리 과정인 움직임 검출 알고리즘에서는 연속된 프레임 중 의미 없는 유사 프레임과 배경을 제거하고 움직임 영역만을 검출하기 위해 웨이브렛 변환과 에지 히스토그램을 이용하여 샷의 경계를 검출한다. 다음으로 키프레임 선정 파라미터에 의해 샷 경계 내 대표 키프레임을 선정하며, 에지 히스토그램 및 수학적 형태론을 이용하여 움직임 영역만을 검출한다. 장면 분석 알고리즘에서는 검출된 객체의 수직 수평 비율과 질량 중심을 통해 재구성된 허프 변환 후의 각도를 이용해 독립 객체 분석을 수행하며, '서다, 걷다, 눕다, 앉다'의 4가지 기본 상황 정보를 정의한다. 또한 각 상황의 연결 상태 추정을 통해 일반 상황 및 위급 상황으로 구성되는 단순 상황 모델을 정의함으로써 장면 분석을 수행하며, 제안된 알고리즘의 실시간 처리 가능성을 확인하기 위해 시스템을 구성한다. 제안된 시스템은 저해상도 영상을 대상으로 인식률 면에서 평균 92.5%의 성능을 보였으며, 처리속도는 프레임 당 평균 0.74초로 실시간 처리가 가능함을 확인하였다.