• Title/Summary/Keyword: 영상기반센서

Search Result 866, Processing Time 0.043 seconds

SAR-IR 융합 기반 표적 탐지 기술 동향 분석

  • Im, Yun-Ji;Won, Jin-Ju;Kim, Seong-Ho;Kim, So-Hyeon
    • ICROS
    • /
    • v.21 no.4
    • /
    • pp.27-33
    • /
    • 2015
  • 단일 센서 기반의 표적 탐지 문제에서 센서의 한계 요소에 의해 탐지 성능이 제한된다. 따라서, 최근 단일 센서 기반의 표적 탐지 성능을 향상시키기 위한 방안으로 각 센서의 강점을 효과적으로 융합하는 다중 센서 정보 융합 기반의 표적 탐지 기법에 대한 연구가 활발히 진행되고 있다. 센서 정보 융합을 위해서는 각 센서별 영상 획득, 각 영상의 기하학적 정합, 센서 정보 융합 기반의 표적 탐지 기술이 필요하며, 본 논문에서는 이에 대한 기술 및 개발 동향을 소개한다.

  • PDF

Tracking of Multi-targets in CCD/IR Multi-sensor system for ITS application (CCD/IR 영상에서의 다중 센서 다중 표적 추적)

  • 이일광;고한석
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.359-362
    • /
    • 2001
  • 본 논문에서는 광학센서와 적외선 센서를 사용하는 Multi-sensor 시스템에서 영상 정보를 통한 물체의 추적 및 인식에 필요한 영상을 분리하는데 필요한 전처리와 object 기반의 추적 방법을 제안하였다. 일반적인 추적 알고리즘의 목표는 consistency를 유지하는데 있다. 그러나 인식에 필요한 영상을 분리하기 위해서는 물체의 범위를 정확히 판단 할 수 있는 능력이 중요하다. 이를 위해 CCD와 IR영상에 동시에 적용 가능한 전처리 기법과 object 기반의 two-step 추적 알고리즘을 통해 consistency외에도, 물체의 범위를 estimation하여 인식에 필요한 범위를 분리해 낸다. 본 논문에서는 ITS 의 ETCS application을 위해 이종 센서인 CCD와 IR의 야간 차량 영상정보를 이용하여 알고리즘을 test 하였다.

  • PDF

스터드 기반의 레이저 레이다 삼차원 영상센서기술

  • Min, Bong-Gi
    • Proceedings of the Korean Vacuum Society Conference
    • /
    • 2013.02a
    • /
    • pp.120-120
    • /
    • 2013
  • 본 발표에서는 최근 무인전투기 및 무인자율주행차량 등의 어플리케이션에 응용되고 있는 삼차원 영상 센서 시스템 기술에 관한 소개와 더불어 한국전자통신연구원에서 독자적인 구도를 기반으로 최근 시연에 성공한 스터드(STUD) 레이저 레이다의 동작원리 및 구현결과를 소개하고자 한다. 최근 전세계의 삼차원 레이저 영상 센서 시스템은 1) 한 관측점을 회전을 통해 스캔하는 2D 스캔 방식에서 벗어나, 2) 일차원 배열 형태로 구현된 관측점을 센서가 회전하면서 얻어지는 3D 스캔 방식과 3) 이차원 어레이 형태의 검출기로 삼차원 영상을 검출하는 방식으로 삼차원 영상을 확보하는 노력으로 구분되어 진행되어 왔다. 이번 시연에 성공한 제안된 방법은, 기존의구도와는 다른 독자적인 방식으로, 대면적 검출기를 기반으로 센서부가 회전하지 않으면서, 하나로 통합된 검출기 출력을 이용할 수 있는 구도인 스터드(STUD: STatic and Unitary Detector)기반의 삼차원 레이저 레이다 시스템이다. 최근 구현 결과는 수평해상도 320, 수직해상도 240인 QVGA 영상 수준으로, 이는 지금까지 세계 최고해상도인 ASC사의 128x128 해상도를 뛰어 넘는 우수한 결과이다. 제안된독자적인 구도의 삼차원 레이저 영상 시스템은 다양한 관련 기술들과의 접목하여 향후 군수용 뿐만아니라 민수용 시장의 기술발전에 큰 영향을 미칠 것으로 예상되고 있다.

  • PDF

A Design of Behavior Recognition method through GAN-based skeleton data generation (GAN 기반 관절 데이터 생성을 통한 행동 인식 방법 설계)

  • Kim, Jinah;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.592-593
    • /
    • 2022
  • 다중 데이터 기반의 행동 인식 과정에서 데이터 수집 반경이 비교적 제한되는 영상 데이터의 결측에 대한 보완이 요구된다. 본 논문에서는 6축 센서 데이터를 이용하여 결측된 영상 데이터를 생성함으로써 행동 인식의 성능을 개선하는 방법을 제안한다. 가속도와 자이로 센서로부터 수집된 행동 데이터를 이용하여 GAN(Generative Adversarial Network)을 통해 영상에서의 관절(Skeleton) 움직임에 대한 데이터를 생성하고자 한다. 이를 위해 DeepLabCut 기반 모델 학습을 통해 관절 좌표를 추출하며, 전처리된 센서 시퀀스 데이터를 가지고 GRU 기반 GAN 모델을 통해 관절 좌표에 대한 영상 시퀀스 데이터를 생성한다. 생성된 영상 시퀀스 데이터는 영상 데이터의 결측이 발생했을 때 대신 행동 인식 모델의 입력값으로 활용될 수 있어 성능 향상을 기대할 수 있다.

Investigation of Sensor Models for Precise Geolocation of GOES-9 Images (GOES-9 영상의 정밀기하보정을 위한 여러 센서모델 분석)

  • Hur, Dong-Seok;Kim, Tae-Jung
    • Korean Journal of Remote Sensing
    • /
    • v.22 no.4
    • /
    • pp.285-294
    • /
    • 2006
  • A numerical formula that presents relationship between a point of a satellite image and its ground position is called a sensor model. For precise geolocation of satellite images, we need an error-free sensor model. However, the sensor model based on GOES ephemeris data has some error, in particular after Image Motion Compensation (IMC) mechanism has been turned off. To solve this problem, we investigated three sensor models: collinearity model, direct linear transform (DLT) model and orbit-based model. We applied matching between GOES images and global coastline database and used successful results as control points. With control points we improved the initial image geolocation accuracy using the three models. We compared results from three sensor models. As a result, we showed that the orbit-based model is a suitable sensor model for precise geolocation of GOES-9 Images.

Design of CV-based Realtime Vision Analysis System for Effective AR Vision Control (효율적인 AR 영상 제어를 위한 CV 기반 실시간 영상 분석 시스템 개발)

  • Jung, Sung-Mo;Song, Jae-Gu;Lim, Ji-Hoon;Kim, Seok-Soo
    • Proceedings of the KAIS Fall Conference
    • /
    • 2010.05a
    • /
    • pp.172-175
    • /
    • 2010
  • 최근 스마트폰 기반의 AR(Augmented Reality) 기술이 이슈화됨에 따라 센서 기반의 AR 콘텐츠들이 빠르게 등장하고 있다. 그러나 센서 기반의 AR 기술인 P-AR(Pseudo AR)은 본질적인 AR이 구현되지 못하는 현실의 대안으로 사용되고 있으며, 실제 영상제어를 통한 AR 기술인 V-AR(Vision AR)은 기술개발이 진행 중에 있다. 이러한 예로 ARToolkit 등 AR을 제어할 수 있는 툴들이 개발 진행 중인데, 센서를 통해 이벤트를 발생시킬 수 있는 P-AR 기술에 반해 V-AR은 영상 자체에서 이벤트를 제어해야 하므로 상대적으로 구현이 어렵기 때문이다. V-AR에서 영상을 제어하기 위해서는 기본적으로 영상에서 잡음 제거, 특정객체 인식, 객체 분석 등이 요구된다. 따라서 본 논문에서는 향후 다가올 V-AR 기술에 대비하여 영상에서 배경 제거, 특정객체 인식, 객체 분석 등 효율적인 AR 영상제어를 할 수 있는 CV 기반 실시간 영상 분석 시스템의 프로토타입을 개발하였다.

  • PDF

Design and Analysis of Flame Signal Detection with the Combination of UV/IR Sensors (UV/IR센서 결합에 의한 불꽃 영상검출의 설계 및 분석)

  • Kang, Daeseok;Kim, Eunchong;Moon, Piljae;Sin, Wonho;Kang, Min-goo
    • Journal of Internet Computing and Services
    • /
    • v.14 no.2
    • /
    • pp.45-51
    • /
    • 2013
  • In this paper, the combination of ultraviolet and infrared sensors based design for flame signal detection algorithms was proposed with the application of light-wavelength from burning. And, the performance result of image detection was compared by an ultraviolet sensor, an infrared sensor, and the proposed dual-mode sensors(combination of ultraviolet and infrared sensors).

Audio and Image based Emotion Recognition Framework on Real-time Video Streaming (실시간 동영상 스트리밍 환경에서 오디오 및 영상기반 감정인식 프레임워크)

  • Bang, Jaehun;Lim, Ho Jun;Lee, Sungyoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.1108-1111
    • /
    • 2017
  • 최근 감정인식 기술은 다양한 IoT 센서 디바이스의 등장으로 단일 소스기반의 감정인식 기술 연구에서 멀티모달 센서기반 감정인식 연구로 변화하고 있으며, 특히 오디오와 영상을 이용한 감정인식 기술의 연구가 활발하게 진행되는 있다. 기존의 오디오 및 영상기반 감정신 연구는 두 개의 센서 테이터를 동시에 입력 저장한 오픈 데이터베이스를 활용하여 다른 이벤트 처리 없이 각각의 데이터에서 특징을 추출하고 하나의 분류기를 통해 감정을 인식한다. 이러한 기법은 사람이 말하지 않는 구간, 얼굴이 보이지 않는 구간의 이벤트 정보처리에 대한 대처가 떨어지고 두 개의 정보를 종합하여 하나의 감정도 도출하는 디시전 레벨의 퓨저닝 연구가 부족하다. 본 논문에서는 이러한 문제를 해결하기 위해 오디오 및 영상에 내포되어 있는 이벤트 정보를 추출하고 오디오 및 영상 기반의 분리된 인지모듈을 통해 감정들을 인식하며, 도출된 감정들을 시간단위로 통합하여 디시전 퓨전하는 실시간 오디오 및 영상기반의 감정인식 프레임워크를 제안한다.

A Design of Gaze Tracker based on Smart Mobile Device (스마트 이동단말 기반 시선 추적기 설계)

  • Ko, Ginam;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1455-1456
    • /
    • 2013
  • 최근 스마트 이동단말에 장착된 영상 센서를 통해 획득한 영상에서 실시간으로 사용자의 눈을 인식하거나 시선을 추적하여 콘텐츠 제어, 행태 분석 등을 수행하는 기술에 대한 필요성이 증가하고 있다. 기존의 영상 분석 기반 시선 추적 기술은 고가의 시선 추적기를 기반으로 하며, 추적한 시선 좌표를 통해 실제 응시객체를 분석하는 사후 작업이 필요하다. 이에, 본 논문에서는 OpenCV를 기반으로 스마트 이동단말의 전면에 장착된 영상 센서에서 사용자의 눈을 인식하고, 시선을 추적한 후, 이를 실시간으로 시선 좌표와 화면의 콘텐츠 내 객체 영역을 매칭함으로써, 응시객체를 분석하는 스마트 이동단말 기반 시선 추적기를 설계하였다. 본 논문의 시선 추적기는 시선 추적을 수행하기 위해, 사용자에게 5개의 화면 교정점을 제공하고 응시하도록 하여 시선 추적 범위를 측정한다. 또한, 스마트 이동단말에 내장된 자이로스코프 센서를 통해 기울기가 변경될 시, 이를 반영하여 시선 교정을 수행하도록 설계하였다.

Accuracy analysis of SPOT Orbit Modeling Using Orbit-Attitude Models (궤도기반 센서모델을 이용한 SPOT 위성 궤도모델링 정확도 분석)

  • Kim, Hyun-Suk;Kim, Tae-Jung
    • Journal of Korean Society for Geospatial Information Science
    • /
    • v.14 no.4 s.38
    • /
    • pp.27-36
    • /
    • 2006
  • Conventionally, in order to get accurate geolocation of satellite images we need a set of ground control points with respect to individual scenes. In this paper, we tested the possibilities of modeling satellite orbits from individual scenes by establishing a sensor model for one scene and by applying the model, which was derived from the same orbital segment, to other scenes that has been acquired from the same orbital segment. We investigated orbit-attitude models with several interpolation methods and with various parameter sets to be adjusted. We used 7 satellite images of SPOT-3 with a length of 420km and ground control points acquired from GPS surveying. Results of the conventional individual scene modeling hardly introduced differences among different interpolation methods and different adjustment parameter sets. As the results of orbit modeling, the best model was the one with Lagrange interpolation for position/velocity and linear interpolation for attitude and with position/angle bias as parameter sets. The best model showed that it is possible to model orbital segments of 420km with ground control points measured within one scene (60km).

  • PDF