• Title/Summary/Keyword: 융합센서 인식 기술

Search Result 110, Processing Time 0.034 seconds

자율주행 YT 개발을 위한 다중 센서 기반의 융합 인식기술

  • Kim, Tae-Geun;Lee, Seong-Ho
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2020.11a
    • /
    • pp.159-160
    • /
    • 2020
  • 카메라, 라이다, RTK-GNSS 등의 센서는 자율주행 YT 기술 개발을 위해 매우 주요한 요소이다. 본 연구에서는 항만 터미널의 무인화에 핵심 기술 중의 하나인 자율주행 YT에서 안전한 자율주행을 실현하기 위한 다중센서 기반의 융합인식 기술을 제안하고자 한다.

  • PDF

Design of a Situation-Awareness Processing System with Autonomic Management based on Multi-Sensor Data Fusion (다중센서 데이터 융합 기반의 자율 관리 능력을 갖는 상황인식처리 시스템의 설계)

  • Young-Gyun Kim;Chang-Won Hyun;Jang Hun Oh;Hyo-Chul Ahn;Young-Soo Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.913-916
    • /
    • 2008
  • 다중 센서 데이터 융합(Multi-Sensor Data Fusion)에 기반하여 자율관리 기능을 갖는 상황인식시스템에 대해 연구하였다. 다양한 형태의 센서들이 대규모의 네트워크로 연결된 환경에서 센서로부터 실시간으로 입력되는 데이터들을 융합하여 상황인식처리를 수행하는 시스템으로 노드에 설치된 소프트웨어 콤포넌트의 이상 유무를 자동 감지하고 치료하는 자율관리(Autonomic management) 기능을 갖는다. 제안한 시스템은 유비쿼터스 및 국방 무기체계의 감시·정찰, 지능형 자율 로봇, 지능형 자동차 등 다양한 상황인식 시스템에 적용가능하다.

Implementation of Unmanned Monitoring/Tracking System based on Wireless Sensor Network (무선 센서 네트워크 기반 무인 감시/추적 시스템의 구현)

  • Ahn, Il-Yeup;Lee, Sang-Shin;Kim, Jae-Ho;Song, Min-Hwan;Won, Kwang-Ho
    • Proceedings of the IEEK Conference
    • /
    • 2005.11a
    • /
    • pp.1019-1022
    • /
    • 2005
  • 본 논문에서는 현재 활발한 연구개발이 이루어지고 있는 유비쿼터스 컴퓨팅, 센서 네트워크 기술을 적용한 무인 감시/추적 시스템을 제시한다. 본 논문의 무인 감시/추적 시스템은 센서네트워크 기술, 다중센서 융합에 의한 탐지 및 위치 인식기술, 무인 감시/추적 알고리즘으로 구성되어 있다. 센서네트워크는 센싱 데이터를 실시간으로 전송하기 위해 노드의 주소를 기반으로 하는 계층적 멀티홉 라우팅 기법을 제안하였다. 침입자와 추적자의 위치 인식은 자기센서 및 초음파센서를 가진 센서모듈들로부터 얻어진 센싱 정보를 융합하고, 이를 확률적으로 침입자 및 추적자의 위치를 결정하는 Particle Filter를 적용한 위치인식 알고리즘을 통해 이루어진다. 추적 알고리즘은 무인 자율 추적을 위해 이동벡터에 기반한 알고리즘이다.

  • PDF

Self-Localization of Mobile Robot Using Multi-Sensor (다중센서를 이용한 모바일 로봇의 자기위치 인식)

  • Kim, Young-Baek
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2009.01a
    • /
    • pp.125-128
    • /
    • 2009
  • 모바일 로봇이 자기 역할을 수행하기 위해서는 자기위치인식 기술이 반드시 필요하다. 이에 본 논문에서는 기존 초음파 센서만을 이용한 위치인식 기술의 난제와 카메라 즉, 영상처리만을 이용한 위치 인식 기술의 난제를 두 가지 기술의 융합으로 쉽게 해결할 수 있도록 한다.

  • PDF

Information Fusion of Cameras and Laser Radars for Perception Systems of Autonomous Vehicles (영상 및 레이저레이더 정보융합을 통한 자율주행자동차의 주행환경인식 및 추적방법)

  • Lee, Minchae;Han, Jaehyun;Jang, Chulhoon;Sunwoo, Myoungho
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.23 no.1
    • /
    • pp.35-45
    • /
    • 2013
  • A autonomous vehicle requires improved and robust perception systems than conventional perception systems of intelligent vehicles. In particular, single sensor based perception systems have been widely studied by using cameras and laser radar sensors which are the most representative sensors for perception by providing object information such as distance information and object features. The distance information of the laser radar sensor is used for road environment perception of road structures, vehicles, and pedestrians. The image information of the camera is used for visual recognition such as lanes, crosswalks, and traffic signs. However, single sensor based perception systems suffer from false positives and true negatives which are caused by sensor limitations and road environments. Accordingly, information fusion systems are essentially required to ensure the robustness and stability of perception systems in harsh environments. This paper describes a perception system for autonomous vehicles, which performs information fusion to recognize road environments. Particularly, vision and laser radar sensors are fused together to detect lanes, crosswalks, and obstacles. The proposed perception system was validated on various roads and environmental conditions with an autonomous vehicle.

공간정보산업 기술동향 - ETRI 연구과제 중심으로

  • Kim, Min-Su
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2010.06a
    • /
    • pp.186-186
    • /
    • 2010
  • 최근 들어, 2차원/3차원의 랩 또는 항공/위성 영상의 공간정보를 웹 상에서 서비스 하고 이러한 공간정보에 다양한 정보들을 융 복합하여 사용자들에게 보다 높은 수준의 정보를 제공하기 위한 기술개발에 대한 관심이 급증하고 있다. 예를들어, Microsoft사의 경우는 사용자 참여형(Participatory) 센서 웹 환경을 구축하기 위하여 SenseWeb 관련 기술 개발 및 시범 프로젝트를 수행하고 있는데, SenseWeb 시스템에서는 전 세계에 존재하는 모든 센서들을 연계하여 웹 상에서 사용자들에게 제공할 수 있도록 하는 것을 목표로 하고 있다. 최근에는, 이러한 SenseWeb 시스템을 이용하여 센싱정보와 Bing Map의 공간정보를 융합하여 사용자에게 서비스를 제공할 수 있는 SensorMap 시스템이 개발되었는데, 이러한 SensorWeb/SensorMap 시스템을 기반으로 다양한 시범 프로젝트들이 진행되어 오고 있다. Google사의 경우는 기존에 서비스 되고 Google Eearth/Map을 기반으로 실시간 센싱정보를 연계하여 제공하는 서비스와 다양한 사용자들의 정보들을 테이블 형태로 연계 및 융합하여 제공하기 위한 Google Fusion Tables 서비스를 제공하고 있다. Oracle사의 경우는 센싱정보를 포함하여 실시간으로 끊임없이 변화하는 정보들에 대하여 이벤트 처리, 패턴 분석, 그리고 상황인식 등의 서비스를 제공할 수 있는 CEP(Complex Event Processing) 제품을 선보이고 있다. Nokia사의 경우는 기존의 고정 센서노드들 이외에 모든 모바일 폰을 이동이 가능한 센서노드로 가정하고 이러한 모바일 센서노드들로부터 교통정보를 포함하는 다양한 센싱정보를 수집하고 분석하여 공간정보 기반으로 서비스하기 위한 기술 개발을 꾸준히 추진해 오고 있다. 본 발표에서는 이러한 공간정보와 센싱정보 또는 기타 사용자 정보와의 융 복합서비스를 가능하게 하는 핵심기술들에 대하여 소개하고자 한다. 첫째로 다양한 공간정보와 센싱정보의 융 복합 및 분석 서비스를 제공할 수 있는 u-GIS 융합 엔진에 대하여 설명하고자 한다. u-GIS 융합 엔진에서는 구체적으로 최근 이슈가 되고 있는 다양한 센싱정보의 효율적 수집, 분석, 관리를 위한 GeoSensor 데이터 저장/관리 기술과 센싱정보-공간정보의 실시간 융합 분석 기술에 대해서 소개를 하고자 한다. 둘째로, 이러한 공간정보, 센싱정보 그리고 기타 사용자 정보들을 웹 상에서 효율적으로 매쉬업하여 2차원 및 3차원으로 사용자에게 제공하기 위한 맞춤형 국토정보 제공 기술에 대하여 설명하고자 한다. 여기서는 공간정보 센싱정보 그리고 기타 사용자 정보와의 연계를 위한 매쉬업 엔진 기술 그리고 실시간 3차원 공간정보 제공 기술 등에 대하여 소개를 하고자 한다. 끝으로, 영상 기반의 효율적인 공간정보 구축을 위한 멀티센서 데이터 처리 기술에 대하여 간략히 소개를 하고, 앞에서 설명된 핵심기술들 이외에도 향후 추가로 요구되는 기술개발 내용에 대하여 간략히 설명을 하고자 한다.

  • PDF

A Design of Gaze Tracker based on Smart Mobile Device (스마트 이동단말 기반 시선 추적기 설계)

  • Ko, Ginam;Moon, Nammee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1455-1456
    • /
    • 2013
  • 최근 스마트 이동단말에 장착된 영상 센서를 통해 획득한 영상에서 실시간으로 사용자의 눈을 인식하거나 시선을 추적하여 콘텐츠 제어, 행태 분석 등을 수행하는 기술에 대한 필요성이 증가하고 있다. 기존의 영상 분석 기반 시선 추적 기술은 고가의 시선 추적기를 기반으로 하며, 추적한 시선 좌표를 통해 실제 응시객체를 분석하는 사후 작업이 필요하다. 이에, 본 논문에서는 OpenCV를 기반으로 스마트 이동단말의 전면에 장착된 영상 센서에서 사용자의 눈을 인식하고, 시선을 추적한 후, 이를 실시간으로 시선 좌표와 화면의 콘텐츠 내 객체 영역을 매칭함으로써, 응시객체를 분석하는 스마트 이동단말 기반 시선 추적기를 설계하였다. 본 논문의 시선 추적기는 시선 추적을 수행하기 위해, 사용자에게 5개의 화면 교정점을 제공하고 응시하도록 하여 시선 추적 범위를 측정한다. 또한, 스마트 이동단말에 내장된 자이로스코프 센서를 통해 기울기가 변경될 시, 이를 반영하여 시선 교정을 수행하도록 설계하였다.

An Agro-ICT Convergence Model for Smart Agricultural Service Based on IoT (IoT기반의 지능형 농업서비스를 위한 농업ICT 융합 모델)

  • Kwak, Kyunghun;Kim, Hong-geun;Cho, Kyongryong;Park, Jangwoo;Cho, Yongyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.1033-1035
    • /
    • 2015
  • 최근, IT기술과의 융합은 전 산업 분야에서 활발히 적용되고 있으며, 기후 및 환경변화와 식품 안전에 대한 관심의 증대와 함께, 농축수산업 분야에서의 ICT융합 연구 시도가 크게 증가하고 있다. 특히, 농업환경에서의 생산성 향상 및 식품 안전성 확보를 위해 다양한 형태의 상황정보 기반 연구와 센서 네트워크를 활용한 지능형 서비스 제공 기술 연구가 활발히 진행되고 있다. 본 논문에서는 다양한 장비 및 센서가 컴퓨팅 장비와의 네트워킹을 통해 식물공장 및 유리온실과 같은 시설농업환경에서 지능형 농업서비스를 제공하기 위한 농업ICT 융합 모델을 제안한다. 제안하는 서비스 융합모델은 센서를 통해 획득한 다양한 상태정보를 인식하기 위해 상황정보 모델과, 이를 장비와 센서간에 공유된 지식으로 표현하고 활용하기 위한 온톨로지 모델을 사용한다. 제안하는 서비스 융합 모델은 농업ICT 융합 환경에서의 IoT기반 지능형 서비스를 위한 향후 관련 연구에 도움을 줄 것으로 기대한다.

An Implementation of Real-Time Monitoring System using HCHO-senosr data on USN (포름알데히드 센서데이터를 이용한 실시간 모니터링 시스템 구현1))

  • Kang, Won-Seok;Lee, Dong-Ha;Cho, Wan-Kuen
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.05a
    • /
    • pp.987-990
    • /
    • 2008
  • 센서 데이터들을 실제 IT 환경 하에서 데이터 처리하기 위해서 네트워크 인프라 환경으로 USN(Ubiquitous Sensor Network) 환경이 많이 연구되어지고 있다. 이들 환경은 온도, 소리, 진동, 습도등 생활 주변의 정보를 수집하여 이에 발생된 데이터들을 특정 시스템에서 처리하여 주변상황 상태등을 인식 및 관리를 하는데 목적을 둔다. 기존 USN 기술은 주로 네트워킹 관점의 연구가 활발히 수행되어지고 있다. USN은 미래 유비쿼터스 사회를 위한 기반 인프라로 국가적으로 기술 개발을 추진 중에 있으며 다양한 시범 서비스를 추진 중에 있다. 최근에는 환경, 에너지 등의 미래 신 성장 산업 분야에서 환경문제를 해결할 수 있는 기술 개발을 전략적으로 추진 중에 있다. 본 논문에서는 다양한 건축자재 및 생활 용품에서 배출되고 실내공간, 사무실, 주거지 등 일반 환경에서 보편적으로 존재하는 인체유해물질인 포름알데히드(HCHO) 오염농도를 수집 할 수 있는 센서네트워크 환경을 구축하고 수집된 HCHO 센서 데이터들을 이용하여 주변 사람들에게 위험정보를 제시하는 한 시스템으로 ET-IT 융합 시스템인 실시간 모니터링 시스템을 제시한다.

Design of ToF-Stereo Fusion Sensor System for 3D Spatial Scanning (3차원 공간 스캔을 위한 ToF-Stereo 융합 센서 시스템 설계)

  • Yun Ju Lee;Sun Kook Yoo
    • Smart Media Journal
    • /
    • v.12 no.9
    • /
    • pp.134-141
    • /
    • 2023
  • In this paper, we propose a ToF-Stereo fusion sensor system for 3D space scanning that increases the recognition rate of 3D objects, guarantees object detection quality, and is robust to the environment. The ToF-Stereo sensor fusion system uses a method of fusing the sensing values of the ToF sensor and the Stereo RGB sensor, and even if one sensor does not operate, the other sensor can be used to continuously detect an object. Since the quality of the ToF sensor and the Stereo RGB sensor varies depending on the sensing distance, sensing resolution, light reflectivity, and illuminance, a module that can adjust the function of the sensor based on reliability estimation is placed. The ToF-Stereo sensor fusion system combines the sensing values of the ToF sensor and the Stereo RGB sensor, estimates the reliability, and adjusts the function of the sensor according to the reliability to fuse the two sensing values, thereby improving the quality of the 3D space scan.