• 제목/요약/키워드: multi-sensor information fusion

검색결과 116건 처리시간 0.026초

Multi-Attribute Data Fusion for Energy Equilibrium Routing in Wireless Sensor Networks

  • Lin, Kai;Wang, Lei;Li, Keqiu;Shu, Lei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제4권1호
    • /
    • pp.5-24
    • /
    • 2010
  • Data fusion is an attractive technology because it allows various trade-offs related to performance metrics, e.g., energy, latency, accuracy, fault-tolerance and security in wireless sensor networks (WSNs). Under a complicated environment, each sensor node must be equipped with more than one type of sensor module to monitor multi-targets, so that the complexity for the fusion process is increased due to the existence of various physical attributes. In this paper, we first investigate the process and performance of multi-attribute fusion in data gathering of WSNs, and then propose a self-adaptive threshold method to balance the different change rates of each attributive data. Furthermore, we present a method to measure the energy-conservation efficiency of multi-attribute fusion. Based on our proposed methods, we design a novel energy equilibrium routing method for WSNs, viz., multi-attribute fusion tree (MAFT). Simulation results demonstrate that MAFT achieves very good performance in terms of the network lifetime.

MULTI-SENSOR DATA FUSION FOR FUTURE TELEMATICS APPLICATION

  • Kim, Seong-Baek;Lee, Seung-Yong;Choi, Ji-Hoon;Choi, Kyung-Ho;Jang, Byung-Tae
    • Journal of Astronomy and Space Sciences
    • /
    • 제20권4호
    • /
    • pp.359-364
    • /
    • 2003
  • In this paper, we present multi-sensor data fusion for telematics application. Successful telematics can be realized through the integration of navigation and spatial information. The well-determined acquisition of vehicle's position plays a vital role in application service. The development of GPS is used to provide the navigation data, but the performance is limited in areas where poor satellite visibility environment exists. Hence, multi-sensor fusion including IMU (Inertial Measurement Unit), GPS(Global Positioning System), and DMI (Distance Measurement Indicator) is required to provide the vehicle's position to service provider and driver behind the wheel. The multi-sensor fusion is implemented via algorithm based on Kalman filtering technique. Navigation accuracy can be enhanced using this filtering approach. For the verification of fusion approach, land vehicle test was performed and the results were discussed. Results showed that the horizontal position errors were suppressed around 1 meter level accuracy under simulated non-GPS availability environment. Under normal GPS environment, the horizontal position errors were under 40㎝ in curve trajectory and 27㎝ in linear trajectory, which are definitely depending on vehicular dynamics.

비행시험시스템용 다중센서 자료융합필터 설계 (Design of Multi-Sensor Data Fusion Filter for a Flight Test System)

  • 이용재;이자성
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제55권9호
    • /
    • pp.414-419
    • /
    • 2006
  • This paper presents a design of a multi-sensor data fusion filter for a Flight Test System. The multi-sensor data consist of positional information of the target from radars and a telemetry system. The data fusion filter has a structure of a federated Kalman filter and is based on the Singer dynamic target model. It consists of dedicated local filter for each sensor, generally operating in parallel, plus a master fusion filter. A fault detection and correction algorithms are included in the local filter for treating bad measurements and sensor faults. The data fusion is carried out in the fusion filter by using maximum likelihood estimation algorithm. The performance of the designed fusion filter is verified by using both simulation data and real data.

지상표적식별을 위한 다중센서기반의 정보융합시스템에 관한 연구 (A Study on the Multi-sensor Data Fusion System for Ground Target Identification)

  • 강석훈
    • 안보군사학연구
    • /
    • 통권1호
    • /
    • pp.191-229
    • /
    • 2003
  • Multi-sensor data fusion techniques combine evidences from multiple sensors in order to get more accurate and efficient meaningful information through several process levels that may not be possible from a single sensor alone. One of the most important parts in the data fusion system is the identification fusion, and it can be categorized into physical models, parametric classification and cognitive-based models, and parametric classification technique is usually used in multi-sensor data fusion system by its characteristic. In this paper, we propose a novel heuristic identification fusion method in which we adopt desirable properties from not only parametric classification technique but also cognitive-based models in order to meet the realtime processing requirements.

  • PDF

다중센서 데이터 융합에서 이벤트 발생 빈도기반 가중치 부여 (Multi-sensor Data Fusion Using Weighting Method based on Event Frequency)

  • 서동혁;유창근
    • 한국전자통신학회논문지
    • /
    • 제6권4호
    • /
    • pp.581-587
    • /
    • 2011
  • 무선센서네트워크는 높은 수준의 상황정보를 추론할 수 있기 위해 이질적인 다중센서로 이루어질 필요가 있다. 다중센서에 의해 수집된 데이터를 상황 정보추론에 활용할 때 다중센서 데이터 융합이 필요하다. 본 논문에서는 Dempster-Shafer의 증거이론에 입각하여 무선센서네트워크에서의 데이터 융합할 때 센서별 가중치를 부여하는 방안을 제안하였다. 센서별 이벤트 발생빈도수를 기준으로 하였는데, 센서별 이벤트 발생 빈도수는 해당 센서가 입수한 상황데이터의 가중치를 계산하는데 반영해야 할 요소이다. 센서별 이벤트 발생빈도에 기초하여 가중치를 계산하였으며 이 가중치를 부여하여 다중센서 데이터 융합하였을 때 신뢰도가 더욱 뚜렷한 격차를 보이게 함으로써 상황정보를 추론함에 있어서 용이할 수 있었다.

항공전자 멀티센서 정보 융합 구조 연구 (A Study on a Multi-sensor Information Fusion Architecture for Avionics)

  • 강신우;이승필;박준현
    • 한국항행학회논문지
    • /
    • 제17권6호
    • /
    • pp.777-784
    • /
    • 2013
  • 다른 종류의 센서에서 생산되는 데이터를 하나의 정보로 종합하는 공정으로 멀티 센서 데이터 융합이 연구되고 있으며 다양한 플랫폼에서 활용되고 있다. 항공기도 여러 종류의 센서들을 장착하고 있으며 항공전자 체계에서 이를 통합하여 관리하고 있다. 항공기 센서의 성능이 높아지면서 항공전자 관점에서 센서 정보의 통합이 점차 증가하고 있다. 센서에서 생산된 데이터를 하나의 융합된 정보로 항공기 조종사에게 전시 장비로 시현하기 위한 융합을 담당하는 소프트웨어 관점에서 정보 융합을 다루는 연구는 활성화 되지 않고 있다. 항공기에서 정보 융합의 목적은 올바른 전투상황을 조종사에게 제공하여 임무를 수행하는 데에 필요한 결정을 돕고 이를 위한 조종 업무량을 최소화하는 것이다. 본 논문에서는 다양한 센서들이 운용되는 항공전자 시스템의 멀티센서데이터 융합을 위한 소프트웨어 관점에서 센서들이 생산하는 데이터가 사용자에게 종합된 정보 형태로 제공되기 위한 구조를 보인다.

퍼지 논리 융합과 반복적 Relaxation Labeling을 이용한 다중 센서 원격탐사 화상 분류 (Classification of Multi-sensor Remote Sensing Images Using Fuzzy Logic Fusion and Iterative Relaxation Labeling)

  • 박노욱;지광훈;권병두
    • 대한원격탐사학회지
    • /
    • 제20권4호
    • /
    • pp.275-288
    • /
    • 2004
  • 이 논문은 다중 센서 원격탐사 화상의 분류를 위해 퍼지 논리 융합과 결합된 relaxation labeling 방법을 제안하였다. 다중 센서 원격탐사 화상의 융합에는 퍼지 논리를, 분광정보와 공간정보의 융합에는 반복적인 relaxation labeling 방법을 적용하였다. 특히 반복적 relaxation labeling 방법은 공간정보의 이용에 따른 분류 화소의 변화양상을 얻을 수 있는 장점이 있다. 토지 피복의 감독 분류를 목적으로 광학 화상과 다중 주파수/편광 SAR 화상에 제안 기법을 적용한 결과, 다중 센서 자료를 이용하고 공간정보를 함께 결합하였을 때 향상된 분류 정확도를 얻을 수 있었다.

Sensor fault diagnosis for bridge monitoring system using similarity of symmetric responses

  • Xu, Xiang;Huang, Qiao;Ren, Yuan;Zhao, Dan-Yang;Yang, Juan
    • Smart Structures and Systems
    • /
    • 제23권3호
    • /
    • pp.279-293
    • /
    • 2019
  • To ensure high quality data being used for data mining or feature extraction in the bridge structural health monitoring (SHM) system, a practical sensor fault diagnosis methodology has been developed based on the similarity of symmetric structure responses. First, the similarity of symmetric response is discussed using field monitoring data from different sensor types. All the sensors are initially paired and sensor faults are then detected pair by pair to achieve the multi-fault diagnosis of sensor systems. To resolve the coupling response issue between structural damage and sensor fault, the similarity for the target zone (where the studied sensor pair is located) is assessed to determine whether the localized structural damage or sensor fault results in the dissimilarity of the studied sensor pair. If the suspected sensor pair is detected with at least one sensor being faulty, field test could be implemented to support the regression analysis based on the monitoring and field test data for sensor fault isolation and reconstruction. Finally, a case study is adopted to demonstrate the effectiveness of the proposed methodology. As a result, Dasarathy's information fusion model is adopted for multi-sensor information fusion. Euclidean distance is selected as the index to assess the similarity. In conclusion, the proposed method is practical for actual engineering which ensures the reliability of further analysis based on monitoring data.

Improvement of Land Cover Classification Accuracy by Optimal Fusion of Aerial Multi-Sensor Data

  • Choi, Byoung Gil;Na, Young Woo;Kwon, Oh Seob;Kim, Se Hun
    • 한국측량학회지
    • /
    • 제36권3호
    • /
    • pp.135-152
    • /
    • 2018
  • The purpose of this study is to propose an optimal fusion method of aerial multi - sensor data to improve the accuracy of land cover classification. Recently, in the fields of environmental impact assessment and land monitoring, high-resolution image data has been acquired for many regions for quantitative land management using aerial multi-sensor, but most of them are used only for the purpose of the project. Hyperspectral sensor data, which is mainly used for land cover classification, has the advantage of high classification accuracy, but it is difficult to classify the accurate land cover state because only the visible and near infrared wavelengths are acquired and of low spatial resolution. Therefore, there is a need for research that can improve the accuracy of land cover classification by fusing hyperspectral sensor data with multispectral sensor and aerial laser sensor data. As a fusion method of aerial multisensor, we proposed a pixel ratio adjustment method, a band accumulation method, and a spectral graph adjustment method. Fusion parameters such as fusion rate, band accumulation, spectral graph expansion ratio were selected according to the fusion method, and the fusion data generation and degree of land cover classification accuracy were calculated by applying incremental changes to the fusion variables. Optimal fusion variables for hyperspectral data, multispectral data and aerial laser data were derived by considering the correlation between land cover classification accuracy and fusion variables.

다중센서 기반 차선정보 시공간 융합기법 (Lane Information Fusion Scheme using Multiple Lane Sensors)

  • 이수목;박기광;서승우
    • 전자공학회논문지
    • /
    • 제52권12호
    • /
    • pp.142-149
    • /
    • 2015
  • 단일 카메라 센서를 기반으로 한 차선검출 시스템은 급격한 조도 변화, 열악한 기상환경 등에 취약하다. 이러한 단일 센서 시스템의 한계를 극복하기 위한 방안으로 센서 융합을 통해 성능 안정화를 도모할 수 있다. 하지만, 기존 센서 융합의 연구는 대부분 물체 및 차량을 대상으로 한 융합 모델에 국한되어 차용하기 어렵거나, 차선 센서의 다양한 신호 주기 및 인식범위에 대한 상이성을 고려하지 않은 경우가 대부분이었다. 따라서 본 연구에서는 다중센서의 상이성을 고려하여 차선 정보를 최적으로 융합하는 기법을 제안한다. 제안하는 융합 프레임워크는 센서 별 가변적인 신호처리 주기와 인식 신뢰 범위를 고려하므로 다양한 차선 센서 조합으로도 정교한 융합이 가능하다. 또한, 새로운 차선 예측 모델의 제안을 통해 간헐적으로 들어오는 차선정보를 세밀한 차선정보로 정밀하게 예측하여 다중주기 신호를 동기화한다. 조도환경이 열악한 환경에서의 실험과 정량적 평가를 통해, 제안하는 융합 시스템이 기존 단일 센서 대비 인식 성능이 개선됨을 검증한다.