• Title/Summary/Keyword: 결합확률데이터연관

Search Result 10, Processing Time 0.032 seconds

Experimental Research on Radar and ESM Measurement Fusion Technique Using Probabilistic Data Association for Cooperative Target Tracking (협동 표적 추적을 위한 확률적 데이터 연관 기반 레이더 및 ESM 센서 측정치 융합 기법의 실험적 연구)

  • Lee, Sae-Woom;Kim, Eun-Chan;Jung, Hyo-Young;Kim, Gi-Sung;Kim, Ki-Seon
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.37 no.5C
    • /
    • pp.355-364
    • /
    • 2012
  • Target processing mechanisms are necessary to collect target information, real-time data fusion, and tactical environment recognition for cooperative engagement ability. Among these mechanisms, the target tracking starts from predicting state of speed, acceleration, and location by using sensors' measurements. However, it can be a problem to give the reliability because the measurements have a certain uncertainty. Thus, a technique which uses multiple sensors is needed to detect the target and increase the reliability. Also, data fusion technique is necessary to process the data which is provided from heterogeneous sensors for target tracking. In this paper, a target tracking algorithm is proposed based on probabilistic data association(PDA) by fusing radar and ESM sensor measurements. The radar sensor's azimuth and range measurements and the ESM sensor's bearing-only measurement are associated by the measurement fusion method. After gating associated measurements, state estimation of the target is performed by PDA filter. The simulation results show that the proposed algorithm provides improved estimation under linear and circular target motions.

실시간 CRM을 위한 분류 기법과 연관성 규칙의 통합적 활용;신용카드 고객 이탈 예측에 활용

  • Lee, Ji-Yeong;Kim, Jong-U
    • 한국경영정보학회:학술대회논문집
    • /
    • 2007.06a
    • /
    • pp.135-140
    • /
    • 2007
  • 이탈 고객 예측은 데이터 마이닝에서 다루는 주요한 문제 중에 하나이다. 이탈 고객 예측은 일종의 분류(classification) 문제로 의사결정나무추론, 로지스틱 회귀분석, 인공신경망 등의 기법이 많이 활용되어왔다. 일반적으로 이탈 고객 예측을 위한 모델은 고객의 인구통계학적 정보와 계약이나 거래 정보를 입력변수로 하여 이탈 여부를 목표변수로 보는 형태로 분류 모델을 생성하게 된다. 본 연구에서는 고객과의 지속적인 접촉으로 발생되는 추가적인 사건 정보를 활용하여 연관성 규칙을 생성하고 이 결과를 기존의 방식으로 생성된 분류 모델과 결합하는 이탈 고객 예측 방법을 제시한다. 제시한 방법의 유용성을 확인하기 위해서 특정 국내 신용카드사의 실제 데이터를 활용하여 실험을 수행하였다. 실험 결과 제시된 방법이 기존의 전통적인 분류 모델에 비해서 향상된 성능을 보이는 것을 확인할 수 있었다. 제시된 예측 방법의 장점은 기존의 이탈 예측을 위한 입력 변수들 이외에 고객과 회사간의 접촉을 통해서 생성된 동적 정보들을 통합적으로 활용하여 예측 정확도를 높이고 실시간으로 이탈 확률을 갱신할 수 있다는 점이다.

  • PDF

Maneuvering Target Tracking by Perception Net in Clutter Environment (클러터 환경하에서 Perception Net을 이용한 기동 표적 추적)

  • 황태현;최재원;홍금식
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 1995.10a
    • /
    • pp.602-605
    • /
    • 1995
  • In this paper, we provide the new alogorithm for maneuvering target tracking in clutter environment using perception net. The perception net, as a structural representation of the sensing capabilities of a system, may supply the constraints that target must be satisfied with. The results form perception net applying to IMMPDA are compared with those obtained from IMMPDA.

  • PDF

Comparing Accuracy of Imputation Methods for Categorical Incomplete Data (범주형 자료의 결측치 추정방법 성능 비교)

  • 신형원;손소영
    • The Korean Journal of Applied Statistics
    • /
    • v.15 no.1
    • /
    • pp.33-43
    • /
    • 2002
  • Various kinds of estimation methods have been developed for imputation of categorical missing data. They include category method, logistic regression, and association rule. In this study, we propose two fusions algorithms based on both neural network and voting scheme that combine the results of individual imputation methods. A Mont-Carlo simulation is used to compare the performance of these methods. Five factors used to simulate the missing data pattern are (1) input-output function, (2) data size, (3) noise of input-output function (4) proportion of missing data, and (5) pattern of missing data. Experimental study results indicate the following: when the data size is small and missing data proportion is large, modal category method, association rule, and neural network based fusion have better performances than the other methods. However, when the data size is small and correlation between input and missing output is strong, logistic regression and neural network barred fusion algorithm appear better than the others. When data size is large with low missing data proportion, a large noise, and strong correlation between input and missing output, neural networks based fusion algorithm turns out to be the best choice.

Multiple Target Tracking using Normalized Rayleigh Likelihood of Amplitude Information of Target (Normalized Rayleigh Likelihood를 활용한 표적신호세기정보 적용 다중표적추적 기술)

  • Kim, Sujin;Jung, Younghun;Kim, Seongjoon
    • Journal of the Korea Institute of Military Science and Technology
    • /
    • v.20 no.4
    • /
    • pp.474-481
    • /
    • 2017
  • This paper presents a multiple target tracking system using Normalized Rayleigh likelihood of amplitude information of target. Although many studies of Radar systems using amplitude information have been studied, they are focused on single target tracking. This paper proposes the multiple target tracking using amplitude information as well as kinematic information from Radar sensor. The amplitude information are applied in generating the association probability of joint probabilistic data association(JPDA) algorithm through the normalized Rayleigh likelihood. It is verified that the proposed system can enhance the track maintenance and tracking accuracy, especially, in the target crossing case.

A Technique to Detect Change-Coupled Files Using the Similarity of Change Types and Commit Time (변경 유형의 유사도 및 커밋 시간을 이용한 파일 변경 결합도)

  • Kim, Jung Il;Lee, Eun Joo
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.2
    • /
    • pp.65-72
    • /
    • 2014
  • Change coupling is a measure to show how strongly change-related two entities are. When two source files have been frequently changed together, they are regarded as change-coupled files and they will probably be changed together in the near future. In the previous studies, the change coupling between two files is defined with the number of common changed time, that is, common commit time of the files. However, the frequency-based technique has limitations because of 'tangled changes', which frequently happens in the development environments with version control systems. The tangled change means that several code hunks have been changed at the same time, though they have no relation with each other. In this paper, the change types of the code hunks are also used to define change coupling, in addition to the common commit time of target files. First, the frequency vector based on change types are defined with the extracted change types, and then, the similarity of change patterns are calculated using the cosine similarity measure. We conducted experiments on open source project Eclipse JDT and CDT for case studies. The result shows that the applicability of the proposed method, compared to the previous studies.

Sparse and low-rank feature selection for multi-label learning

  • Lim, Hyunki
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.7
    • /
    • pp.1-7
    • /
    • 2021
  • In this paper, we propose a feature selection technique for multi-label classification. Many existing feature selection techniques have selected features by calculating the relation between features and labels such as a mutual information scale. However, since the mutual information measure requires a joint probability, it is difficult to calculate the joint probability from an actual premise feature set. Therefore, it has the disadvantage that only a few features can be calculated and only local optimization is possible. Away from this regional optimization problem, we propose a feature selection technique that constructs a low-rank space in the entire given feature space and selects features with sparsity. To this end, we designed a regression-based objective function using Nuclear norm, and proposed an algorithm of gradient descent method to solve the optimization problem of this objective function. Based on the results of multi-label classification experiments on four data and three multi-label classification performance, the proposed methodology showed better performance than the existing feature selection technique. In addition, it was showed by experimental results that the performance change is insensitive even to the parameter value change of the proposed objective function.

Regionalization of Extreme Rainfall with Spatio-Temporal Pattern (극치강수량의 시공간적 특성을 이용한 지역빈도분석)

  • Lee, Jeong-Ju;Kwon, Hyun-Han;Kim, Byung-Sik;Yoon, Seok-Yeong
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2010.05a
    • /
    • pp.1429-1433
    • /
    • 2010
  • 수공구조물의 설계, 수자원 관리계획의 수립, 재해영향 검토 등을 수행할 때, 재현기간에 따른 확률개념의 강우량, 홍수량, 저수량 등을 산정하여 사용하게 되며, 보통 대상지역의 장기 수문관측 자료를 이용하여 수문사상의 확률분포를 산정한 후 재현기간을 연장하여 원하는 설계빈도에 해당하는 양을 추정하게 된다. 미계측지역 또는 관측자료의 보유기간이 짧은 지역의 경우는 지역빈도 분석 결과를 이용하게 된다. 지역빈도해석을 위해서는 강우자료들의 동질성을 파악하는 것이 가장 기본적인 과정이 되며 이를 위해 통계학적인 범주화분석이 선행되어야 한다. 지점 빈도분석의 수문학적 동질성 판별을 위해 L-moment 방법, K-means 방법에 의한 군집분석 등이 주로 사용되며 관측소 위치좌표를 이용한 공간보간법을 적용하여 시각화하고 있다. 강수량은 시공간적으로 변하는 수문변량으로서 강수량의 시간적인 특성 또한 강수량의 특성을 정의하는데 매우 중요한 요소이다. 이러한 점에서 본 연구를 통해 강수지점의 공간적인 좌표 및 강수량의 양적인 범주화에 초점을 맞춘 기존 지역빈도분석의 범주화 과정에 덧붙여 시간적인 영향을 고려할 수 있는 요소들을 결정하고 이를 활용할 수 있는 범주화 과정을 제시하고자 한다. 즉, 극치강수량의 발생 시기에 대한 정량적인 분석이 가능한 순환통계기법을 이용하여 관측 지점별 시간 통계량을 산정하고, 이를 극치강수량과 결합하여 시 공간적인 특성자료를 생성한 후 이를 이용한 군집화 해석 모형을 개발하는데 연구의 목적이 있다. 분석 과정에 있어서 시간속성의 정량화 및 일반화는 순환통계기법을 사용하였으며, 극치강수량과 발생시점의 속성자료는 각각의 평균과 표준편차를 이용하였다. K-means 알고리즘을 이용해 결합자료를 군집화 하고, L-moment 방법으로 지역화 결과에 대한 검증을 수행하였다. 속성 결합 자료의 군집화 효과는 모의데이터 실험을 통해 확인하였으며, 우리 나라의 58개 기상관측소 자료를 이용하여 분석을 수행하였다. 예비해석 단계에서 100회의 군집분석을 통해 평균적인 centroid를 산정하고, 해당 값을 본 해석의 초기 centroid로 지정하여, 변동적인 클러스터링 경향을 안정화시켜 해석이 반복됨에 따라 군집화 결과가 달라지는 오류를 방지하였다. 또한 K-means 방법으로 계산된 군집별 공간거리 합의 크기에 따라 군집번호를 부여함으로써 군집의 번호순서대로 물리적인 연관성이 인접하도록 설정하였으며, 군집간의 경계선을 추출할 때 발생할 수 있는 오류를 방지하였다. 지역빈도분석 결과는 3차원 Spline 기법으로 도시하였다.

  • PDF

Analyzing The Economic Impact of The Fire Risk Reduction at Regional Level in Goyang City (지역단위 화재 위험도 저감의 고양시 경제적 파급효과 분석)

  • Son, Minsu;Cho, Dongin;Park, Chang Keun;Ko, Hyun A;Jung, Seunghyun
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.22 no.2
    • /
    • pp.685-693
    • /
    • 2021
  • This study examined the fire risk of the region in Goyang City using the spatial information data of buildings. The economic damage by industry was assessed according to the probability of fire risk. The study area was confined to Goyang-si, Gyeonggi-do, and the same fire risk reduction rate was applied to each region for the convenience of analysis. The possibility of fire was derived based on the buildings' density and usage in the area by National GIS building-integrated information standard data. The calculation of economic damage by industry in Goyang City due to the fire risk was calculated by combining the Goyang-si industry-related model produced by matching with 30 industrial categories in Input-Output Statistics of Korea Bank and 20 industrial categories in the Goyang-si business survey and the possibility of fire. The basic scenario of production impossibility during six months and business loss due to fire was established and analyzed based on the supply model. The analysis showed that Ilsan-dong-gu, Ilsan-seo-gu, and Deokyang-gu suffered the most economic damage. The "electricity, gas, steam, and water business" showed the greatest loss by industry.

Prediction of Overflow Hazard Area in Urban Watershed by Applying Data-Driven Model (자료지향형 모형을 이용한 도시유역에서의 월류 위험지역 예측)

  • Kim, Hyun Il;Keum, Ho Jun;Lee, Jae Yeong;Kim, Beom Jin;Han, Kun Yeun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2018.05a
    • /
    • pp.6-6
    • /
    • 2018
  • 최근 집중 호우로 인한 내수침수 피해가 도시화와 기후변화로 늘어나고 있다. 내수침수 피해로 인한 복구비용과 시간이 증가하고 있으며 향후에는 이보다 더 크게 늘어날 것으로 예상된다. 이러한 문제를 해결하기 위하여 충분한 선행시간을 가지고 내수 침수 구역을 제시할 수 있어야 한다. 기존의 물리적 모델은 정확하고 정교한 결과를 제공하지만, 시뮬레이션을 준비하고 마치는 데에 시간이 많이 소요된다. 그 이유로서는 강우량, 지형적 특성, 배수관망 시스템, 수문학적 매개변수 등의 다양한 데이터도 필요하기 때문이다. 이는 도시유역에 대한 내수침수의 실시간 예측이 어렵게 되었으며, 충분한 선행시간을 확보하지 못하는 원인이 되었다. 본 연구에서는 이 문제에 대한 해결책으로 결정론적 방법과 확률론적 방법을 자료지향형 모형으로 결합하여 해결책을 제시하고자 하며, 특정 강우 조건하에 도시유역에서의 내수침수에 영향을 미치는 맨홀에 대한 정보를 제공하고자 한다. 위와 같은 과정을 수행하기 위하여 입력자료 조합에 대한 비선형 분석을 실시하였으며, 그 결과로 특정 강우 조건에 대하여 각 맨홀에 대한 누적월류량을 예측할 수 있는 비선형 인공신경망을 구축할 수 있었다. 본 연구에서 제시된 방법론은 국내의 강남 배수분구에 대하여 적용이 되었으며, 내수침수 예측결과와 2차원 해석결과를 비교하고자 하였다. 본 연구에서는 위 과정을 통하여 1차원 도시유출해석을 위한 입력 자료를 준비하는 시간을 절약하고, 다양한 강우 조건과 내수침수지도 사이의 연관성을 학습하는 예측 모형을 이용하여 도시유역의 내수침수에 대한 충분한 선행시간을 확보하고자 한다. 결론적으로, 이 연구의 결과는 도시유역에 대한 비구조적 대책 수립에 도움을 줄 것으로 확인이 되며 도시 유역 내에 맨홀 위치들을 고려한 위험지구를 파악하는 데에 유용할 것으로 판단된다.

  • PDF