• 제목/요약/키워드: Sample Vector

검색결과 270건 처리시간 0.023초

Smoke detection in video sequences based on dynamic texture using volume local binary patterns

  • Lin, Gaohua;Zhang, Yongming;Zhang, Qixing;Jia, Yang;Xu, Gao;Wang, Jinjun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권11호
    • /
    • pp.5522-5536
    • /
    • 2017
  • In this paper, a video based smoke detection method using dynamic texture feature extraction with volume local binary patterns is studied. Block based method was used to distinguish smoke frames in high definition videos obtained by experiments firstly. Then we propose a method that directly extracts dynamic texture features based on irregular motion regions to reduce adverse impacts of block size and motion area ratio threshold. Several general volume local binary patterns were used to extract dynamic texture, including LBPTOP, VLBP, CLBPTOP and CVLBP, to study the effect of the number of sample points, frame interval and modes of the operator on smoke detection. Support vector machine was used as the classifier for dynamic texture features. The results show that dynamic texture is a reliable clue for video based smoke detection. It is generally conducive to reducing the false alarm rate by increasing the dimension of the feature vector. However, it does not always contribute to the improvement of the detection rate. Additionally, it is found that the feature computing time is not directly related to the vector dimension in our experiments, which is important for the realization of real-time detection.

공적분벡터의 안정성에 대한 실증연구 (Statistical Tests and Applications for the Stability of an Estimated Cointegrating Vector)

  • 김태호;황성혜;김미연
    • 응용통계연구
    • /
    • 제18권3호
    • /
    • pp.503-519
    • /
    • 2005
  • 공적분검정은 변수들간의 장기적 균형관계에 따른 공적분벡터가 표본기간 동안 일정하다는 가정하에서 실시된다. 따라서 기존의 연구들은 변수들 사이의 공적분관계를 안정적 장기균형관계로 해석해왔으나 장기균형관계가 존재해도 유일하지 않을 수 있으며, 표본기간 중 중요한 사건이 발생하는 경우 이러한 관계에 영향을 미처 안정성이 반드시 성립될 수 없다는 사실은 간과해왔다. 본 연구에서는 추정된 공적분벡터가 안정성을 유지하는가를 확인하기 위해 추가로 통계적 검정을 실시하였다. 공적분회귀모형 모수의 안정성을 검정하는 방식을 세분${\cdot}$체계화하여 공적분백터의 안정성 및 변동형태를 검색하는 실증분석에 적용시켜 보았다.

소노부이 신호 송수신을 위한 오토인코더 기반 신호 변복조 기법 (Autoencoder-based signal modulation and demodulation method for sonobuoy signal transmission and reception)

  • 박진욱;석종원;홍정표
    • 한국음향학회지
    • /
    • 제41권4호
    • /
    • pp.461-467
    • /
    • 2022
  • 소노부이는 수중 음향 정보를 수집하는 일회용 장치로 특정지역에서 수집된 신호를 주변의 항공기 또는 함정으로 송신하는 역할을 수행하고 임무를 완수하면 해저로 가라앉도록 설계되어 있다. 이러한 소노부이 신호 송·수신 시스템의 경우 주파수 분할 다중화나 가우시안 주파수 편이와 같은 기법을 활용하여 신호를 변·복조하여 송·수신한다. 하지만 이러한 방법은 전송해야할 정보의 양이 많고 변조와 복조방법이 비교적 단순하여 보안성이 낮은 단점이 있다. 따라서, 본 논문에서는 오토인코더를 이용하여 송신 신호를 저차원의 잠재 벡터로 변조하여 잠재 벡터를 항공기 또는 함정으로 전송하고 수신한 잠재벡터를 복조하여 보안성을 향상시키고 전송정보량을 기존 전송방법 대비 약 100배 감소시킬 수 있는 방법을 제안하였다. 모의실험을 통해 제안한 방법으로 복원된 샘플 스펙트로그램을 확인한 결과 저차원의 잠재 벡터로부터 원본 신호 복원이 가능함을 확인할 수 있었다.

Compositional data analysis by the square-root transformation: Application to NBA USG% data

  • Jeseok Lee;Byungwon Kim
    • Communications for Statistical Applications and Methods
    • /
    • 제31권3호
    • /
    • pp.349-363
    • /
    • 2024
  • Compositional data refers to data where the sum of the values of the components is a constant, hence the sample space is defined as a simplex making it impossible to apply statistical methods developed in the usual Euclidean vector space. A natural approach to overcome this restriction is to consider an appropriate transformation which moves the sample space onto the Euclidean space, and log-ratio typed transformations, such as the additive log-ratio (ALR), the centered log-ratio (CLR) and the isometric log-ratio (ILR) transformations, have been mostly conducted. However, in scenarios with sparsity, where certain components take on exact zero values, these log-ratio type transformations may not be effective. In this work, we mainly suggest an alternative transformation, that is the square-root transformation which moves the original sample space onto the directional space. We compare the square-root transformation with the log-ratio typed transformation by the simulation study and the real data example. In the real data example, we applied both types of transformations to the USG% data obtained from NBA, and used a density based clustering method, DBSCAN (density-based spatial clustering of applications with noise), to show the result.

SVM-Based Incremental Learning Algorithm for Large-Scale Data Stream in Cloud Computing

  • Wang, Ning;Yang, Yang;Feng, Liyuan;Mi, Zhenqiang;Meng, Kun;Ji, Qing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권10호
    • /
    • pp.3378-3393
    • /
    • 2014
  • We have witnessed the rapid development of information technology in recent years. One of the key phenomena is the fast, near-exponential increase of data. Consequently, most of the traditional data classification methods fail to meet the dynamic and real-time demands of today's data processing and analyzing needs--especially for continuous data streams. This paper proposes an improved incremental learning algorithm for a large-scale data stream, which is based on SVM (Support Vector Machine) and is named DS-IILS. The DS-IILS takes the load condition of the entire system and the node performance into consideration to improve efficiency. The threshold of the distance to the optimal separating hyperplane is given in the DS-IILS algorithm. The samples of the history sample set and the incremental sample set that are within the scope of the threshold are all reserved. These reserved samples are treated as the training sample set. To design a more accurate classifier, the effects of the data volumes of the history sample set and the incremental sample set are handled by weighted processing. Finally, the algorithm is implemented in a cloud computing system and is applied to study user behaviors. The results of the experiment are provided and compared with other incremental learning algorithms. The results show that the DS-IILS can improve training efficiency and guarantee relatively high classification accuracy at the same time, which is consistent with the theoretical analysis.

운동 특성 벡터에 기반한 메쉬 에디팅 기법 (Mesh Editing Using the Motion Feature Vectors)

  • 이순영;김창수;이상욱
    • 방송공학회논문지
    • /
    • 제13권2호
    • /
    • pp.214-221
    • /
    • 2008
  • 본 논문에서는 두 개의 3차원 메쉬 프레임에서 추출한 운동 성질을 이용하여 형태 특징을 반영하는 3차원 메쉬 에디팅 알고리듬을 제안하였다. 제안하는 알고리듬은 형태적 특징을 유지하는 결과를 얻기 위해서 두 개의 메쉬 프레임으로부터 국부 영역의 표면 특징을 반영하는 운동 특성 벡터를 이용한다. 에디팅 과정에서 사용자는 임의의 꼭지점을 조작 꼭지점(anchor vertex)으로 선택하여 자유롭게 이동시킨다. 조작 꼭지점에는 사용자의 조작에 따라 강제된 운동이 부여되고, 이 운동 특성을 유지하도록 이웃 꼭지점들의 위치가 정해진다. 이 과정을 통해 샘플 메쉬의 특징을 보존하는 에디팅 결과를 얻는다. 모의 실험을 통하여 제안하는 알고리듬이 사용자가 의도한 조작을 충분히 반영하는 동시에 샘플 메쉬 쌍에서 나타나는 운동성을 보존하는 결과를 도출함을 확인하였다.

정적 분석 기반 기계학습 기법을 활용한 악성코드 식별 시스템 연구 (A Study on Malware Identification System Using Static Analysis Based Machine Learning Technique)

  • 김수정;하지희;오수현;이태진
    • 정보보호학회논문지
    • /
    • 제29권4호
    • /
    • pp.775-784
    • /
    • 2019
  • 신규 및 변종 악성코드의 발생으로 모바일, IoT, windows, mac 등 여러 환경에서 악성코드 침해 공격이 지속적으로 증가하고 있으며, 시그니처 기반 탐지의 대응만으로는 악성코드 탐지에 한계가 존재한다. 또한, 난독화, 패킹, Anti-VM 기법의 적용으로 분석 성능이 저하되고 있는 실정이다. 이에 유사성 해시 기반의 패턴 탐지 기술과 패킹에 따른 파일 분류 후의 정적 분석 적용으로 기계학습 기반 악성코드 식별이 가능한 시스템을 제안한다. 이는 기존에 알려진 악성코드의 식별에 강한 패턴 기반 탐지와 신규 및 변종 악성코드 탐지에 유리한 기계학습 기반 식별 기술을 모두 활용하여 보다 효율적인 탐지가 가능하다. 본 연구 결과물은 정보보호 R&D 데이터 챌린지 2018 대회의 AI기반 악성코드 탐지 트랙에서 제공하는 정상파일과 악성코드를 대상으로 95.79% 이상의 탐지정확도를 도출하여 분석 성능을 확인하였다. 향후 지속적인 연구를 통해 패킹된 파일의 특성에 맞는 feature vector와 탐지기법을 추가 적용하여 탐지 성능을 높이는 시스템 구축이 가능할 것으로 기대한다.

격자 기반 침수위험지도 작성을 위한 기계학습 모델별 성능 비교 연구 - 2016 태풍 차바 사례를 중심으로 - (Performance Comparison of Machine Learning Models for Grid-Based Flood Risk Mapping - Focusing on the Case of Typhoon Chaba in 2016 -)

  • 한지혜;곽창재;김구윤;이미란
    • 대한원격탐사학회지
    • /
    • 제39권5_2호
    • /
    • pp.771-783
    • /
    • 2023
  • This study aims to compare the performance of each machine learning model for preparing a grid-based disaster risk map related to flooding in Jung-gu, Ulsan, for Typhoon Chaba which occurred in 2016. Dynamic data such as rainfall and river height, and static data such as building, population, and land cover data were used to conduct a risk analysis of flooding disasters. The data were constructed as 10 m-sized grid data based on the national point number, and a sample dataset was constructed using the risk value calculated for each grid as a dependent variable and the value of five influencing factors as an independent variable. The total number of sample datasets is 15,910, and the training, verification, and test datasets are randomly extracted at a 6:2:2 ratio to build a machine-learning model. Machine learning used random forest (RF), support vector machine (SVM), and k-nearest neighbor (KNN) techniques, and prediction accuracy by the model was found to be excellent in the order of SVM (91.05%), RF (83.08%), and KNN (76.52%). As a result of deriving the priority of influencing factors through the RF model, it was confirmed that rainfall and river water levels greatly influenced the risk.

SVM기반의 선택적 주의집중을 이용한 중첩 패턴 인식 (Recognition of Superimposed Patterns with Selective Attention based on SVM)

  • 배규찬;박형민;오상훈;최용선;이수영
    • 대한전자공학회논문지SP
    • /
    • 제42권5호
    • /
    • pp.123-136
    • /
    • 2005
  • 본 논문에서는 신경회로망보다 우수한 성능을 보이는 학습 이론인 SVM을 기반으로, 인간의 인지 과학에서 많은 연구가 이루어지고 있는 선택적 주의집중을 응용한 중첩 패턴 인식 시스템을 제안한다. 제안된 선택적 주의집중 모델은 SVM의 입력단에 주의집중층을 추가하여 SVM의 입력을 직접 변화시키는 학습을 하며 선택적 필터의 기능을 수행한다. 주의집중의 핵심은 학습을 멈추는 적절한 시점을 찾는 것과 그 시점에서 결과를 판단하는 주의집중 척도를 정의하는 것이다. 지지벡터는 주변에 존재하는 패턴들을 대표하는 표본이므로 입력 패턴이 초기상태일 때 주의집중을 하고자 하는 클래스의 가장 가까운 지지벡터를 기준으로 그 지지벡터와의 거리가 최소가 되었을 때 주의집중을 멈추는 것이 적절하다. 일반적인 주의집중을 적용하면 주의집중 척도를 정의하기가 난해해지기 때문에 변형된 입력이 원래 입력의 범위를 넘지 않는다는 제약조건을 추가하여 사용할 수 있는 정보의 폭을 넓히고 새로운 척도를 정의하였다. 이때 사용한 정보는 변형된 입력과 원래 입력의 유클리드 거리, SVM의 출력, 초기상태에 가장 가까웠던 히든뉴런의 출력값이다. 인식 실험을 위해 USPS 숫자 데이터를 사용하여 45개의 조합으로 중첩시켰으며, 주의집중을 적용시켰을 때 단일 SVM보다 인식 성능이 월등히 우수함을 확인하였고, 또한 제한된 주의집중을 사용하였을 때 일반적 주의집중을 이용하는 것 보다 성능이 더 뛰어났음을 확인하였다.

An improved response surface method for reliability analysis of structures

  • Basaga, Hasan Basri;Bayraktar, Alemdar;Kaymaz, Irfan
    • Structural Engineering and Mechanics
    • /
    • 제42권2호
    • /
    • pp.175-189
    • /
    • 2012
  • This paper presents an algorithm for structural reliability with the response surface method. For this aim, an approach with three stages is proposed named as improved response surface method. In the algorithm, firstly, a quadratic approximate function is formed and design point is determined with First Order Reliability Method. Secondly, a point close to the exact limit state function is searched using the design point. Lastly, vector projected method is used to generate the sample points and Second Order Reliability Method is performed to obtain reliability index and probability of failure. Five numerical examples are selected to illustrate the proposed algorithm. The limit state functions of three examples (cantilever beam, highly nonlinear limit state function and dynamic response of an oscillator) are defined explicitly and the others (frame and truss structures) are defined implicitly. ANSYS finite element program is utilized to obtain the response of the structures which are needed in the reliability analysis of implicit limit state functions. The results (reliability index, probability of failure and limit state function evaluations) obtained from the improved response surface are compared with those of Monte Carlo Simulation, First Order Reliability Method, Second Order Reliability Method and Classical Response Surface Method. According to the results, proposed algorithm gives better results for both reliability index and limit state function evaluations.