• Title/Summary/Keyword: 가중치행렬

Search Result 160, Processing Time 0.031 seconds

On the improvement of the stability robustness in the discrete-time LQ regulator (이산시간 LQ 조절기의 안정도 강인성 향상에 관한 연구)

  • Kim, Sang-Woo;Gwon, Uk-Hyeon
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.1 no.2
    • /
    • pp.83-87
    • /
    • 1995
  • 본 논문에서는 이산시간 LQ 조절기의 안정도 강인성을 주파수 영역및 시간영역에서 고찰하고 그 향상책을 제시하낟. 주파수영역에서 강인성 척도인 궤환차행렬(return difference matrix) 의 최소특이치가 상태가중치 행렬과 제어가중치 행렬의 비와 반비례함을 보이고, 시간영역에서 매개변수의 변화에 대한 안정도 강인성 범위들을 얻는다. 이 범위들의 점근적 성질을 밝히기 위하여 LQ 궤환이득의 특이치들이 상태가중치 행렬과 제어기중치 행렬의 비의 증가함수 임을 보인다. 몇가지 조건하에서 시스템 행렬(입력행렬)에 대한 안정도 강인성 범위가 상태 가중치 행렬과 제어가중치 행렬의 비가 증가(감소)함에 따라서 증가함을 보이고, 이러한 사실들을 예제를 통하여 검증한다.

  • PDF

NMF Based Music Transcription Using Feature Vector Database (특징행렬 데이터베이스를 이용한 NMF 기반 음악전사)

  • Shin, Ok Keun;Ryu, Da Hyun
    • Journal of Advanced Marine Engineering and Technology
    • /
    • v.36 no.8
    • /
    • pp.1129-1135
    • /
    • 2012
  • To employ NMF to transcribe music by extracting feature matrix and weight matrix at the same time, it is necessary to know in advance the dimension of the feature matrix, and to determine the pitch of each extracted feature vector. Another drawback of this approach is that it becomes more difficult to accurately extract the feature matrix as the number of pitches included in the target music increases. In this study, we prepare a feature matrix database, and apply the matrix to transcribe real music. Transcription experiments are conducted by applying the feature matrix to the music played on the same piano on which the feature matrix is extracted, as well as on the music played on another piano. These results are also compared to those of another experiment where the feature matrix and weight matrix are extracted simultaneously, without making use of the database. We could observe that the proposed method outperform the method in which the two matrices are extracted at the same time.

A Study on Image Compression Using Laplacian Pyramid Encoding (라플라시안 피라미드 부호화에 의한 영상 압축에 관한 연구)

  • 박유경;박지환
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.175-178
    • /
    • 2000
  • 인접한 화소들간의 상관성에 대한 오류 정보만을 추출하여 전송하는 기법인 라플라시안 피라미드는 알고리즘 구성이 간단하며, 낮은 엔트로피 전송이 가능한 무손실 예측 압축과 점진적인 전송이 가능한 이점을 가지고 있다. 이러한 라플라시안 피라미드를 효율적으고 구성하기 위하여 기존의 5$\times$5 가중치 행렬을 3$\times$3 가중치 행렬로 구성하는 새로운 기법을 보인다. 3$\times$3 가중치행렬을 이용하는 방법이 5$\times$5 가중치 행렬에 의한 알고리즘의 구성보다 간단하면서도 압축효율이 좋음을 시뮬레이션을 통하여 보인다.

  • PDF

Topic-based Multi-document Summarization Using Non-negative Matrix Factorization and K-means (비음수 행렬 분해와 K-means를 이용한 주제기반의 다중문서요약)

  • Park, Sun;Lee, Ju-Hong
    • Journal of KIISE:Software and Applications
    • /
    • v.35 no.4
    • /
    • pp.255-264
    • /
    • 2008
  • This paper proposes a novel method using K-means and Non-negative matrix factorization (NMF) for topic -based multi-document summarization. NMF decomposes weighted term by sentence matrix into two sparse non-negative matrices: semantic feature matrix and semantic variable matrix. Obtained semantic features are comprehensible intuitively. Weighted similarity between topic and semantic features can prevent meaningless sentences that are similar to a topic from being selected. K-means clustering removes noises from sentences so that biased semantics of documents are not reflected to summaries. Besides, coherence of document summaries can be enhanced by arranging selected sentences in the order of their ranks. The experimental results show that the proposed method achieves better performance than other methods.

Kalman-Filter Estimation and Prediction for a Spatial Time Series Model (공간시계열 모형의 칼만필터 추정과 예측)

  • Lee, Sung-Duck;Han, Eun-Hee;Kim, Duck-Ki
    • Communications for Statistical Applications and Methods
    • /
    • v.18 no.1
    • /
    • pp.79-87
    • /
    • 2011
  • A spatial time series model was used for analyzing the method of spatial time series (not the ARIMA model that is popular for analyzing spatial time series) by using chicken pox data which is a highly contagious disease and grid data due to ARIMA not reflecting the spatial processes. Time series model contains a weighting matrix, because that spatial time series model influences the time variation as well as the spatial location. The weighting matrix reflects that the more geographically contiguous region has the higher spatial dependence. It is hypothesized that the weighting matrix gives neighboring areas the same influence in the study of the spatial time series model. Therefore, we try to present the conclusion with a weighting matrix in a way that gives the same weight to existing neighboring areas in the study of the suitability of the STARMA model, spatial time series model and STBL model, in the comparative study of the predictive power for statistical inference, and the results. Furthermore, through the Kalman-Filter method we try to show the superiority of the Kalman-Filter method through a parameter assumption and the processes of prediction.

Adaptive Selection of Weighted Quantization Matrix for H.264 Intra Video Coding (H.264 인트라 부호화를 위한 적응적 가중치 양자화 행렬 선택방법)

  • Cho, Jae-Hyun;Cho, Suk-Hee;Jeong, Se-Yoon;Song, Byung-Cheol
    • Journal of Broadcast Engineering
    • /
    • v.15 no.5
    • /
    • pp.672-680
    • /
    • 2010
  • This paper presents an adaptive quantization matrix selection scheme for H.264 video encoding. Conventional H.264 coding standard applies the same quantization matrix to the entire video sequence without considering local characteristics in each frame. In this paper, we propose block adaptive selection of quantization matrix according to edge directivity of each block. Firstly, edge directivity of each block is determined using intra prediction modes of its spatially adjacent blocks. If the block is decided as a directional block, new weighted quantization matrix is applied to the block. Otherwise, conventional quantization matrix is used for quantization of the non-directional block. Since the proposed weighted quantization is designed based on statistical distribution of transform coefficients in accordance with intra prediction modes, we can achieve high coding efficiency. Experimental results show that the proposed scheme can improve coding efficiency by about 2% in terms of BD bit-rate.

Comparison of Term-Weighting Schemes for Environmental Big Data Analysis (환경 빅데이터 이슈 분석을 위한 용어 가중치 기법 비교)

  • Kim, JungJin;Jeong, Hanseok
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.236-236
    • /
    • 2021
  • 최근 텍스트와 같은 비정형 데이터의 생성 속도가 급격하게 증가함에 따라, 이를 분석하기 위한 기술들의 필요성이 커지고 있다. 텍스트 마이닝은 자연어 처리기술을 사용하여 비정형 텍스트를 정형화하고, 문서에서 가치있는 정보를 획득할 수 있는 기법 중 하나이다. 텍스트 마이닝 기법은 일반적으로 각각의 분서별로 특정 용어의 사용 빈도를 나타내는 문서-용어 빈도행렬을 사용하여 용어의 중요도를 나타내고, 다양한 연구 분야에서 이를 활용하고 있다. 하지만, 문서-용어 빈도 행렬에서 나타내는 용어들의 빈도들은 문서들의 차별성과 그에 따른 용어들의 중요도를 나타내기 어렵기때문에, 용어 가중치를 적용하여 문서가 가지고 있는 특징을 분류하는 방법이 필수적이다. 다양한 용어 가중치를 적용하는 방법들이 개발되어 적용되고 있지만, 환경 분야에서는 용어 가중치 기법 적용에 따른 효율성 평가 연구가 미비한 상황이다. 또한, 환경 이슈 분석의 경우 단순히 문서들에 특징을 파악하고 주어진 문서들을 분류하기보다, 시간적 분포도에 따른 각 문서의 특징을 반영하는 것도 상대적으로 중요하다. 따라서, 본 연구에서는 텍스트 마이닝을 이용하여 2015-2020년의 서울지역 환경뉴스 데이터를 사용하여 환경 이슈 분석에 적합한 용어 가중치 기법들을 비교분석하였다. 용어 가중치 기법으로는 TF-IDF (Term frequency-inverse document frquency), BM25, TF-IGM (TF-inverse gravity moment), TF-IDF-ICSDF (TF-IDF-inverse classs space density frequency)를 적용하였다. 본 연구를 통해 환경문서 및 개체 분류에 대한 최적화된 용어 가중치 기법을 제시하고, 서울지역의 환경 이슈와 관련된 핵심어 추출정보를 제공하고자 한다.

  • PDF

A New Weighted Synaptic Connectvity Matrik for Component Retrieval (컴포넌트 검색을 위한 새로운 가중치 신경 접속 행렬)

  • 금영욱
    • Journal of the Korea Society of Computer and Information
    • /
    • v.7 no.1
    • /
    • pp.1-7
    • /
    • 2002
  • Component-based software development(CBSD) is gaining popularity Effective search and retrieval of desired components, which are stored in a component repository, is a very important issue in CBSD. In this paper. a new weighted synaptic connectivity matrix is proposed to find more appropriate components. An algorithm is proposed for effective search with NOT operator and a proof for the algorithm is Presented . A new procedure to calculate the output vector for a logically combined query is also presented.

  • PDF

Face Recognition Using PCA and Fuzzy Weighted Average Method (PCA와 퍼지 가중치 평균 기법을 이용한 얼굴 인식)

  • Woo, Young-Woon;Kim, Hyung-Soo;Park, Jae-Min;Cho, Jae-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2011.01a
    • /
    • pp.315-316
    • /
    • 2011
  • 일반적으로 영상에서 얼굴 영상을 검출하고 인식하는 알고리즘은 패턴 인식 연구에 있어서 인간과 컴퓨터의 상호작용의 연구라는 면에서 아주 중요한 문제로 연구되어 왔다. 본 논문에서는 고유얼굴을 이용하여 유클리디언 거리법과 퍼지기법의 인식률을 비교해보고자 한다. PCA(Principal Component Analysis) 방식은 우수한 인식 결과를 보장하는 얼굴인식 기법중의 하나이며, 얼굴 영상을 이용하여 공분산 행렬을 계산하고, 공분산 행렬을 통해 생성된 저차원의 벡터, 즉 고유얼굴(Eigenface)을 이용하여 가중치를 계산하고, 이 가중치를 기준으로 인식을 수행하는 기법이다. 이를 기반으로 하여, 본 논문에서는 전처리 과정, 고유얼굴 과정, 유클리디언 거리법 및 퍼지 소속도 함수 설계 과정, 신경망 학습과정, 인식과정으로 구성된 5단계의 얼굴 인식 알고리즘을 제안한다.

  • PDF

Document Summarization using Weighting based on Cloud (클라우드 기반의 가중치에 의한 문서요약)

  • Park, Sun;Kim, Chul Won
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2013.10a
    • /
    • pp.305-306
    • /
    • 2013
  • In this paper, we proposes a document summarization method using the weighting based on cloud. The proposed method can minimize the user intervention to use the relevance feedback. It also can improve the quality of document summaries because the inherent semantic of the sentence set are well reflected by term weighting derived from semantic feature using nonnegative matrix factorizaitno based cloud.

  • PDF