• Title/Summary/Keyword: and clustering

검색결과 5,612건 처리시간 0.038초

Approximate Clustering on Data Streams Using Discrete Cosine Transform

  • Yu, Feng;Oyana, Damalie;Hou, Wen-Chi;Wainer, Michael
    • Journal of Information Processing Systems
    • /
    • 제6권1호
    • /
    • pp.67-78
    • /
    • 2010
  • In this study, a clustering algorithm that uses DCT transformed data is presented. The algorithm is a grid density-based clustering algorithm that can identify clusters of arbitrary shape. Streaming data are transformed and reconstructed as needed for clustering. Experimental results show that DCT is able to approximate a data distribution efficiently using only a small number of coefficients and preserve the clusters well. The grid based clustering algorithm works well with DCT transformed data, demonstrating the viability of DCT for data stream clustering applications.

An Improved Automated Spectral Clustering Algorithm

  • Xiaodan Lv
    • Journal of Information Processing Systems
    • /
    • 제20권2호
    • /
    • pp.185-199
    • /
    • 2024
  • In this paper, an improved automated spectral clustering (IASC) algorithm is proposed to address the limitations of the traditional spectral clustering (TSC) algorithm, particularly its inability to automatically determine the number of clusters. Firstly, a cluster number evaluation factor based on the optimal clustering principle is proposed. By iterating through different k values, the value corresponding to the largest evaluation factor was selected as the first-rank number of clusters. Secondly, the IASC algorithm adopts a density-sensitive distance to measure the similarity between the sample points. This rendered a high similarity to the data distributed in the same high-density area. Thirdly, to improve clustering accuracy, the IASC algorithm uses the cosine angle classification method instead of K-means to classify the eigenvectors. Six algorithms-K-means, fuzzy C-means, TSC, EIGENGAP, DBSCAN, and density peak-were compared with the proposed algorithm on six datasets. The results show that the IASC algorithm not only automatically determines the number of clusters but also obtains better clustering accuracy on both synthetic and UCI datasets.

A Novel Multi-Path Routing Algorithm Based on Clustering for Wireless Mesh Networks

  • Liu, Chun-Xiao;Zhang, Yan;Xu, E;Yang, Yu-Qiang;Zhao, Xu-Hui
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권4호
    • /
    • pp.1256-1275
    • /
    • 2014
  • As one of the new self-organizing and self-configuration broadband networks, wireless mesh networks are being increasingly attractive. In order to solve the load balancing problem in wireless mesh networks, this paper proposes a novel multi-path routing algorithm based on clustering (Cluster_MMesh) for wireless mesh networks. In the clustering stage, on the basis of the maximum connectivity clustering algorithm and k-hop clustering algorithm, according to the idea of maximum connectivity, a new concept of node connectivity degree is proposed in this paper, which can make the selection of cluster head more simple and reasonable. While clustering, the node which has less expected load in the candidate border gateway node set will be selected as the border gateway node. In the multi-path routing establishment stage, we use the intra-clustering multi-path routing algorithm and inter-clustering multi-path routing algorithm to establish multi-path routing from the source node to the destination node. At last, in the traffic allocation stage, we will use the virtual disjoint multi-path model (Vdmp) to allocate the network traffic. Simulation results show that the Cluster_MMesh routing algorithm can help increase the packet delivery rate, reduce the average end to end delay, and improve the network performance.

데이터 마이닝에서 그룹 세분화를 위한 2단계 계층적 글러스터링 알고리듬 (Two Phase Hierarchical Clustering Algorithm for Group Formation in Data Mining)

  • 황인수
    • 경영과학
    • /
    • 제19권1호
    • /
    • pp.189-196
    • /
    • 2002
  • Data clustering is often one of the first steps in data mining analysis. It Identifies groups of related objects that can be used as a starling point for exploring further relationships. This technique supports the development of population segmentation models, such as demographic-based customer segmentation. This paper Purpose to present the development of two phase hierarchical clustering algorithm for group formation. Applications of the algorithm for product-customer group formation in customer relationahip management are also discussed. As a result of computer simulations, suggested algorithm outperforms single link method and k-means clustering.

확률적 관계하의 다차원 개체 clustering (Multidimensional entity clustering with probabilistic relationships)

  • 이철;강석호
    • 한국경영과학회:학술대회논문집
    • /
    • 한국경영과학회 1989년도 추계학술발표회 발표논문초록집; 이화여자대학교, 서울; 23 Sep. 1989
    • /
    • pp.25-29
    • /
    • 1989
  • 본 고에서는 다차원 개체 clustering문제에 있어서 개체간 관계가 확률적이고 가중치가 부여된 경우를 위한 기대차이등급 clustering기법을 제시하였다. 기대차이등급 clustering기법은 해법의 필요성에 비해 상대적으로 해법개발이 미진한 분산정보시스팀을 대상으로 한 전산화 master plan의 수립이나 기계-부품 그룹형성, FMS에서의 주문선정(Part Type Selection)등에 기여할 수 있을 것으로 기대된다. 반면 해법의 타당성 검토를 위한 이론적 연구가 제시되지 않아 추후 이의 보완을 위한 연구가 요망된다.

  • PDF

규칙 생성 시스템을 위한 새로운 연속 클러스터링 조합 (New Sequential Clustering Combination for Rule Generation System)

  • 김승석;최호진
    • 인터넷정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.1-8
    • /
    • 2012
  • 본 논문에서는 수치적 데이터를 이용하여 규칙을 생성하는 시스템에 대해 순차적인 클러스터링 방법을 제안한다. 단일 클러스터링 기법은 방대하고 복잡한 공간 내에서는 원하는 결과를 얻지 못할 수 있다. 이런 문제점을 해결하기 위해 제안된 방법은 서로 다른 클러스터링 기법을 순차적으로 수행하여 장점들은 활용하고 단점들은 보안하는 형태를 제안하였다. Mountain 클러스터링과 Chen 클러스터링을 이용하여 non-parametric 공간에서 자율적으로 클러스터를 구성하였고, global 공간과 local 공간으로 역할을 분담하여 클러스터를 추정한다. 추정된 클러스터들은 신경회로망이나 퍼지 시스템과 같은 지능 시스템의 구조와 초기 파라미터 결정에 활용될 수 있으며, 확장하여 헬스케어와 의료 분야에서의 결정 제공 시스템의 학습에 도움을 줄 수 있다. 제안된 방법을 유용성을 시뮬레이션을 통해 보이고자 한다.

스펙트럴 클러스터링 - 요약 및 최근 연구동향 (Spectral clustering: summary and recent research issues)

  • 정상훈;배수현;김충락
    • 응용통계연구
    • /
    • 제33권2호
    • /
    • pp.115-122
    • /
    • 2020
  • K-평균 클러스터링은 매우 널리 사용되고 있으나 유사도가 구면체 또는 타원체로 정의되어 각 클러스터가 볼록 집합 형태인 자료에는 좋은 결과를 주지만 그렇지 않은 경우에는 매우 형편 없는 결과를 나타낸다. 스펙트럴 클러스터링은 K-평균 클러스터링의 단점을 잘 보완해 줄 뿐아니라 여러 형태의 자료나 고차원 자료 등에 대해서도 좋은 결과를 나타내서 최근 인공 신경망 모형에 많이 이용되고 있다. 하지만, 개선되어야 할 단점도 여전히 많다. 본 논문에서는 스펙트럴 클러스터링에 대해 알기 쉽게 소개하고, 클러스터 갯수의 추정, 척도모수의 추정, 고차원 자료의 차원 축소 등 스펙트럴 클러스터링에 대한 최근의 연구 동향을 소개한다.

이중 K-평균 군집화 (Double K-Means Clustering)

  • 허명회
    • 응용통계연구
    • /
    • 제13권2호
    • /
    • pp.343-352
    • /
    • 2000
  • K-평균 군집화(K-means clustering)는 비계층적 군집화 방법이 하나로서 큰 자료에서 개체 군집화에 효율적인 것으로 알려져 있다. 그러나 종종 비교적 균일한 대군집의 일부를 소군집에 떼어주는 오류를 범하기도 한다. 이 연구에서는 그러한 현상을 정확히 인지하고 이에 대한 대책으로서 ‘이중 K-평균 군집화(double K-means clustering)’방법을 제시한다. 또한 실증적 사례에 새 방법론을 적용해보고 토의한다.

  • PDF

주변 차량 위치 좌표의 고속 클러스터링을 위한 휴리스틱 알고리즘 (Heuristic Algorithm for High-Speed Clustering of Neighbor Vehicular Position Coordinate)

  • 최윤호;유승호;서승우
    • 한국통신학회논문지
    • /
    • 제39C권4호
    • /
    • pp.343-350
    • /
    • 2014
  • 분할 계층적 클러스터링(Divisive Hierarchical Clustering)은 하나의 클러스터에서 시작하여 각각의 데이터가 독립된 클러스터에 속할 때까지 각 클러스터를 분할하고 분할된 클러스터 간에 데이터를 이동하는 과정을 반복 수행한다. 하지만, 이러한 일련의 재귀적 호출 과정에서 입력 데이터가 임의적으로 선택되는 경우, 클러스터 내 데이터의 많은 이동을 야기할 수 있다. 이로 인해 주변 차량의 위치를 추정하여 수집된 위치 좌표 정보를 고속으로 클러스터링 할 필요가 있는 로컬 맵 생성 과정에서 사용하기 어렵다는 단점이 있다. 본 논문에서는 주변 차량 위치 추정 과정에서 차량의 주행 방향 정보를 활용하여 분할된 클러스터를 구성하는 데이터의 임의성을 제거함으로써, 클러스터링 연산 속도를 평균 40% 가량 향상시킬 수 있는 새로운 고속의 분할 계층적 클러스터링 방법을 제안한다.

자기 조직화 신경망을 이용한 클러스터링 알고리듬 (A Clustering Algorithm using Self-Organizing Feature Maps)

  • 이종섭;강맹규
    • 대한산업공학회지
    • /
    • 제31권3호
    • /
    • pp.257-264
    • /
    • 2005
  • This paper suggests a heuristic algorithm for the clustering problem. Clustering involves grouping similar objects into a cluster. Clustering is used in a wide variety of fields including data mining, marketing, and biology. Until now there are a lot of approaches using Self-Organizing Feature Maps(SOFMs). But they have problems with a small output-layer nodes and initial weight. For example, one of them is a one-dimension map of k output-layer nodes, if they want to make k clusters. This approach has problems to classify elaboratively. This paper suggests one-dimensional output-layer nodes in SOFMs. The number of output-layer nodes is more than those of clusters intended to find and the order of output-layer nodes is ascending in the sum of the output-layer node's weight. We can find input data in SOFMs output node and classify input data in output nodes using Euclidean distance. We use the well known IRIS data as an experimental data. Unsupervised clustering of IRIS data typically results in 15 - 17 clustering error. However, the proposed algorithm has only six clustering errors.