• 제목/요약/키워드: Nearest Neighbor(NN)

검색결과 215건 처리시간 0.026초

지역적 k값을 사용한 k-Nearest Neighbor Classifier (k-Nearest Neighbor Classifier using Local Values of k)

  • 이상훈;오경환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 가을 학술발표논문집 Vol.30 No.2 (1)
    • /
    • pp.193-195
    • /
    • 2003
  • 본 논문에서는 k-Nearest Neighbor(k-NN) 알고리즘을 최적화하기 위해 지역적으로 다른 k(고려할 neighbor의 개수)를 사용하는 새로운 방법을 제안한다. 인스턴스 공간(instance space)에서 노이즈(noise)의 분포가 지역적(local)으로 다를 경우, 각 지점에서 고려해야 할 최적의 이웃 인스턴스(neighbor)의 수는 해당 지점에서의 국부적인 노이즈 분포에 따라 다르다. 그러나 기존의 방법은 전체 인스턴스 공간에 대해 동일한 k를 사용하기 때문에 이러한 인스턴스 공간의 지역적인 특성을 고려하지 못한다. 따라서 본 논문에서는 지역적으로 분포가 다른 노이즈 문제를 해결하기 위해 인스턴스 공간을 여러 개의 부분으로 나누고, 각 부분에 최적화된 k의 값을 사용하여 kNN을 수행하는 새로운 방법인 Local-k Nearest Neighbor 알고리즘(LkNN Algorithm)을 제안한다. LkNN을 통해 생성된 k의 집합은 인스턴스 공간의 각 부분을 대표하는 값으로, 해당 지역의 인스턴스가 고려해야 할 이웃(neighbor)의 수를 결정지어준다. 제안한 알고리즘에 적합한 데이터의 도메인(domain)과 그것의 향상된 성능은 UCI ML Data Repository 데이터를 사용한 실험을 통해 검증하였다.

  • PDF

영상 분할을 위한 퍼지 커널 K-nearest neighbor 알고리즘 (Fuzzy Kernel K-Nearest Neighbor Algorithm for Image Segmentation)

  • 최병인;이정훈
    • 한국지능시스템학회논문지
    • /
    • 제15권7호
    • /
    • pp.828-833
    • /
    • 2005
  • 커널 기법은 데이터를 high dimension 상의 속성 공간으로 mapping함으로써 복잡한 분포를 가지는 데이터에 대하여 기존의 선형 분류 알고리즘들의 성능을 향상시킬 수 있다r4]. 본 논문에서는 기존의 유클리디안 거리측정방법 대신에 커널 함수에 의한 속성 공간의 거리측정방법을 fuzzy K-nearest neighbor(fuzzy K-NN) 알고리즘에 적용한 fuzzy kernel K-nearest neighbor(fuzzy kernel K-NN) 알고리즘을 제안한다. 제시한 알고리즘은 데이터에 대한 적절한 커널 함수의 선택으로 기존 알고리즘의 성능을 향상시킬 수 있다. 제시한 알고리즘의 타당성을 보이기 위하여 여러 데이터 집합에 대한 실험결과와 실제 영상의 분할 결과를 보일 것이다.

정보이론을 이용한 K-최근접 이웃 알고리즘에서의 속성 가중치 계산 (Calculating Attribute Weights in K-Nearest Neighbor Algorithms using Information Theory)

  • 이창환
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권9호
    • /
    • pp.920-926
    • /
    • 2005
  • 최근접 이웃(k nearest neighbor) 알고리즘은 새로운 개체의 목표값을 예측하기 위하여 과거의 유사한 데이타를 이용하여 그 값을 예측하는 것이다. 이 방법은 기계학습의 여러 분야에서 그 유용성을 검증받아 널리 사용되고 있다. 이러한 kNN 알고리즘에서 목표값을 예측할 때 각 속성의 가중치를 동일하게 고려하는 것은 좋은 성능을 보장할 수 없으며 따라서 kNN에서 각 속성에 대한 가중치를 적절히 계산하는 것은 kNN 알고리즘의 성능을 결정하는 중요한 요소중의 하나이다. 본 논문에서는 정보이론을 이용하여 kNN 에서의 속성의 가중치를 효과적으로 계산하는 새로운 방법을 제시하고자한다. 제안된 방법은 각 속성이 목표 속성에 제공하는 정보의 양에 따라 가중치를 자동으로 계산하여 kNN 방법의 성능을 향상시킨다. 개발된 알고리즘은 다수의 실험 데이타를 이용하여 그 성능을 비교하였다.

연속 최근접 이웃(CNN) 탐색의 성능향상을 위한 탐색구간 제한기법 (A Search Interval Limitation Technique for Improved Search Performance of CNN)

  • 한석;오덕신;김종완
    • 인터넷정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.1-8
    • /
    • 2008
  • 위치기반 서비스(LBS, Location Based Services)에 대한 관심이 증가함에 따라 사용자가 이동 중에도 질의를 통한 최근접 이웃(NN, Nearest Neighbor) 탐색에 대한 필요성이 증가하였다. 이와 같은 동적환경에서의 최근접 이웃 탐색은 탐색 구간에 대해 NN탐색기법을 반복 적용하여 수행해 왔으나 이는 불필요한 중복연산이 발생하여 탐색 비용이 증가하는 단점이 있다. 본 논문에서는 이동 중에도 탐색 구간에 대해 연속적인 최근접 이웃(CNN, Continuous Nearest Neighbor)을 탐색하는 새로운 기법인 Slabbed_CNN을 제안한다. Slabbed_CNN은 슬랩을 이용하여 탐색 구간을 줄임으로써 기존 CNN기법의 탐색영역과 계산비용을 감소시킴으로써 기존 CNN보다 연산비용을 감소시키고 빠른 서비스를 제공한다.

  • PDF

Interval 제2종 퍼지 K-Nearest Neighbor (An Interval Type-2 Fuzzy K-Nearest Neighbor)

  • 황철;이정훈
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2002년도 추계학술대회 및 정기총회
    • /
    • pp.271-274
    • /
    • 2002
  • 본 논문은 (1)에 기술된 퍼지 K-nearest neighbor(NN) 알고리즘의 확장인 interval 제2종 퍼지 K-NN을 제안한다. 제안된 방법에서는, 각 패턴벡터의 멤버쉽 값들에 불확실성(Uncertainty)을 할당하는 것에 의해 interval 제2종 퍼지 멤버쉽으로의 확장을 시도한다. 이러한 확장은, K의 결정에 존재하는 불확실성은 다루고, 조정할 수 있게 한다.

GAVaPS를 이용한 다수 K-Nearest Neighbor classifier들의 Feature 선택 (Feature Selection for Multiple K-Nearest Neighbor classifiers using GAVaPS)

  • 이희성;이제헌;김은태
    • 한국지능시스템학회논문지
    • /
    • 제18권6호
    • /
    • pp.871-875
    • /
    • 2008
  • 본 논문은 개체 변환 유전자 알고리즘을 (GAVaPS) 이용하여 k-nearest neighbor (k-NN) 분류기에서 사용되는 특징들을 선정하는 방법을 제시한다. 우리는 다수의 k-NN 분류기들을 사용하기 때문에 사용되는 특징들을 선정하는 문제는 매우 탐색 영역이 크고 해결하기 어려운 문제이다. 따라서 우리는 효과적인 특징득의 선정을 위해 일반적인 유전자 알고리즘 (GA) 보다 효율적이라고 알려진 개체군 변환 유전자 알고리즘을 사용한다. 또한 다수 k-NN 분류기를 개체군 변환 유전자 알고리즘으로 효과적으로 결합하는 방법을 제시한다. 제안하는 알고리즘의 우수성을 여러 실험을 통해 보여준다.

그룹핑 k-NN을 위한 유연한 최근접 객체 검색 (Flexible Nearest Neighbor Search for Grouping kNN)

  • 송두희;박광진
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.469-470
    • /
    • 2015
  • 우리는 그룹핑 k-최근접 (Grouping k Nearest Neighbor; GkNN)질의를 지원하기 위하여 유연한 최근접객체(Flexible Nearest Neighbor; FNN)검색 방법을 제안한다. GkNN이란 기존에 제안된 kNN과 다르게 질의자가 요청한 k개의 객체를 모두 확인한 후에 이동 경로의 총합이 가장 작은 k개의 객체를 검색하는 방법이다. 기존 연구에서 제안된 최근접 객체들 (Nearest Neighborhood; NNH) 또한 이 문제를 해결하기 위하여 제안되었다. 그러나 NNH의 문제점은 객체 k와 p가 고정되어 있기 때문에 이동 환경에서 q에서 C까지의 거리가 증가하는 것이다. FNN의 환경은 NNH의 환경과 유사하다. 우리는 NNH의 q에서 집합 C 중 거리 중 가장 짧은 $c_i$ 선택한 후 q에서 $c_i$에 포함된 객체들 모두 검색하는 이동 경로의 총합과 FNN의 이동경로의 총 합을 비교하여 NNH의 문제점을 해결하였다.

Ordered Reverse k Nearest Neighbor Search via On-demand Broadcast

  • Li, Li;Li, Guohui;Zhou, Quan;Li, Yanhong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권11호
    • /
    • pp.3896-3915
    • /
    • 2014
  • The Reverse k Nearest Neighbor (RkNN) query is valuable for finding objects influenced by a specific object and is widely used in both scientific and commercial systems. However, the influence level of each object is unknown, information that is critical for some applications (e.g. target marketing). In this paper, we propose a new query type, Ordered Reverse k Nearest Neighbor (ORkNN), and make efforts to adapt it in an on-demand scenario. An Order-k Voronoi diagram based approach is used to answer ORkNN queries. In particular, for different values of k, we pre-construct only one Voronoi diagram. Algorithms on both the server and the clients are presented. We also present experimental results that suggest our proposed algorithms may have practical applications.

이동객체의 궤적에 대한 연속 최근접 질의에 관한 연구 (Study on Continuous Nearest Neighbor Query on Trajectory of Moving Objects)

  • 정지문
    • 한국디지털정책학회:학술대회논문집
    • /
    • 한국디지털정책학회 2005년도 춘계학술대회
    • /
    • pp.517-530
    • /
    • 2005
  • Researches for NN(nearest neighbor) query which is often used in LBS system, have been worked. However, Conventional NN query processing techniques are usually meaningless in moving object management system for LBS since their results may be invalidated as soon as the query and data objects move. To solve these problems, in this paper we propose a new nearest neighbor query processing technique, called CTNN, which is possible to meet continuous trajectory nearest neighbor query processing. The proposed technique consists of Approximate CTNN technique which has quick response time, and Exact CTNN technique which makes it possible to search accurately nearest neighbor objects. Experimental results using GSTD datasets showed that the Exact CTNN technique has high accuracy, but has a little low performance for response time. They also showed that the Approximate CTNN technique has low accuracy comparing with the Exact CTNN, but has high response time.

  • PDF

이동객체의 궤적에 대한 연속 최근접 질의에 관한 연구 (Study on Continuous Nearest Neighbor Query on Trajectory of Moving Objects)

  • 정지문
    • 디지털융복합연구
    • /
    • 제3권1호
    • /
    • pp.149-163
    • /
    • 2005
  • Researches for NN(nearest neighbor) query which is often used in LBS system, have been worked. However. Conventional NN query processing techniques are usually meaningless in moving object management system for LBS since their results may be invalidated as soon as the query and data objects move. To solve these problems, in this paper we propose a new nearest neighbor query processing technique, called CTNN, which is possible to meet continuous trajectory nearest neighbor query processing. The proposed technique consists of Approximate CTNN technique which has quick response time, and Exact CTNN technique which makes it possible to search accurately nearest neighbor objects. Experimental results using GSTD datasets shows that the Exact CTNN technique has high accuracy, but has a little low performance for response time. They also shows that the Approximate CTNN technique has low accuracy comparing with the Exact CTNN, but has high response time.

  • PDF