• 제목/요약/키워드: DBSCAN

검색결과 65건 처리시간 0.022초

클러스터링 기반의 최적 차량 운행 계획 수립을 위한 비교연구 (Comparative Analysis for Clustering Based Optimal Vehicle Routes Planning)

  • 김재원;신광섭
    • 한국빅데이터학회지
    • /
    • 제5권1호
    • /
    • pp.155-180
    • /
    • 2020
  • 화물의 수배송을 위한 차량의 배차 및 최적 경로 설계는 물류 서비스의 효율성 향상을 위한 가장 핵심적인 역할을 담당한다. 이 문제는 차량의 대수, 차량별 적재 용량, 차량의 총 이동거리와 같이 다양한 비용 요소를 동시에 고려해야 하기 때문이다. 최근 비용 최소화 및 운영 효율성 향상을 위해 TMS를 도입하는 사례가 증가하고 있으나, 현장에서 필요한 모든 요소를 고려하지 못한다는 한계가 존재한다. 이를 해결하기 위해 현장 전문가가 TMS의 결과를 경험과 직관에 기반하여 수정하는 과정이 필요하다. 본 연구에서는 지금까지 총 비용의 최소화에 집중하고 있는 기존 연구들과 달리 서비스에 투입되는 자원 활용의 효율성과 형평성을 동시에 높일 수 있는 방법을 제안한다. 이를 위해 Cluster-First Route-Second (CFRS)기법을 활용한다. 고객의 위치를 기준으로 네 가지 클러스터링 알고리즘(K-Means, K-Medoids, DBSCAN, Model-based)과 Fisher & Jaikumar 알고리즘을 적용하여 고객들을 군집화하였다. 이 후, 군집별 최적의 차량 경로 계획을 수립하였다. 수치 실험을 통해 본 연구에서 제안하는 CFRS 기법을 적용한 방안이 상대적으로 차량의 전체 이동거리와 평균 이동거리 및 이동시간이 더 절감될 수 있다는 사실을 확인하였다. 또한, 차량별 방문하는 고객의 수에 대한 편차가 더 낮다는 사실로부터 기본적인 차량 경로 배정 유형에 비해 본 연구에서 제안하는 방안이 상대적으로 형평성 있게 업무가 할당되었음을 확인할 수 있었다.

해상 객체 탐지를 위한 머신러닝 기반의 초분광 영상 분석 기술 (Hyperspectral Image Analysis Technology Based on Machine Learning for Marine Object Detection)

  • 오상우;서동민
    • 해양환경안전학회지
    • /
    • 제28권7호
    • /
    • pp.1120-1128
    • /
    • 2022
  • 해양사고 발생시 실종자는 해양에 노출된 시간이 길어질수록 생존확률이 빠르게 감소하기 때문에 인명구조를 위해서는 신속한 수색이 필요하다. 또한 해양의 수색영역은 육상에 비해서 매우 넓기 때문에 효율적인 수색을 위해서는 선박을 이용한 육안수색보다는 인공위성이나 항공기에 탑재된 센서를 이용한 해상 객체 탐지 기술의 적용이 필요하다. 본 연구는 항공기에 탑재된 초분광 영상 센서를 이용하여 해양에서 객체를 신속하게 탐지하기 위한 목적으로 진행되었다. 초분광 영상 센서로 촬영된 영상은 8,241 × 1,024의 공간 해상도를 가지며, 한 화소당 0.7 m의 분해능과 127개의 스펙트럼으로 구성된 대용량의 데이터이다. 본 연구에서는 이러한 데이터를 신속하게 분석하기 위한 목적으로 DBSCAN을 사용한 해수 식별 알고리즘과 밀도 기반의 육지 제거 알고리즘을 결합한 해상 객체 탐지 모델을 개발하였다. 개발한 모델은 초분광 영상에 적용하였을 때 약 5 km2의 해상 영역을 100초 내로 분석할 수 있는 성능을 보였다. 또한 개발한 모델의 탐지 정확도를 평가하기 위해서 항공기를 이용하여 목포, 군산, 여수 지역의 초분광 영상을 촬영하였으며, 본 연구에서 개발한 탐지 모델에 적용한 결과, 실험 영상 내의 선박들을 90 %의 정확도로 탐지할 수 있는 결과를 얻었다. 본 연구에서 개발된 기술은 소형 선박의 수색·구조 활동을 지원하는 중요한 정보로 활용될 수 있을 것으로 기대한다.

LiDAR 시인성 향상을 위한 국내 교통안전표지 형상개선에 대한 연구 (A Research on Improving the Shape of Korean Road Signs to Enhance LiDAR Detection Performance)

  • 김지윤;김지수;박범진
    • 한국ITS학회 논문지
    • /
    • 제22권3호
    • /
    • pp.160-174
    • /
    • 2023
  • 자율주행차량에서 핵심적인 역할을 수행하는 LiDAR의 주변 환경 검지 시인성을 향상시키기 위해서는 LiDAR 성능의 개선 뿐만 아니라, 검지 물체의 개선도 필요하다. 이에 본 연구는 LiDAR 센서를 통해 수집되는 point cloud 데이터 기반의 형상인식 알고리즘을 활용하여 자율주행차량이 인식하기에 유리한 교통안전표지 형상과 개선방안을 제시하였다. 실험을 위해 point cloud 활용 연구에서 보편적으로 활용되는 DBSCAN 기반의 도로표지 인식·분류 알고리즘을 개발하고 실도로 환경에서 32ch LiDAR를 활용, 도로표지 5종에 대한 인식 성능 실험을 수행하였다. 연구결과, 정사각형이나 원형보다는 상하 비대칭이 있는 정삼각형, 직사각형과 같은 형상이 보다 적은 점군의 수로도 검지가 가능하고, 83% 이상의 높은 분류 정확도를 보였다. 또한, 정사각형 표지의 크기를 1.5배 확대할 경우, 분류 정확도를 향상시킬 수 있었다. 이러한 결과는 미래 자율주행 시대의 센서를 위한 전용 도로·교통안전시설물 개선 및 신규 시설물 개발에 활용될 수 있을 것으로 기대된다.

Building Dataset of Sensor-only Facilities for Autonomous Cooperative Driving

  • Hyung Lee;Chulwoo Park;Handong Lee;Junhyuk Lee
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.21-30
    • /
    • 2024
  • 본 논문에서는 자율협력주행 인프라를 위해 제작된 8가지 센서 전용 시설물들에 대해 라이다로 취득한 포인트 클라우드 데이터로부터 시설물들의 특징을 추출하여 샘플 데이터셋으로 구축하는 방법을 제안한다. 고휘도 반사지가 부착된 8가지 센서 전용 시설물들과 데이터 취득 시스템을 개발했고, 취득된 포인트 클라우드 데이터로부터 일정한 측정 거리 내에 위치한 시설물들의 특징을 추출하기 위해 포인트 대상의 DBSCAN 방법과 반사강도 대상의 OTSU 방법을 응용하여 추려낸 포인트들에 원통형 투영법을 적용했다. 3차원 포인트 좌표, 2차원 투영 좌표, 그리고 반사강도 등을 해당 시설물의 특징으로 설정했고, 정답 레이블과 함께 데이터셋으로 제작했다. 라이다로 취득한 데이터를 기반으로 구축된 시설물 데이터셋의 효용 가능성을 확인하기 위해서 기본적인 CNN 모델을 선정하여 학습 후 테스트를 진행하여 대략 90% 이상의 정확도를 보여 시설물 인식 가능성을 확인했다. 지속적인 실험을 통해 제시한 데이터셋 구축을 위한 특징 추출 알고리즘의 개선 및 성능 향상과 더불어 이에 적합한 자율협력주행을 위한 센서 전용 시설물을 인식할 수 있는 전용 모델을 개발할 예정이다.

Clustering Algorithm for Time Series with Similar Shapes

  • Ahn, Jungyu;Lee, Ju-Hong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권7호
    • /
    • pp.3112-3127
    • /
    • 2018
  • Since time series clustering is performed without prior information, it is used for exploratory data analysis. In particular, clusters of time series with similar shapes can be used in various fields, such as business, medicine, finance, and communications. However, existing time series clustering algorithms have a problem in that time series with different shapes are included in the clusters. The reason for such a problem is that the existing algorithms do not consider the limitations on the size of the generated clusters, and use a dimension reduction method in which the information loss is large. In this paper, we propose a method to alleviate the disadvantages of existing methods and to find a better quality of cluster containing similarly shaped time series. In the data preprocessing step, we normalize the time series using z-transformation. Then, we use piecewise aggregate approximation (PAA) to reduce the dimension of the time series. In the clustering step, we use density-based spatial clustering of applications with noise (DBSCAN) to create a precluster. We then use a modified K-means algorithm to refine the preclusters containing differently shaped time series into subclusters containing only similarly shaped time series. In our experiments, our method showed better results than the existing method.

데이터 형태에 적응하는 클러스터링 알고리즘 (Data Clustering Algorithm Adaptive to Data Forms)

  • 이기호;이기철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2000년도 추계학술발표논문집 (하)
    • /
    • pp.1433-1436
    • /
    • 2000
  • 클러스터링에 있어서 k-means[7], DBSCAN[2], CURE[4], ROCK[5], PAM[8], 같은 기존의 알고리즘은 원형이나 타원형 등의 어느 고정된 모양에 의해 클러스터를 결정한다. 만약 클러스터 하려는 데이터의 분포가 우연히 알고리즘의 결정된 모양과 일치하면 정확한 해를 얻을 수 있다. 하지만 자연적인 데이터의 분포에서는 발생하기 어렵다. 데이터의 형태를 추적하여 이러한 문제점을 해결한 CHAMELEON[1] 알고리즘이 최근에 발표되었다. 하지만 모양에는 독립적이나 데이터의 양이 증가함에 따라 소요되는 시간이 폭발적으로 증가한다. 이것은 기존의 마이닝 데이터들이 대용량이라는 것을 고려하면 현실에 적용하기 힘든 문제점이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 K-means[7]]를 이용한 대표를 선출하는 방법으로 CHAMELEON[1]의 문제점 개선(EF-CHAMELEON)을 시도하였으며 여러 자연적인 형태의 도형들은 아주 작은 원형들의 집합으로 구성 될 수 있다는 생각을 기본으로 잡음에 영향을 받지 않을 정도로 아주 작은 초기 다수의 소형 클러스터를 K-mean을 이용하여 구성하고 이를 다시 크러스터간의 상대적인 거리를 이용하여 다시 머지 하는 방법으로 모양에 의존적인 문제를 해결하며 비교사 학습(unsupervised learning)에 충실하기 위해 임계값을 적용 적정 단계에서 알고리즘을 멈추게 한 ADF 알고리즘을 소개한다. 실험 데이터는 기존의 여러 클러스터링 알고리즘이 판별 할 수 없었던 다양한 모양을 가지고있는 2차원 배열을 사용하여 ADF. CHAMELEON[1], EF-CHAMELEON,의 성능을 비교하였다.

  • PDF

Velocity Dispersion Bias of Galaxy Groups classified by Machine Learning Algorithm

  • Lee, Youngdae;Jeong, Hyunjin;Ko, Jongwan;Lee, Joon Hyeop;Lee, Jong Chul;Lee, Hye-Ran;Yang, Yujin;Rey, Soo-Chang
    • 천문학회보
    • /
    • 제44권2호
    • /
    • pp.74.2-74.2
    • /
    • 2019
  • We present a possible bias in the estimation of velocity dispersions for galaxy groups due to the contribution of subgroups which are infalling into the groups. We execute a systematic search for flux-limited galaxy groups and subgroups based on the spectroscopic galaxies with r < 17.77 mag of SDSS data release 12, by using DBSCAN (Density-Based Spatial Clustering of Application with Noise) and Hierarchical Clustering Method which are well known unsupervised machine learning algorithm. A total of 2042 groups with at least 10 members are found and ~20% of groups have subgroups. We found that the estimation of velocity dispersions of groups using total galaxies including those in subgroups are underestimated by ~10% compared to the case of using only galaxies in main groups. This result suggests that the subgroups should be properly considered for mass measurement of galaxy groups based on the velocity dispersion.

  • PDF

A NODE PREDICTION ALGORITHM WITH THE MAPPER METHOD BASED ON DBSCAN AND GIOTTO-TDA

  • DONGJIN LEE;JAE-HUN JUNG
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제27권4호
    • /
    • pp.324-341
    • /
    • 2023
  • Topological data analysis (TDA) is a data analysis technique, recently developed, that investigates the overall shape of a given dataset. The mapper algorithm is a TDA method that considers the connectivity of the given data and converts the data into a mapper graph. Compared to persistent homology, another popular TDA tool, that mainly focuses on the homological structure of the given data, the mapper algorithm is more of a visualization method that represents the given data as a graph in a lower dimension. As it visualizes the overall data connectivity, it could be used as a prediction method that visualizes the new input points on the mapper graph. The existing mapper packages such as Giotto-TDA, Gudhi and Kepler Mapper provide the descriptive mapper algorithm, that is, the final output of those packages is mainly the mapper graph. In this paper, we develop a simple predictive algorithm. That is, the proposed algorithm identifies the node information within the established mapper graph associated with the new emerging data point. By checking the feature of the detected nodes, such as the anomality of the identified nodes, we can determine the feature of the new input data point. As an example, we employ the fraud credit card transaction data and provide an example that shows how the developed algorithm can be used as a node prediction method.

Compositional data analysis by the square-root transformation: Application to NBA USG% data

  • Jeseok Lee;Byungwon Kim
    • Communications for Statistical Applications and Methods
    • /
    • 제31권3호
    • /
    • pp.349-363
    • /
    • 2024
  • Compositional data refers to data where the sum of the values of the components is a constant, hence the sample space is defined as a simplex making it impossible to apply statistical methods developed in the usual Euclidean vector space. A natural approach to overcome this restriction is to consider an appropriate transformation which moves the sample space onto the Euclidean space, and log-ratio typed transformations, such as the additive log-ratio (ALR), the centered log-ratio (CLR) and the isometric log-ratio (ILR) transformations, have been mostly conducted. However, in scenarios with sparsity, where certain components take on exact zero values, these log-ratio type transformations may not be effective. In this work, we mainly suggest an alternative transformation, that is the square-root transformation which moves the original sample space onto the directional space. We compare the square-root transformation with the log-ratio typed transformation by the simulation study and the real data example. In the real data example, we applied both types of transformations to the USG% data obtained from NBA, and used a density based clustering method, DBSCAN (density-based spatial clustering of applications with noise), to show the result.

불균형자료를 위한 판별분석에서 HDBSCAN의 활용 (Discriminant analysis for unbalanced data using HDBSCAN)

  • 이보희;김태헌;최용석
    • 응용통계연구
    • /
    • 제34권4호
    • /
    • pp.599-609
    • /
    • 2021
  • 군집간의 개체 수의 차이가 큰 자료들을 불균형자료라고 한다. 불균형자료의 판별분석에서 다수 범주의 개체를 잘 분류하는 것 보다 소수 범주의 개체를 잘 분류하는 것이 더 중요하다. 그러나 개체 수가 상대적으로 작은 소수 범주의 개체를 개체 수가 상대적으로 많은 다수 범주의 개체로 오분류하는 경우가 많다. 본 연구에서는 이를 해결하기 위해 HDBSCAN과 SMOTE를 결합한 방법을 제안한다. HDBSCAN을 이용하여 소수 범주의 노이즈와 다수 범주의 노이즈를 제거하고 SMOTE를 적용하여 새로운 자료를 만들어낸다. 기존의 방법들과 성능을 비교하기 위하여 AUC와 F1 점수를 이용하였고 그 결과 대부분의 경우에 HDBSCAN과 SMOTE를 결합한 방법이 높은 성능 지표를 보였고, 불균형자료를 분류하는데 있어 뛰어난 방법으로 나타났다.