• 제목/요약/키워드: Complex Data-Algorithm Data Processing

검색결과 151건 처리시간 0.023초

복합적 자료-알고리즘 자료처리 방식을 적용한 자료처리 시스템 설계 방안 연구 (Study on Data Control System Design Method with Complex Data-Algorithm Data Processing)

  • 김민욱;박연구;이종혁;이정덕
    • 한국위성정보통신학회논문지
    • /
    • 제10권3호
    • /
    • pp.11-15
    • /
    • 2015
  • 본 연구에서는 수재해 정보 플랫폼 내 자료처리 시스템 설계를 위해 자료처리 과정의 복잡도를 분석하고 이에 따른 설계 방안을 제시하였다. 일반적으로 자료를 수집하고 분석하는 시스템은 자료와 알고리즘의 자료처리 과정이 고정된 고정 자료-알고리즘 자료처리 방식을 사용한다. 하지만 시스템의 복잡도가 증가하면 자료처리 시스템에서 관리해야 하는 자료처리 과정의 수가 급증하는 문제가 발생한다. 이를 해결하기 위해 자료와 알고리즘 사이에 인터페이스가 존재하는 동적 자료-알고리즘 자료처리 방식을 적용할 수 있다. 각 방식의 장단점을 분석한 뒤, 수재해 정보 플랫폼에 최적화된 자료처리 시스템의 설계안을 제시할 수 있었다.

복합 센서 데이터 처리 알고리즘을 이용한 비접촉 가전 기기 식별 알고리즘 연구 (A Study of Non-Intrusive Appliance Load Identification Algorithm using Complex Sensor Data Processing Algorithm)

  • 채성윤;박진희
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권2호
    • /
    • pp.199-204
    • /
    • 2017
  • 본 연구는 가정 내에서 사용하는 가전 기기의 사용 에너지를 효율적으로 관리하기 위한 비접촉 가전 기기 식별 기법을 제시한다. 제안하는 기법은 총 전력 사용량 정보를 이용한 기존의 가전 기기 식별 기법을 개선하기 위해서 복합 센서 정보를 종합적으로 활용한다. 이를 위해서 기기 상태와 측정된 센서 값 간의 영향도를 그래프 형태로 정의한다. 기기 상태에 영향을 미치는 복합 센서를 표현하는 영향도 그래프를 통해 기기 식별 예측 결과를 계산하기 위해 총 전력 사용량 기반 예측값과 센서 데이터 처리 알고리즘 예측값의 가중치 합을 사용한다. 시뮬레이션 실험을 통한 성능 분석으로 기존 비접촉 가전 기기 식별 기법의 기기 식별 정확도와 비교한다.

Strong Uncorrelated Transform Applied to Spatially Distant Channel EEG Data

  • Kim, Youngjoo;Park, Cheolsoo
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제4권2호
    • /
    • pp.97-102
    • /
    • 2015
  • In this paper, an extension of the standard common spatial pattern (CSP) algorithm using the strong uncorrelated transform (SUT) is used in order to extract the features for an accurate classification of the left- and right-hand motor imagery tasks. The algorithm is designed to analyze the complex data, which can preserve the additional information of the relationship between the two electroencephalogram (EEG) data from distant channels. This is based on the fact that distant regions of the brain are spatially distributed spatially and related, as in a network. The real-world left- and right-hand motor imagery EEG data was acquired through the Physionet database and the support vector machine (SVM) was used as a classifier to test the proposed method. The results showed that extracting the features of the pair-wise channel data using the strong uncorrelated transform complex common spatial pattern (SUTCCSP) provides a higher classification rate compared to the standard CSP algorithm.

Review of Data-Driven Multivariate and Multiscale Methods

  • Park, Cheolsoo
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제4권2호
    • /
    • pp.89-96
    • /
    • 2015
  • In this paper, time-frequency analysis algorithms, empirical mode decomposition and local mean decomposition, are reviewed and their applications to nonlinear and nonstationary real-world data are discussed. In addition, their generic extensions to complex domain are addressed for the analysis of multichannel data. Simulations of these algorithms on synthetic data illustrate the fundamental structure of the algorithms and how they are designed for the analysis of nonlinear and nonstationary data. Applications of the complex version of the algorithms to the synthetic data also demonstrate the benefit of the algorithms for the accurate frequency decomposition of multichannel data.

복잡한 구조의 데이터 중복제거를 위한 효율적인 알고리즘 연구 (Study of Efficient Algorithm for Deduplication of Complex Structure)

  • 이협건;김영운;김기영
    • 한국정보전자통신기술학회논문지
    • /
    • 제14권1호
    • /
    • pp.29-36
    • /
    • 2021
  • IT기술의 발달로 인해 발생되는 데이터양은 기하급수적으로 급격하게 증가하고 있으며, 데이터 구조의 복잡성은 높아지고 있다. 빅데이터 분석가와 빅데이터 엔지니어들은 이러한 빅데이터들을 보다 빠르게 데이터 처리 및 데이터 분석을 수행을 목표로 분석 대상의 데이터양을 최소화하기 위한 연구가 기업 및 가관 등 활발하게 이뤄지고 있다. 빅데이터 플랫폼으로 많이 활용되는 하둡은 서브프로젝트인 Hive를 통해 분석 대상의 데이터 최소화 등 다양한 데이터 처리 및 데이터 분석 기능을 제공하고 있다. 그러나 Hive는 데이터의 복잡성을 고려하지 않고 구현되어 중복 제거에 방대한 양의 메모리를 사용한다. 이에 복잡한 구조의 데이터 중복제거를 위한 효율적인 알고리즘을 제안한다. 성능평가 결과, 제안하는 알고리즘은 Hive에 비해 메모리 사용량은 최대 79%, 데이터 중복제거 시간은 0.677% 감소한다. 향후, 제안하는 알고리즘의 현실적인 검증을 위해 다수의 데이터 노드 기반 성능 평가가 필요하다.

SIMD 구조를 갖는 프로세서에서 FFT 연산 가속화 (Acceleration of FFT on a SIMD Processor)

  • 이주영;홍용근;이현석
    • 전자공학회논문지
    • /
    • 제52권2호
    • /
    • pp.97-105
    • /
    • 2015
  • 이 논문은 SIMD 구조를 갖는 프로세서에서 FFT 연산을 효과적으로 처리하는 방법에 대한 것이다. FFT는 디지털 신호처리 분야에서 널리 사용되는 범용 알고리즘으로 이의 효과적인 처리는 성능 향상에 있어서 매우 중요하다. Bruun 알고리즘은 반복적인 인수분해를 통해 구현되는 FFT 알고리즘으로, 널리 사용되는 Cooley-Tukey 알고리즘에 비해 복소수 곱셈이 아닌 실수 곱셈으로 대부분의 동작을 수행하는 장점을 가지고 있으나, SIMD 프로세서에서 구현하는 데는 벡터 데이터의 정렬 형태가 복잡하고 연산에 필요한 계수들을 저장할 메모리를 더 필요로 하는 단점이 있다. 실험 결과에 따르면 길이 1024인 FFT 연산을 SIMD 프로세서에서 수행하는데 있어서 Bruun 알고리즘은 Cooley-Tukey 알고리즘에 비해서 약 1.2배의 더 높은 처리성능을 보이지만, 약 4 배 더 큰 데이터 메모리를 필요로 한다. 따라서 데이터 메모리에 대한 제약이 큰 경우가 아니라면 SIMD 프로세서에서 Bruun 알고리즘이 FFT 연산에 적합하다.

A Low-Complexity 128-Point Mixed-Radix FFT Processor for MB-OFDM UWB Systems

  • Cho, Sang-In;Kang, Kyu-Min
    • ETRI Journal
    • /
    • 제32권1호
    • /
    • pp.1-10
    • /
    • 2010
  • In this paper, we present a fast Fourier transform (FFT) processor with four parallel data paths for multiband orthogonal frequency-division multiplexing ultra-wideband systems. The proposed 128-point FFT processor employs both a modified radix-$2^4$ algorithm and a radix-$2^3$ algorithm to significantly reduce the numbers of complex constant multipliers and complex booth multipliers. It also employs substructure-sharing multiplication units instead of constant multipliers to efficiently conduct multiplication operations with only addition and shift operations. The proposed FFT processor is implemented and tested using 0.18 ${\mu}m$ CMOS technology with a supply voltage of 1.8 V. The hardware- efficient 128-point FFT processor with four data streams can support a data processing rate of up to 1 Gsample/s while consuming 112 mW. The implementation results show that the proposed 128-point mixed-radix FFT architecture significantly reduces the hardware cost and power consumption in comparison to existing 128-point FFT architectures.

2D 이미지에서 3D 모델링 데이터 변환 알고리즘에 관한 연구 (Study on the 3D Modeling Data Conversion Algorithm from 2D Images)

  • 최태준;이희만;김응수
    • 한국멀티미디어학회논문지
    • /
    • 제19권2호
    • /
    • pp.479-486
    • /
    • 2016
  • In this paper, the algorithm which can convert a 2D image into a 3D Model will be discussed. The 2D picture drawn by a user is scanned for image processing. The Canny algorithm is employed to find the contour. The waterfront algorithm is proposed to find foreground image area. The foreground area is segmented to decompose the complex shapes into simple shapes. Then, simple segmented foreground image is converted into 3D model to become a complex 3D model. The 3D conversion formular used in this paper is also discussed. The generated 3D model data will be useful for 3D animation and other 3D contents creation.

A Density Peak Clustering Algorithm Based on Information Bottleneck

  • Yongli Liu;Congcong Zhao;Hao Chao
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.778-790
    • /
    • 2023
  • Although density peak clustering can often easily yield excellent results, there is still room for improvement when dealing with complex, high-dimensional datasets. One of the main limitations of this algorithm is its reliance on geometric distance as the sole similarity measurement. To address this limitation, we draw inspiration from the information bottleneck theory, and propose a novel density peak clustering algorithm that incorporates this theory as a similarity measure. Specifically, our algorithm utilizes the joint probability distribution between data objects and feature information, and employs the loss of mutual information as the measurement standard. This approach not only eliminates the potential for subjective error in selecting similarity method, but also enhances performance on datasets with multiple centers and high dimensionality. To evaluate the effectiveness of our algorithm, we conducted experiments using ten carefully selected datasets and compared the results with three other algorithms. The experimental results demonstrate that our information bottleneck-based density peaks clustering (IBDPC) algorithm consistently achieves high levels of accuracy, highlighting its potential as a valuable tool for data clustering tasks.

병렬처리 알고리즘 적용 유도탄 점검 (Inspection of guided missiles applied with parallel processing algorithm)

  • 정의재;고상훈;이유상;김영성
    • 한국항행학회논문지
    • /
    • 제25권4호
    • /
    • pp.293-298
    • /
    • 2021
  • 일반적으로 유도무기의 탐색기와 유도조종장치는 유도탄의 상태를 나타내기 위해 표적, 탐색, 인지, 포착정보를 처리하여 유도무기의 운용 및 제어를 담당하는 역할을 한다. 유도에 필요한 신호는 시선 변화율 신호, 시각 신호, 종말 단계 동체 지향 신호이며, 발사 통제에 필요한 신호는 표적, 감지 신호가 필요하다. 최근 유도탄의 복잡하고 처리하기 어려운 유도탄 신호를 실시간으로 처리하기 위해 유도탄의 데이터 처리 속도를 높여야 한다. 본 연구는 PLINQ(Parallel Language-Integrated Query)의 병렬 알고리즘 방법 중 스톱앤고와 역 열거형 알고리즘을 적용한 후 유도탄 점검 프로그램을 이용하여 실시간으로 유도탄 필요 신호 데이터 처리속도를 비교 후 처리결과를 나타내었다. 도출된 데이터 처리결과 기준으로 다중코어 처리방식과 단독코어 처리방식 CPU(Central Processing Unit) 처리속도 비교, CPU 코어 이용률을 비교하고 병렬처리 알고리즘 적용 시 유도탄 데이터 처리에 효과적 방법을 제안한다.