• 제목/요약/키워드: redundant data

검색결과 442건 처리시간 0.028초

복수의 수중 소나를 활용한 수중 로봇의 3차원 지형 맵핑에 관한 연구 (Study on Seabed Mapping using Two Sonar Devices for AUV Application)

  • 조한길;유선철
    • 로봇학회논문지
    • /
    • 제16권2호
    • /
    • pp.94-102
    • /
    • 2021
  • This study addresses a method for 3D reconstruction using acoustic data with heterogeneous sonar devices: Forward-Looking Multibeam Sonar (FLMS) and Profiling Sonar (PS). The challenges in sonar image processing are perceptual ambiguity, the loss of elevation information, and low signal to noise ratio, which are caused by the ranging and intensity-based image generation mechanism of sonars. The conventional approaches utilize additional constraints such as Lambertian reflection and redundant data at various positions, but they are vulnerable to environmental conditions. Our approach is to use two sonars that have a complementary data type. Typically, the sonars provide reliable information in the horizontal but, the loss of elevation information degrades the quality of data in the vertical. To overcome the characteristic of sonar devices, we adopt the crossed installation in such a way that the PS is laid down on its side and mounted on the top of FLMS. From the installation, FLMS scans horizontal information and PS obtains a vertical profile of the front area of AUV. For the fusion of the two sonar data, we propose the probabilistic approach. A likelihood map using geometric constraints between two sonar devices is built and a monte-carlo experiment using a derived model is conducted to extract 3D points. To verify the proposed method, we conducted a simulation and field test. As a result, a consistent seabed map was obtained. This method can be utilized for 3D seabed mapping with an AUV.

Dynamic Prime Chunking Algorithm for Data Deduplication in Cloud Storage

  • Ellappan, Manogar;Abirami, S
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권4호
    • /
    • pp.1342-1359
    • /
    • 2021
  • The data deduplication technique identifies the duplicates and minimizes the redundant storage data in the backup server. The chunk level deduplication plays a significant role in detecting the appropriate chunk boundaries, which solves the challenges such as minimum throughput and maximum chunk size variance in the data stream. To provide the solution, we propose a new chunking algorithm called Dynamic Prime Chunking (DPC). The main goal of DPC is to dynamically change the window size within the prime value based on the minimum and maximum chunk size. According to the result, DPC provides high throughput and avoid significant chunk variance in the deduplication system. The implementation and experimental evaluation have been performed on the multimedia and operating system datasets. DPC has been compared with existing algorithms such as Rabin, TTTD, MAXP, and AE. Chunk Count, Chunking time, throughput, processing time, Bytes Saved per Second (BSPS) and Deduplication Elimination Ratio (DER) are the performance metrics analyzed in our work. Based on the analysis of the results, it is found that throughput and BSPS have improved. Firstly, DPC quantitatively improves throughput performance by more than 21% than AE. Secondly, BSPS increases a maximum of 11% than the existing AE algorithm. Due to the above reason, our algorithm minimizes the total processing time and achieves higher deduplication efficiency compared with the existing Content Defined Chunking (CDC) algorithms.

Modal parameter identification with compressed samples by sparse decomposition using the free vibration function as dictionary

  • Kang, Jie;Duan, Zhongdong
    • Smart Structures and Systems
    • /
    • 제25권2호
    • /
    • pp.123-133
    • /
    • 2020
  • Compressive sensing (CS) is a newly developed data acquisition and processing technique that takes advantage of the sparse structure in signals. Normally signals in their primitive space or format are reconstructed from their compressed measurements for further treatments, such as modal analysis for vibration data. This approach causes problems such as leakage, loss of fidelity, etc., and the computation of reconstruction itself is costly as well. Therefore, it is appealing to directly work on the compressed data without prior reconstruction of the original data. In this paper, a direct approach for modal analysis of damped systems is proposed by decomposing the compressed measurements with an appropriate dictionary. The damped free vibration function is adopted to form atoms in the dictionary for the following sparse decomposition. Compared with the normally used Fourier bases, the damped free vibration function spans a space with both the frequency and damping as the control variables. In order to efficiently search the enormous two-dimension dictionary with frequency and damping as variables, a two-step strategy is implemented combined with the Orthogonal Matching Pursuit (OMP) to determine the optimal atom in the dictionary, which greatly reduces the computation of the sparse decomposition. The performance of the proposed method is demonstrated by a numerical and an experimental example, and advantages of the method are revealed by comparison with another such kind method using POD technique.

인체 동작 인식을 위한 가속도 센서의 신호 처리 (Signal processing of accelerometers for motion capture of human body)

  • 이지홍;하인수
    • 제어로봇시스템학회논문지
    • /
    • 제5권8호
    • /
    • pp.961-968
    • /
    • 1999
  • In this paper we handle a system that transform sensor data to sensor information. Sensor informations from redundant accelerometers are manipulated to represent the configuration of objects carrying sensors. Basic sensor unit of the proposed systme is composed of 3 accelerometers that are aligned along x-y-z coordination axes of motion. To refine the sensor information, at first the sensor data are fused by geometrical optimization to reduce the variance of sensor information. To overcome the error caused from inexact alignment of each sensor to the coordination system, we propose a calibration technique that identifies the transformation between the coordinate axes and real sensor axes. The calibration technique make the sensor information approach real value. Also, we propose a technique that decomposes the accelerometer data into motion acceleration component and gravity acceleration component so that we can get more exact configuration of objects than in the case of raw sensor data. A set of experimental results are given to show the usefulness of the proposed method as well as the experiments in which the proposed techniques are applied to human body motion capture.

  • PDF

물품관리를 위한 VMDC(View, Model, Dispatcher, Controller) 아키텍처 (The VMDC(View, Model, Dispatcher, Controller) Architecture for Products Management)

  • 김다정;이은서
    • 정보처리학회논문지D
    • /
    • 제16D권6호
    • /
    • pp.881-888
    • /
    • 2009
  • 본 연구에서는 소프트웨어 기반으로 물품관리를 하기 위한 VMDC(View, Model, Dispatcher, Controller) 아키텍처를 제안한다. 물품을 인력이 아닌 소프트웨어로 관리하기 위하여 여러 아키텍처들이 존재한다. MVC와 기존 아키텍처의 경우, 공통된 객체의 전달로 불필요한 데이터가 이동되는 문제점이 발생한다. 따라서 이와 같은 문제점을 해결하기 위하여 VMDC(View, Model, Dispatcher, Controller) 아키텍처를 제시하고자 한다. VMDC(View, Model, Dispatcher, Controller) 아키텍처의 Dispatcher(사령부)는 각 Controller(컨트롤러)가 필요로 하는 데이터를 파악하고 그것을 기반으로 하여 객체를 재구성함으로서 효율적인 데이터 이동을 하도록 한다. 또한 VMDC(View, Model, Dispatcher, Controller) 아키텍처를 이용하여 개발된 식품관리 프로그램으로 사용사례를 보이고, 효율성을 제시 후 향후 연구방향 또한 제시한다.

A Comparative Analysis of the Pre-Processing in the Kaggle Titanic Competition

  • Tai-Sung, Hur;Suyoung, Bang
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권3호
    • /
    • pp.17-24
    • /
    • 2023
  • 데이터 과학과 관련한 과제를 제시하고 참가자가 이를 해결하는 캐글(Kaggle)의 대표적인 대회인 'Tatanic - Machine Learning from Disaster' 문제를 기반으로 데이터 전처리 방식과 모델 구축이 예측 정확도와 점수에 어떤 영향을 미치는지 확인하고자 한다. 중복된 모델을 사용하였거나 앙상블 기법을 사용한 경우를 제외하고 높은 점수를 획득하여 상위 순위에 위치한 7건의 해결 방식을 선정하여 특징들을 비교 분석한다. 전처리를 진행하는 데 있어 대부분 고유하고 차별적인 특징을 가진 것을 확인하였으며, 거의 동일할 정도의 전처리 과정을 거쳤으나 모델의 종류에 따라 점수 차이가 존재하기도 하였다. 본 논문의 비교 분석 연구는 상위 점수 참가자의 전처리 방식의 특징과 분석 흐름을 이해함으로써 캐글 대회 참가자들과 데이터 과학 입문자들에게 많은 도움이 될 것으로 생각한다.

크로스커팅 개념을 이용한 시스템 최적화 기법 (System Optimization Technique using Crosscutting Concern)

  • 이승형;유현
    • 디지털융복합연구
    • /
    • 제15권3호
    • /
    • pp.181-186
    • /
    • 2017
  • 시스템 최적화는 소스코드의 변경 없이 중복된 모듈을 추출하고, 추출된 모듈의 재사용을 위하여 프로그램의 구조를 변경하는 기법이다. 구조지향 개발과 객체지향 개발은 크로스커팅 영역의 모듈화에는 효율적이나 크로스커팅 개념을 모듈화 할 수 없다. 기존 시스템에서 크로스커팅 개념을 적용하기 위해, 각 시스템 내에 분산되어 있는 시스템 최적화 대상 모듈을 크로스커팅 영역으로 추출하는 기술이 필요하다. 본 논문에서는 개발이 완료된 시스템에서 중복 모듈을 추출하기 위한 방법을 제안한다. 제안하는 방법은 소스코드 분석을 통해 데이터 의존관계와 제어 의존관계를 분석하여 중복되는 요소를 추출한다. 추출된 중복된 요소는 시스템 최적화를 위하여 프로그램 의존 관계 분석에 사용될 수 있다. 중복된 의존관계 분석 결과는 제어 흐름 그래프로 변환되며, 이를 활용하여 최소 크로스커팅 모듈을 생성할 수 있다. 의존 관계 분석을 통해 추출된 요소는 크로스커팅 영역 모듈로 설정함으로써 시스템 내 중복된 코드를 최소화 할 수 있는 시스템 최적화 방법을 제시한다.

단어의 공기정보를 이용한 클러스터 기반 다중문서 요약 (Multi-document Summarization Based on Cluster using Term Co-occurrence)

  • 이일주;김민구
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권2호
    • /
    • pp.243-251
    • /
    • 2006
  • 대표문장 추출에 의한 다중문서 요약에서는 비슷한 정보가 여러 문서에서 반복적으로 나타나는 정보의 중복문제에 대해 문장의 유사성과 차이점을 고려하여 이를 해결할 수 있는 효율적인 방법이 필요하다. 본 논문에서는 단어의 공기정보에 의한 관련단어 클러스터링 기법을 이용하여 문장의 중복성을 제거하고 중요문장을 추출하는 다중문서 요약을 제안한다. 관련단어 클러스터링 기법에서는 각 단어들은 서로 독립적으로 존재하는 것이 아니라 서로 간에 의미적으로 연관되어 있다고 보며 주제별 문장클러스터단위의 단어 연관성(cohesion)을 이용한다. 평가용 실험문서인 DUC(Document Understanding Conferences) 데이타를 이용하여 실험한 결과 본 논문에서 제안한 문장클러스터단위의 단어 공기정보를 이용한 방법이 단순 통계정보와 문서단위 단어 공기정보, 문장단위 단어 공기정보에 의한 다중문서 요약에 비해 좋은 결과를 보였다.

무선 센서 네트워크에서 3개의 채널을 이용한 MPR 기반의 브로드캐스트 기법 (An MPR-based broadcast scheme using 3 channels for WSNs)

  • 이지혜;이기석;김치하
    • 한국통신학회논문지
    • /
    • 제34권10B호
    • /
    • pp.1043-1049
    • /
    • 2009
  • 무선 센서 네트워크에서 싱크(sink) 노드의 브로드캐스트는 네트워크 관리 또는 질의를 통한 데이터 수집 및 시간 동기화 등 다양한 응용에 활용된다. 가장 단순한 형태의 브로드캐스트 방식인 플러딩(flooding)은 과도한 잉여 트래픽을 발생 시켜 브로드캐스트 스톰(broadcast storm) 문제를 야기하기 때문에 효율적인 브로드캐스트를 수행하지 못한다. 과도한 잉여 트래픽을 줄여 주는 브로드캐스트 기법으로 MPR (Multi-Point Relay)을 활용한 브로드캐스트 방식이 있다. MPR은 2 홉(hop)범위에 브로드캐스트 메시지를 전달하기 위해 메시지를 중계하여야 하는 1 홉 범위의 노드 집합을 의미한다. MPR을 최소로 선발할 경우 잉여 트래픽을 크게 줄일 수 있으나, 브로트캐스트 메시지의 충돌과 중복된 수신으로 인한 에너지 낭비문제는 해결하지는 못 한다. 본 논문에서는 무선 센서네트워크에서 3 개의 채널을 사용하는 MPR 기반의 싱크 브로드캐스트 기법을 제안한다. 제안하는 기법은 브로드캐스트 메시지의 충돌 가능성을 크게 줄여 신뢰성을 향상시킴과 동시에 중복된 메시지 수신을 배제함으로써 에너지 소모를 줄인다. 성능 평가 결과는 제안하는 기법이 MPR을 이용한 브로드캐스트와 비교하여 에너지 효율적이고 전송 지연이 짧으며 전송 신뢰도가 높음을 보여준다.

데이터의 공간적 분포를 고려한 퍼지 이산화와 특징선택에의 응용 (Fuzzy discretization with spatial distribution of data and Its application to feature selection)

  • 손창식;신아미;이인희;박희준;박형섭;김윤년
    • 한국지능시스템학회논문지
    • /
    • 제20권2호
    • /
    • pp.165-172
    • /
    • 2010
  • 임상 데이터마이닝에서 최적의 특징 집합을 선택하는 것은 주어진 데이터로부터 생성된 모델의 복잡성을 줄일 뿐만 아니라 유용성을 향상시키는 데에 매우 중요하고, 선택된 특징들의 임계값은 질병의 감별진단을 위해 임상 전문가의 결정기준으로 사용된다. 본 논문에서는 데이터의 공간적인 분포, 즉 중첩영역에서 중복 속성값을 포함하는 데이터의 분리성 정도를 평가함으로써 연속형 속성을 가진 데이터에 대한 퍼지 이산화기법을 제안한다. 제안된 방법에서 중복 속성값의 가중치 평균값은 각 특징의 임계값(즉 경계값)을 결정하기 위해서 사용되었고, 러프집합은 전체 특징들 중에서 중요특징들의 집합을 선택하기 위해서 이용하였다. 제안된 방법의 타당성을 검증하기 위해 호흡곤란을 주호소로 내원한 668명의 환자 데이터를 근거로 3가지 이산화방법과 제안된 이산화방법에 대한 실험을 수행하였다. 실험결과, 퍼지분할을 기반으로 한 이산화방법이 하드분할을 기반으로 한 이산화방법에 비해서 평균 분류정확도와 G-mean 성능에서 보다 좋은 결과를 제공함을 확인하였다.