• Title/Summary/Keyword: Data Merge

검색결과 189건 처리시간 0.027초

다중 PCM 데이터를 이용한 텔레메트리 데이터 복구 방법 (Telemetry Data Recovery Method Using Multiple PCM Data)

  • 정혜승;김주년
    • 항공우주기술
    • /
    • 제11권2호
    • /
    • pp.96-102
    • /
    • 2012
  • 최근 여러 개의 지상국에서 수신한 PCM 데이터를 병합하여 잡음에 의한 프레임 오류를 제거하는 방법에 관한 관심이 증가하고 있다. 단순 병합 방식은 이미 나로우주센터의 데이터처리 시스템에 적용되어, 나로호의 1, 2차 비행시험 데이터 분석에 사용된 바 있다. 본 논문은 단순 데이터 병합방식에 데이터 치환, 비트단위 투표 등의 오류교정 알고리즘 및 시간지연데이터를 이용한 교정알고리즘을 적용하여 오류율을 더 낮추는 데 초점을 맞추고 있다. 네 개 지상국에서 수신된 나로호 비행시험 데이터에 제안된 알고리즘을 적용한 결과 단순 병합방식보다 1.32%의 오류율이 개선된 것으로 나타났다. 제시된 알고리즘은 향후 다양한 텔레메트리 병합데이터 생성에 유용하게 사용될 수 있으리라 판단된다.

로그 블록 간 병합을 이용한 효율적인 로그 버퍼 관리 (An Efficient Log Buffer Management Through Join between Log Blocks)

  • 김학철;박용훈;윤종현;서동민;송석일;유재수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2009년도 춘계 종합학술대회 논문집
    • /
    • pp.51-56
    • /
    • 2009
  • 플래시 메모리는 이미 데이터가 기록된 섹터에 대해 덮어 쓰기 연산이 되지 않는 특징이 있다. 이러한 플래시 메모리의 특징을 극복하기 위해 로그 버퍼 관리 기법이 소개 되었다. 그러나 현재 까지 연구된 로그 버퍼 관리 기법들 중 BAST 기법은 쓰기 연산의 패턴이 임의 쓰기인 경우 잦은 병합 연산을 발생시키는 문제가 있으며, 이를 개선한 FAST 기법은 자주 갱신되는 데이터에 의해 빈번하게 발생되는 병합 연산을 고려하지 않았다. 본 논문에서는 새로운 로그 버퍼 관리기법인 JBB를 제안한다. 제안하는 기법은 로그 블록의 병합 가치를 평가하여 빈번하게 갱신이 발생하지 않는 데이터에 대해서 데이터 블록과의 병합연산을 수행하고, 빈번하게 갱신되는 데이터에 대해 데이터 블록과의 병합을 최대한 지연한다. 이를 통해 불필요한 데이터 블록의 병합 연산을 방지하여 플래시 메모리의 소거 횟수를 크게 감소시켰고, 공간 활용을 극대화 하였다. 로그 버퍼 관리 기법의 대표적인 기법인 BAST와 FAST와의 성능 비교를 통해 본 논문에서 제안하는 기법의 우수성을 증명하였다.

  • PDF

3D 형상 데이터의 압축 및 전송을 위한 VRML 메쉬의 병합에 관한 연구 (Merge of VRML Mesh for 3D Shape Data Compression and Transmission)

  • 장태범;문광원;정재열;김덕수
    • 한국CDE학회논문집
    • /
    • 제7권2호
    • /
    • pp.89-95
    • /
    • 2002
  • VRML data, which is mainly structural element, is frequently used for modeling and visualizing 3D objects. Although there can be variations, it is a usual practice to represent 3D shapes in VRML format. Ever since the advent of Internet, there have been strong needs to transfer shape data through Internet. Because of this need, it is necessary to transform a data file in VRML or similar format into a more convenient form to transfer through the network. In a VRML file, a model is sometimes divided into a set of triangle meshes due to several practical reasons. However, this causes various demerits for the fast transmission. Therefore, it is more efficient to merge the mesh sets into one mesh set for the transmission. In this paper, we present the problems in the merge process and the techniques to handle the situation.

XML 문서의 분할 인덱스 기법 (Indexing Methods of Splitting XML Documents)

  • 김종명;진민
    • 한국멀티미디어학회논문지
    • /
    • 제6권3호
    • /
    • pp.397-408
    • /
    • 2003
  • 기존의 Numbering 스킴을 이용한 XML 데이터의 인덱스 정의 방법은 개체가 삽입, 삭제, 갱신될 경우 인덱스가 재정의되어야 하는 문제점이 있다. 이러한 문제를 해결하기 위해서 본 논문은 블록단위의 인덱스기법을 제안한다. 블록과 블록사이는 많아야 하나의 관계가 유지 되도록 XML 데이터를 블록단위로 나누고, 각 블록에 대해 Numbering 스킴을 적용하여 인덱스를 정의한다. 이렇게 정의된 인덱스는 XML 데이터의 삽입, 삭제, 갱신의 경우 인덱스 재정의에 따른 오버헤드를 상당히 줄일 수 있다. 또한 XML 질의를 지원하기 위해 정의된 인덱스를 이용하여 두 개체사이의 관계를 검색하는 Parent-Child Block Merge Algorithm과 Ancestor-Descendent Block Merge Algorithm을 제안한다. 그리고 Ancestor-Descendent관계를 빠르게 검색하기 위하여 블록식별자가 부모의 정보를 유지하는 방법을 소개하고 이를 이용한 Parent-Child Block Merge Algorithm과 Ancestor-Descendent Block Merge Algorithm을 제안한다.

  • PDF

매개변수 환경설정에 따른 타조의 외부합병정렬 성능 연구 (External Merge Sorting in Tajo with Variable Server Configuration)

  • 이종백;강운학;이상원
    • 정보과학회 논문지
    • /
    • 제43권7호
    • /
    • pp.820-826
    • /
    • 2016
  • 거대한 데이터로부터 가치 있는 정보를 추출해 내는 빅데이터 기술의 필요성은 나날이 커지고 있다. 빅데이터 분석을 위해 사용되는 하둡 시스템은 맵리듀스를 통해 데이터를 처리하였으나, 맵리듀스 프레임워크는 코드 재사용성의 한계, 질의 최적화 기술의 부재 등의 단점을 보인다. 이를 극복하기 위해 SQL-on-Hadoop이라 불리는 하둡 기반의 SQL 질의 처리 기술이 주목받고 있다. SQL-on-Hadoop 기술 중 타조(Tajo)는 국내 개발진이 주축이 되어 개발되었다. 타조는 데이터 분석을 위해 외부합병정렬 알고리즘을 사용하며, 정렬 연산에 영향을 주는 매개변수로 정렬 버퍼 사이즈와 팬-아웃을 가진다. 본 논문은 타조의 정렬 연산에 영향을 미치는 매개변수인 정렬 버퍼 사이즈와 팬-아웃 값에 따른 정렬의 성능 차이를 보인다. 또한 측정한 성능에 대하여 정렬 버퍼 사이즈가 증가함에 따른 CPU 캐시 미스의 비율 증가, 팬-아웃에 따른 합병 단계 수의 변화가 성능 차이의 원인임을 보인다.

배열기반 데이터 구조를 이용한 간략한 divide-and-conquer 삼각화 알고리즘 (A Compact Divide-and-conquer Algorithm for Delaunay Triangulation with an Array-based Data Structure)

  • 양상욱;최영
    • 한국CDE학회논문집
    • /
    • 제14권4호
    • /
    • pp.217-224
    • /
    • 2009
  • Most divide-and-conquer implementations for Delaunay triangulation utilize quad-edge or winged-edge data structure since triangles are frequently deleted and created during the merge process. How-ever, the proposed divide-and-conquer algorithm utilizes the array based data structure that is much simpler than the quad-edge data structure and requires less memory allocation. The proposed algorithm has two important features. Firstly, the information of space partitioning is represented as a permutation vector sequence in a vertices array, thus no additional data is required for the space partitioning. The permutation vector represents adaptively divided regions in two dimensions. The two-dimensional partitioning of the space is more efficient than one-dimensional partitioning in the merge process. Secondly, there is no deletion of edge in merge process and thus no bookkeeping of complex intermediate state for topology change is necessary. The algorithm is described in a compact manner with the proposed data structures and operators so that it can be easily implemented with computational efficiency.

Analysis and Comparison of Sorting Algorithms (Insertion, Merge, and Heap) Using Java

  • Khaznah, Alhajri;Wala, Alsinan;Sahar, Almuhaishi;Fatimah, Alhmood;Narjis, AlJumaia;Azza., A.A
    • International Journal of Computer Science & Network Security
    • /
    • 제22권12호
    • /
    • pp.197-204
    • /
    • 2022
  • Sorting is an important data structure in many applications in the real world. Several sorting algorithms are currently in use for searching and other operations. Sorting algorithms rearrange the elements of an array or list based on the elements' comparison operators. The comparison operator is used in the accurate data structure to establish the new order of elements. This report analyzes and compares the time complexity and running time theoretically and experimentally of insertion, merge, and heap sort algorithms. Java language is used by the NetBeans tool to implement the code of the algorithms. The results show that when dealing with sorted elements, insertion sort has a faster running time than merge and heap algorithms. When it comes to dealing with a large number of elements, it is better to use the merge sort. For the number of comparisons for each algorithm, the insertion sort has the highest number of comparisons.

고속도로의 합류구간내 속도변화 추정모형 구축에 관한 연구 (Constructing the Models Estimated for Speed Variation on the Merge Section in the Freeway)

  • 신광식;김태곤
    • 한국항만학회지
    • /
    • 제13권1호
    • /
    • pp.113-122
    • /
    • 1999
  • Congestion and traffic accidents occur on the merge and diverge sections in the interchange of the freeway. Studies have been conducted to reduce the traffic delay and accidents on the merge section in the freeway since 1960s. but a study was not conducted to estimate the speed variation on the merge section construct models estimated for the speed variation and suggest the appropriate measures. The purpose of this study was to identify the traffic flow characteristics on the merge section in the freeway construct the models estimated for the speed variation on the merge section in the freeway and finally establish the appropriate measure for reduction of traffic delay and accidents on the merge section in the freeway. The following results were obtained: I) Speed variations in the urban freeway appeared to be about 3.2mph, 6.5mph and 7.4mph based on the morning peak period, afternoon peak period and 24-hours period but those in the suburban freeway appeared to be about 8.0mph, 11.1mph and 10.1mph based on the same periods respectively. So different speed reduction signs need be installed to reduce delay and accidents on the merge section in the freeway based on the areas and periods as the freeway traffic management system(FTMS). ii) These models estimated for speed variation need to be studied with the changeable message sign(CMS) technique based on the real-time data so that the traffic flow could be maximized and the traffic delay and accidents be on the merge section in the freeway as more efficient freeway traffic management system(FTMS) in the near future.

  • PDF

T-MERGE 연산자에 기반한 분산 토픽맵의 자동 통합 (Automatic Merging of Distributed Topic Maps based on T-MERGE Operator)

  • 김정민;신효필;김형주
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권9호
    • /
    • pp.787-801
    • /
    • 2006
  • 온톨로지 통합은 두 소스 온톨로지들을 통합하여 하나의 새로운 온톨로지를 생성하는 과정으로서 시맨틱 웹, 데이타 통합, 지식관리시스템 등 여러 온톨로지 응용 시스템에서 중요하게 다루는 연구주제이다. 그러나 과거의 연구들은 대부분 두 소스 온톨로지들 사이에 의미적으로 대응되는 공통 요소를 효과적으로 찾기 위한 온톨로지 매칭 기법에 집중되어 있으며 매핑 요소들을 통합하는 과정에서 발생하는 문제를 정의하고 해결하는 방법에 대해서는 간과하고 있다. 본 논문에서는 매칭 프로세스에 의해 주어진 매핑 결과에 기반하여 두 소스 온톨로지들을 통합해 나가는 상세한 통합 프로세스를 정의하고 매핑 요소들 사이에 존재하는 통합 충돌의 유형에 대한 분류 체계 및 충돌을 탐지하고 해결하기 위한 기법을 제안한다. 또한 충돌의 탐지 및 해결을 포함하여 통합 과정을 캡슐화하는 T-MERGE 연산자와 통합 과정의 기록과 오류 복구를 위한 MergeLog를 설계 및 구현한다. 제안하는 통합 모듈의 성능을 보이기 위해 동, 서양 철학 온톨로지들과 야후 및 네이버 백과사전의 일부를 온톨로지로 구현하여 실험 데이타로 활용하였으며 그 결과 전문가의 수작업에 의한 온톨로지 통합과 동일한 결과를 적은 시간과 노력으로 얻을 수 있음을 보인다.

XML 데이터의 역 인덱싱 기법 (Inverted Indexing Method for XML Data)

  • 김종명;진민
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2002년도 추계학술발표논문집
    • /
    • pp.343-346
    • /
    • 2002
  • 관계데이터베이스를 이용한 XML 데이터저장방법에서 데이터가 삽입, 삭제, 갱신될 경우 인덱스를 제정의해야 하는 부담을 줄여주는 인덱스 기법을 제안한다. XML 데이터를 블록과 블록사이에 많아야 하나의 관계가 유지되도록 블록단위로 나누어 각 블록에 대해 Numbering 스킴을 적용하여 인덱스를 정의한다. 또한 정의된 인덱스를 이용하여 XML 질의 처리하기 Parent-Child Block Merge Algorithm과 Ancestor-Descendent Block Merge Algorithm을 제안한다.

  • PDF