• Title/Summary/Keyword: 중복 데이터

Search Result 1,019, Processing Time 0.026 seconds

Performance Analysis of Data Consistency Model Using Bluetooth (블루투스를 이용한 데이터 일치성 모델의 성능 분석)

  • 한국희;김찬우;김재훈;고영배
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.292-294
    • /
    • 2003
  • 인터넷의 보급과 활용이 증대되고 있고, 이동 통신에 대한 관심과 함께 분산 환경을 통한 컴퓨팅의 성능 향상이 중요시되고 있다. 분산 환경에서 데이터 사용의 성능을 향상시키기 위하여 데이터 중복 기법을 사용하는데, 서로 다른 복사본 사이의 데이터 일치성 유지가 필요하다. 본 논문에서는 데이터 일치성의 대표적인 모델을 Eager, Lazy, Periodic 세 가지로 구분하고. 각 모델의 특징을 알아보고 비용을 분석하여 사용자가 적절한 모델을 사용할 수 있도록 하였다. 또한 무선 컴퓨팅 환경에서의 데이터 일치성에 대한 테스트 베드를 블루투스를 이용하여 구축한 후 실제 성능을 측정하여 비용분석 모델의 유용성을 검증하였다.

  • PDF

A Study on Reducing Duplication Responses of Chatbot Based on Multiple Tables (다중 테이블을 활용한 챗봇의 중복 응답 감소 연구)

  • Gwon, Hyuck-Moo;Seo, Yeong-Seok
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.7 no.10
    • /
    • pp.397-404
    • /
    • 2018
  • Various applications are widely developed for smartphones to meet customer's needs. In many companies, messenger's typed interactive systems have been studied for business marketing, advertising and promotion to provide useful services for the customers. Such interactive systems are usually called as "Chatbot". In Chatbot, duplicated responses from Chatbot could occur frequently, and these make one lose interest. In this paper, we define a case that the response of Chatbot is duplicated according to the user's input, and propose a method to reduce duplicated responses of Chatbot. In the proposed method, we try to reduce duplication responses through a new duplication avoidance algorithm by building multiple tables in a database and by making combinations of user's input and its response in each table. In our experiments, the proposed method shows that duplicated responses are reduced by an average of 70%, compared with the existing method.

Concurrency Control Using the Update Graph in Replicated Database Systems (중복 데이터베이스 시스템에서 갱신그래프를 이용한 동시성제어)

  • Choe, Hui-Yeong;Lee, Gwi-Sang;Hwang, Bu-Hyeon
    • The KIPS Transactions:PartD
    • /
    • v.9D no.4
    • /
    • pp.587-602
    • /
    • 2002
  • Replicated database system was emerged to resolve the problem of reduction of the availability and the reliability due to the communication failures and site errors generated at centralized database system. But if update transactions are many occurred, the update is equally executed for all replicated data. Therefore, there are many problems the same thing a message overhead generated by synchronization and the reduce of concurrency happened because of delaying the transaction. In this paper, I propose a new concurrency control algorithm for enhancing the degree of parallelism of the transaction in fully replicated database designed to improve the availability and the reliability. To improve the system performance in the replicated database should be performed the last operations in the submitted site of transactions and be independently executed update-only transactions composed of write-only transactions in all sites. I propose concurrency control method to maintain the consistency of the replicated database and reflect the result of update-only transactions in all sites. The superiority of the proposed method has been tested from the respondence and withdrawal rate. The results confirm the superiority of the proposed technique over classical correlation based method.

Design of tool for management of snapshot data on Multievel Spatial Database Management Systems (다중 레벨 공간 DBMS에서 스냅샷 데이터 관리를 위한 관리 도구 설계 및 구현)

  • Baek Sung-Ha;Yu Byung-Sub;Eo Sang-Hun;Kim Kyung-Bae;Bae Hae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.05a
    • /
    • pp.101-104
    • /
    • 2006
  • 다중 레벨 공간 DBMS 는 디스크 기반 DBMS 와 메인 메모리 저장관리자를 통합한 시스템이다. 다중 레벨 공간 DBMS 는 디스크 기반 DBMS 를 사용하여 대용량 데이터를 저장하고 자주 이용되는 데이터만 스냅샷으로 메인 메모리에 상주 시켜 빠르게 트랜잭션을 처리한다. 그러나 시스템 운영상에서 스냅샷의 중복 생성 및 부적절한 갱신 주기의 문제가 발생하여 시스템의 성능을 저하시킨다. 그래서 본 논문에서는 스냅샷 데이터 관리를 위한 관리도구를 제안한다. 본 관리도구는 스냅샷의 생성 및 삭제, 동기화 등의 조작 기능을 제공하고, 메타데이터를 관리하여 통계정보 및 스냅샷 상세정보를 제공하여 최적화를 위한 판단기준으로 사용 할 수 있도록 한다. 본 도구를 이용하면 관리자가 시스템이 발견하지 못한 스냅샷의 중복된 영역 및 최적인 갱신 주기를 판단 하고 스냅샷을 조작해 시스템의 성능을 보다 최적 할 수 있다.

  • PDF

Efficient Processing of Next Generation Sequencing Reads Using Hitting Set Problem (Hitting Set 문제를 이용한 Next Generation Sequencing Read의 효율적인 처리)

  • Park, Tae-Won;Kim, So-Ra;Choi, Seok-Moon;Cho, Hwan-Gue;Lee, Do-Hoon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.466-469
    • /
    • 2011
  • 최근에 등장한 Next Generation Sequencing(NGS)은 전통적인 방법에 비해 빠르고 저비용으로 대용량의 시퀀스 데이터를 이용한 차세대 시퀀싱 기술을 말한다. 이렇게 얻은 NGS 데이터를 분석하는 단계 중에서 alignment 단계는 시퀀서에서 얻은 대량의 read를 참조 염기서열에 맵핑하는 단계로 NGS 데이터 분석의 가장 기본이면서 핵심인 단계이다. alignment 도구는 긴 참조 염기서열을 색인화해서 짧은 read를 빠르게 맵핑하는 용도로 사용된다. 현재 많이 사용되고 있는 일반적인 alignment 도구들은 입력데이터에 대한 별도의 전처리 과정이 없으며 나열된 read를 순차적으로 맵핑하는 단순한 구조를 가지고 있다. 본 논문은 NGS 데이터의 특징 중에 특히 read간의 중복성이 존재하고 이를 이용한 read의 효율적 공통부분 서열을 찾는다. 중복이 가능한 read의 공통부분서열과 read의 관계를 그래프 이론의 Hitting Set 문제로 모델링하고 여러 read가 포함하는 공통 부분서열을 사용해서 alignment 단계의 효율을 높일 수 방법을 제안한다.

Meta-Data Transformation supporting Web-base Cooperative Services (웹기반 협업서비스를 지원하는 메타데이터 변환)

  • Lee, hye-sun;Kwon, Hoon;Kim, jeong-hee;Kwak, ho-young
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2007.11a
    • /
    • pp.861-864
    • /
    • 2007
  • Companies have developed local database without purpose of cooperation with others in the same category. That's because the cooperative work would cause cost in standardization, management, and usage of overlapping data. Therefore this paper proposes a system supporting an dynamic user interface for the sake of convenience of meta-data transformation and its users. The cooperative system will be able to connect companies together and minimize overlapping data by standardizing them. Eventually, the system will have an effect on cost-cutting and improve efficiency of maintenance and management.

  • PDF

A Study on Selecting Principle Component Variables Using Adaptive Correlation (적응적 상관도를 이용한 주성분 변수 선정에 관한 연구)

  • Ko, Myung-Sook
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.10 no.3
    • /
    • pp.79-84
    • /
    • 2021
  • A feature extraction method capable of reflecting features well while mainaining the properties of data is required in order to process high-dimensional data. The principal component analysis method that converts high-level data into low-dimensional data and express high-dimensional data with fewer variables than the original data is a representative method for feature extraction of data. In this study, we propose a principal component analysis method based on adaptive correlation when selecting principal component variables in principal component analysis for data feature extraction when the data is high-dimensional. The proposed method analyzes the principal components of the data by adaptively reflecting the correlation based on the correlation between the input data. I want to exclude them from the candidate list. It is intended to analyze the principal component hierarchy by the eigen-vector coefficient value, to prevent the selection of the principal component with a low hierarchy, and to minimize the occurrence of data duplication inducing data bias through correlation analysis. Through this, we propose a method of selecting a well-presented principal component variable that represents the characteristics of actual data by reducing the influence of data bias when selecting the principal component variable.

Optimization Using Partial Redundancy Elimination in SSA Form (SSA Form에서 부분 중복 제거를 이용한 최적화)

  • Kim, Ki-Tae;Yoo, Weon-Hee
    • The KIPS Transactions:PartD
    • /
    • v.14D no.2
    • /
    • pp.217-224
    • /
    • 2007
  • In order to determine the value and type statically. CTOC uses the SSA Form which separates the variable according to assignment. The SSA Form is widely being used as the intermediate expression of the compiler for data flow analysis as well as code optimization. However, the conventional SSA Form is more associated with variables rather than expressions. Accordingly, the redundant expressions are eliminated to optimize expressions of the SSA From. This paper defines the partial redundant expression to obtain a more optimized code and also implements the technique for eliminating such expressions.