• Title/Summary/Keyword: 데이터 확장성 문제

Search Result 425, Processing Time 0.033 seconds

3 Phases Schema Design Methodology for XML Database (XML Database를 위한 3단계 스키마 설계 방법론)

  • Choi, Mun-Young;Joo, Kyung-Soo
    • Annual Conference of KIPS
    • /
    • 2002.11c
    • /
    • pp.1757-1760
    • /
    • 2002
  • XML을 이용하면 이기종 컴퓨팅 환경으로 구성되어 있는 웹 상에서 정보를 공유할 수 있었고, 이제 XML은 정보가 아닌 프로세스를 공유할 수 있는 아주 단순하면서도 유연한 방법을 제공해 주고 있다. 이러한 XML 기술을 기반으로 하는 웹 서비스와 ebXML을 이용하면 어떤 어플리케이션은 물론 어떤 비즈니스 프로세스 역시 웹 상에서 통합될 수 있다. 기업용 애플리케이션에 XML을 이용하는 일이 점점 늘어남에 따라 많은 조직들이 XML 문서를 저장하고 관리하는 문제에 직면하고 있다. 문제는 이미 많은 기업들이 이들 XML 문서를 저장하는데 기존에 사용하던 관계형 데이터베이스를 계속 사용해도 되는 것으로 생각하고 있다는 것이다. 이것은 XML 데이터를 다루는데 많은 문제를 야기한다. 관계형 데이터베이스는 XML 같은 확장성 데이터를 다루도록 설계되지 않았다는 태성적 한계가 있기 때문이다. 그러므로 본 논문에서는 XML Database 스키마 설계방법론을 이용하여 이러한 문제점을 해결하려한다.

  • PDF

Incremental Deployment of IP Multicast in the Internet (인터넷에서 멀티캐스트의 점진적 적용 방안)

  • 홍형섭;하정락;현은희;김상하
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10c
    • /
    • pp.364-366
    • /
    • 2001
  • 현재 제안되고 있는 멀티캐스트 메커니즘은 각 라우터에서 멀티캐스트 라우팅을 위만 상태 정의를 바탕으로 데이터를 전송하게 된다. 따라서, 각 라우터는 상태정보를 유지해야 하므로 확장성 문제가 발생하게 된다. 이 문제의 해결을 위하여 제안된 메커니즘으로 Explicit Multicast (Xcast)[1]가 있다. 하지만 Xcast의 경우 각 경로상의 라우터는 반드시 Xcast를 탑재해야 하는 제약을 가지고 있다. 이러만 제약은 현재의 망에 구현 관점에서는 큰 문제가 된다. 따라서 본 논문은 상태 정보가 없이 멀티캐스트를 점진적으로 적응할 수 있는 Multicast based on Virtual Topology (MVT)즉 제안한다. MVT는 멀티캐스트 데이터가 분기되는 라우터를 분기라우터로 지정하고 분기라우터간의 가상 토폴로지 정보를 헤더에 삽입함으로써 멀티캐스트 서비스를 제공하는 메커니즘이다.

  • PDF

A comparison of RDB & ORDB about the XML Documents (XML 문서에 대한 RDB와 ORDB의 비교)

  • Yon, Chai-Hun;Park, Hyun-Ju
    • Annual Conference of KIPS
    • /
    • 2003.11c
    • /
    • pp.1485-1488
    • /
    • 2003
  • XML이 인터넷상에서 데이터의 교환 수단으로 널리 사용됨에 따라, 데이터를 처리하고 관리하는 다양한 데이터 모델의 DBMS에서 이를 수용하고 관리하는 도구를 제공하고 있다. XML이 데이터의 교환 수단으로 사용되는 가장 큰 이유는 자기 기술 문서화의 기능과 동적인 확장성을 가지고 있기 때문인데, 이를 통해 서로 다른 언어나 플랫폼에서 다른 형식의 데이터를 자신의 시스템의 맞게 변환할 수 있다. 문제는 XML 문서의 데이터를, 문서의 구조와 상관없이 자신이 사용하고 있는 데이터 모델로 저장하고 관리하려고 한다는 점이다. 이로 인해 데이터 관리상의 비용은 증가하고, DBMS의 성능은 저하된다. 본 논문에서는 XML 문서를 관리할 데이터 모델을 RDB와 ORDB로 한정하고, XML 문서가 지니는 구조적 특성에 따라 그에 맞는 데이터 모델을 제시한다. 고려되는 XML 문서의 구조적 특성은 평면 구조의 XML 문서와 계층 구조의 XML 문서이다.

  • PDF

Study on CCTV Data De-duplication in Cloud Storage Environments (클라우드 스토리지 환경에서의 CCTV 데이터 중복제거 수행 기술 연구)

  • Kim, Won-Bin;Lee, Im-Yeong
    • Annual Conference of KIPS
    • /
    • 2018.05a
    • /
    • pp.172-173
    • /
    • 2018
  • CCTV 기술은 실시간으로 영상을 수집하여 저장소에 보관하는 기술을 의미한다. 이러한 환경에서 데이터 저장소의 가용성은 매우 중요하다. 데이터가 축적될수록 스토리지 공간의 확장은 매우 중요해지며, 이를 위해 최근에는 클라우드 스토리지를 이용하여 저장 공간을 비교적 수월하게 확장하고 이용할 수 있는 환경이 제시되고 있다. 하지만 이러한 환경에서도 데이터의 지속된 저장은 저장 공간의 추가 이용을 위한 비용의 증가로 직결되기 때문에 데이터를 효율적으로 저장하기 위한 방안의 논의되었다. 데이터 중복제거 기술은 이러한 기술 중 하나로 데이터의 중복된 저장을 방지하여 스토리지 공간을 보다 효율적으로 이용할 수 있도록 하는 기술이다. 하지만 CCTV 환경에 클라우드 스토리지와 데이터 중복제거 기술을 적용하면서 추가적인 보안 이슈가 발생하였다. 따라서 본 연구에서는 이러한 문제를 해결하기 위한 연구를 수행하며, 이를 통해 보다 효율적인 데이터 저장을 수행하는 동시에 안전하게 데이터를 보관하는 방법을 제안한다.

A Study on Diagnosis Methods for a High Available Clustering Web Server (고가용성 클러스터 웹 서버의 로드밸런스에 대한 고장진단기법 연구)

  • Lee, Sang-Moon;Ko, Soung-Jun;Kang, Sing-Jun;Kwak, Tae-Young;Kim, Hag-Bae
    • Proceedings of the KIEE Conference
    • /
    • 2000.07d
    • /
    • pp.2962-2964
    • /
    • 2000
  • 최근 웹의 사용이 일반화되면서 인터넷의 사용자가 급속히 증가하고 있어서. 기존의 단일 웹서버 방식에서는 막대한 접속 트래픽의 수용과 유연한 시스템 확장 등의 문제점이 예상되고 있다. 이와 함께 business-critical한 작업의 경우, 웹서버의 안정성 및 가용성 문제가 가장 중요한 문제로 지적되고 있어서 이러한 문제를 해결할 수 있는 웹전용 서버를 개발이 절대적으로 필요하다. 본 연구에서는 이를 위해. 급격한 트래픽 변화의 수용 및 웹서버의 확장성이 용이한 가상머신 개념과 고신뢰성의 시스템 운영을 위한 고장포용(fault-tolerant)기법을 적용하여 클러스터링 웹전용 서버를 구축하고, 특히 클러스터 웹서버의 부하를 분배해주는 로드밸런서의 고가용성 보장을 위해 heartbeat, fake, mon등의 기법을 이용하여 백업(backup)을 구현한다. 또한 구현된 시스템의 고성능 및 고가용성을 극대화하고. 시스템의 고장시 데이터 손실의 최소화와 이의 복구를 위해 고장 검출 및 진단 기법에 대한 방안을 제시한다.

  • PDF

An information Security for the Erasure code Design and Load Balance Server (무선인터넷 프록시 서버 환경에서 정보 보안를 위한 이레이져 코드 설계와 서버 부하분산)

  • Ga, Young-Sung;Park, Kwang-Ok;Lee, Jong-Kun
    • Annual Conference of KIPS
    • /
    • 2013.11a
    • /
    • pp.347-350
    • /
    • 2013
  • 본 논문에서는 무선 인터넷이 대중화 되면서 프록시 서버의 역할의 중요성과 대용량 데이터 보안, 대용량 트래픽을 처리할 수 있는 확장성이 요구되어지고 있다. 무선 인터넷은 유선 인터넷과 달리 기술 환경과 그 특성상 여러가지 제약점들을 가지고 있다. 낮은 대역폭, 이동성 문제, 네트워크 프로토콜, 보안, 데이터 압축, 캐싱 방법 등 아직 기술적으로 해결하여야 문제점을 가지고 있다. 본 논문에서는 데이터 보안을 위하여 무선 인터넷 프록시 서버에 Erasure code 코드를 사용하여 기밀성, 무결성, 가용성 등을 강화하면서 서버의 성능 저하를 해결하기 위하여 서버 부하분산을 적용시키고자 한다.

Topic Expansion based on Infinite Vocabulary Online LDA Topic Model using Semantic Correlation Information (무한 사전 온라인 LDA 토픽 모델에서 의미적 연관성을 사용한 토픽 확장)

  • Kwak, Chang-Uk;Kim, Sun-Joong;Park, Seong-Bae;Kim, Kweon Yang
    • KIISE Transactions on Computing Practices
    • /
    • v.22 no.9
    • /
    • pp.461-466
    • /
    • 2016
  • Topic expansion is an expansion method that reflects external data for improving quality of learned topic. The online learning topic model is not appropriate for topic expansion using external data, because it does not reflect unseen words to learned topic model. In this study, we proposed topic expansion method using infinite vocabulary online LDA. When unseen words appear in learning process, the proposed method allocates unseen word to topic after calculating semantic correlation between unseen word and each topic. To evaluate the proposed method, we compared with existing topic expansion method. The results indicated that the proposed method includes additional information that is not contained in broadcasting script by reflecting external documents. Also, the proposed method outperformed on coherence evaluation.

Research on Science DMZ scalability for the high performance research data networking (연구데이터의 고성능 네트워킹을 위한 Science DMZ 확장성 연구)

  • Lee, Chankyun;Jang, Minseok;Noh, Minki;Seok, Woojin
    • KNOM Review
    • /
    • v.22 no.2
    • /
    • pp.22-28
    • /
    • 2019
  • A Science DeMilitarized Zone (DMZ) is an optimized network technology tailored to research data nature. The Science DMZ guarantees end-to-end network performance by forming a closed research network without redundant networking and security devices for the authorized researchers. Data Transfer Node (DTN) is an essential component for the high performance and security of the Science DMZ, since only transfer functions of research data are allowed to the DTN without any security- and performance-threatening functions such as commercial internet service. Current Science DMZ requires per-user DTN server installation which turns out a scalability limitation of the networks in terms of management overhead, entry barrier of the user, and networks-wise CAPEX. In order to relax the aforementioned scalability issues, this paper suggests a centralized DTN design where end users in a group can share the centralized DTN. We evaluate the effectiveness of the suggested sharable DTN design by comparing CAPEX against to that of current design with respect to the diverse network load and the state-of-the-art computing machine.

Predictive Clustering-based Collaborative Filtering Technique for Performance-Stability of Recommendation System (추천 시스템의 성능 안정성을 위한 예측적 군집화 기반 협업 필터링 기법)

  • Lee, O-Joun;You, Eun-Soon
    • Journal of Intelligence and Information Systems
    • /
    • v.21 no.1
    • /
    • pp.119-142
    • /
    • 2015
  • With the explosive growth in the volume of information, Internet users are experiencing considerable difficulties in obtaining necessary information online. Against this backdrop, ever-greater importance is being placed on a recommender system that provides information catered to user preferences and tastes in an attempt to address issues associated with information overload. To this end, a number of techniques have been proposed, including content-based filtering (CBF), demographic filtering (DF) and collaborative filtering (CF). Among them, CBF and DF require external information and thus cannot be applied to a variety of domains. CF, on the other hand, is widely used since it is relatively free from the domain constraint. The CF technique is broadly classified into memory-based CF, model-based CF and hybrid CF. Model-based CF addresses the drawbacks of CF by considering the Bayesian model, clustering model or dependency network model. This filtering technique not only improves the sparsity and scalability issues but also boosts predictive performance. However, it involves expensive model-building and results in a tradeoff between performance and scalability. Such tradeoff is attributed to reduced coverage, which is a type of sparsity issues. In addition, expensive model-building may lead to performance instability since changes in the domain environment cannot be immediately incorporated into the model due to high costs involved. Cumulative changes in the domain environment that have failed to be reflected eventually undermine system performance. This study incorporates the Markov model of transition probabilities and the concept of fuzzy clustering with CBCF to propose predictive clustering-based CF (PCCF) that solves the issues of reduced coverage and of unstable performance. The method improves performance instability by tracking the changes in user preferences and bridging the gap between the static model and dynamic users. Furthermore, the issue of reduced coverage also improves by expanding the coverage based on transition probabilities and clustering probabilities. The proposed method consists of four processes. First, user preferences are normalized in preference clustering. Second, changes in user preferences are detected from review score entries during preference transition detection. Third, user propensities are normalized using patterns of changes (propensities) in user preferences in propensity clustering. Lastly, the preference prediction model is developed to predict user preferences for items during preference prediction. The proposed method has been validated by testing the robustness of performance instability and scalability-performance tradeoff. The initial test compared and analyzed the performance of individual recommender systems each enabled by IBCF, CBCF, ICFEC and PCCF under an environment where data sparsity had been minimized. The following test adjusted the optimal number of clusters in CBCF, ICFEC and PCCF for a comparative analysis of subsequent changes in the system performance. The test results revealed that the suggested method produced insignificant improvement in performance in comparison with the existing techniques. In addition, it failed to achieve significant improvement in the standard deviation that indicates the degree of data fluctuation. Notwithstanding, it resulted in marked improvement over the existing techniques in terms of range that indicates the level of performance fluctuation. The level of performance fluctuation before and after the model generation improved by 51.31% in the initial test. Then in the following test, there has been 36.05% improvement in the level of performance fluctuation driven by the changes in the number of clusters. This signifies that the proposed method, despite the slight performance improvement, clearly offers better performance stability compared to the existing techniques. Further research on this study will be directed toward enhancing the recommendation performance that failed to demonstrate significant improvement over the existing techniques. The future research will consider the introduction of a high-dimensional parameter-free clustering algorithm or deep learning-based model in order to improve performance in recommendations.

General-purpose Transaction Management Technique for Data Stability of NoSQL on Distributed File System (분산 파일 시스템 기반 NoSQL의 데이터 안정성을 위한 범용 트랜잭션 관리 기법)

  • Kwon, Younghyun;Yun, Do-hyun;Park, Hojin
    • Journal of Digital Contents Society
    • /
    • v.16 no.2
    • /
    • pp.299-306
    • /
    • 2015
  • In this paper, we research to secure stability of data storing/searching on NoSQL implemented on Distributed File System. When implementing NoSQL on Distributed File System, we faced that random write on Distributed File System is almost impossible. To solve this problem, a concept of Intermediate-File was employed, and then it has been achieved that our system resist any failure circumstance. Additionally, since we discovered its performance cannot be as fast as general File System, by redefining the file block unit for our NoSQL system, we have prevented a slowdown in system performance. As a result, we are able to develop highly scalable NoSQL as Distributed File System, which fulfills basic conditions of transaction: Atomicity, Consistency, Isolation, and Performance.