• Title/Summary/Keyword: 단일레코드

Search Result 16, Processing Time 0.024 seconds

An Study on the Standardization for Bibliographic Records of Provider Supplied E-monograph Package (전자책 패키지의 서지레코드 표준화에 관한 연구)

  • Lee, Mihwa
    • Journal of the Korean Society for information Management
    • /
    • v.30 no.1
    • /
    • pp.51-69
    • /
    • 2013
  • It was difficult for user to identify e-books due to some problems such as duplicable bibliographic records and inconsistent descriptive cataloging when cataloging the bibliographic records of the e-book packages in OPAC. Therefore, the purpose of this study was to find the applicable methods of the provider neutral e-book(e-monograph) MARC record guideline for the standardization of the bibliographic records of the provider supplied e-book package. Through the literature reviews and homepage analysis of 15 university libraries in domestic, the theoretical background on cataloging e-book, the descriptive cataloging of e-book, the provider-neutral e-monograph MARC record guideline as new standard for e-book, and the libraries practices of cataloging bibliographic records of the e-book package were inquired. Based on these analysis, it was to suggest applicable methods of provider neutral e-book(e-monograph) MARC record guideline for the standardization of the bibliographic records of domestic e-book packages in aspect of cataloging rule, KORMARC, and neutral bibliographic records. This study will contribute to build FRBRization of the e-books in OPAC as finding the guideline for the standardization of the bibliographic records of the e-book packages for both providers and libraries.

A Study on the Improvement Method of Deleted Record Recovery in MySQL InnoDB (MySQL InnoDB의 삭제된 레코드 복구 기법 개선방안에 관한 연구)

  • Jung, Sung Kyun;Jang, Jee Won;Jeoung, Doo Won;Lee, Sang Jin
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.6 no.12
    • /
    • pp.487-496
    • /
    • 2017
  • In MySQL InnoDB, there are two ways of storing data. One is to create a separate tablespace for each table and store it separately. Another is to store all table and index information in a single system tablespace. You can use this information to recover deleted data from the record. However, in most of the current database forensic studies, the former is actively researched and its structure is analyzed, whereas the latter is not enough to be used for forensics. Both approaches must be analyzed in terms of database forensics because their storage structures are different from each other. In this paper, we propose a method for recovering deleted records in a method of storing records in IBDATA file, which is a single system tablespace. First, we analyze the IBDATA file to reveal its structure. And introduce delete record recovery algorithm which extended to an unallocated page area which was not considered in the past. In addition, we show that the recovery rate is improved up to 68% compared with the existing method through verification using real data by implementing the algorithm as a tool.

A Version Management for Fast Recovery in a Database Sharing System (데이타베이스 공유 환경에서 빠른 회복을 위한 버전 관리)

  • 정용석;조행래
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10c
    • /
    • pp.256-258
    • /
    • 2002
  • 데이타베이스 공유 시스템(Database Sharing System : DSS)은 고성능 트랜잭션 처리를 위해 다수 개의 노드들을 연동하며, 각 노드는 디스크 계층에서 데이타베이스를 공유한다. DSS를 구성하는 노드들이 고장날 경우, 데이타베이스를 정확한 상태로 복구하기 위한 회복 기법이 필요하다. DSS에서의 데이터베이스 회복 과정은 여러 노드에 분산된 로그 레코드의 병합 작업을 포함하며, 병합된 로그 레코드를 이용한 REDO 작업을 수행하여야 하므로 일반적인 단일 데이타베이스 시스템에 비해 많은 시간이 소요된다. 본 논문에서는 Oracle 9i에서 개발된 캐쉬 연합(cache fusion) 기법을 개선한 버전 관리 기법을 제안한다. 제안한 기법은 DSS를 구성하는 단일 노드의 고장 시 로그 병합 과정이 필요 없으므로 빠른 회복을 지원할 수 있으며, Oracle 9i에서 발생하는 빈번한 디스크 저장 오버헤드를 줄일 수 있다는 장점을 갖는다.

  • PDF

Delayed Write Scheme for The Flash Memory based Embedded Database Systems (플래시 메모리 기반 임베디드 데이터베이스 시스템을 위한 지연쓰기 기법)

  • Yun, Seung-Hee;Song, Ha-Joo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10c
    • /
    • pp.287-290
    • /
    • 2006
  • 플래시 메모리는 동작 특성상 메모리 영역에 대한 덮어쓰기(overwrite)가 불가능하고 메모리 쓰기를 위해서는 삭제(erase) 연산을 반드시 먼저 수행해야 한다. 삭제 연산은 읽기 연산에 비해 많은 시간이 소요되므로 될수록 줄이는 것이 플래시 메모리의 수행 성능 향상에 유리하다. 본 논문에서는 플래시 메모리에 대한 삭제 횟수를 줄이기 위해 데이터베이스 페이지에 대한 쓰기 연산을 지연하는 지연쓰기 기법을 제안한다. 이 기법은 페이지에 대한 갱신이 일어날 때 페이지캐시 내의 해당 페이지에 대해서는 갱신을 수행하되 그것을 유발한 레코드 연산(레코드 삽입, 갱신, 삭제)은 별도의 지연쓰기 큐에 기록한다. 그리고 레코드 연산이 지연쓰기 큐에 저장되어 있는 동안에는 해당 페이지에 대한 갱신은 보류한다. 만약 해당 페이지를 다시 읽어야할 필요가 있을 때에는 지연 쓰기 큐에 저장된 갱신 정보와 병합하여 갱신된 페이지를 페이지 캐시에 적재한다. 이는 갱신되는 페이지의 개수와 단일 페이지에 대한 갱신 횟수를 감소시키는 효과를 가져온다. 따라서 플래시 메모리의 삭제 및 쓰기 연산을 감소시켜 데이터베이스 시스템의 수행성능을 향상시키게 된다.

  • PDF

Multi-Dimensional Record Scan with SIMD Vector Instructions (SIMD 벡터 명령어를 이용한 다차원 레코드 스캔)

  • Cho, Sung-Ryong;Han, Hwan-Soo;Lee, Sang-Won
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.16 no.6
    • /
    • pp.732-736
    • /
    • 2010
  • Processing a large amount of data becomes more important than ever. Particularly, the information queries which require multi-dimensional record scan can be efficiently implemented with SIMD instruction sets. In this article, we present a SIMD record scan technique which employs row-based scanning. Our technique is different from existing SIMD techniques for predicate processes and aggregate operations. Those techniques apply SIMD instructions to the attributes in the same column of the database, exploiting the column-based record organization of the in-memory database systems. Whereas, our SIMD technique is useful for multi-dimensional record scanning. As the sizes of registers and the memory become larger, our row-based SIMD scan can have bigger impact on the performance. Moreover, since our technique is orthogonal to the parallelization techniques for multi-core processors, it can be applied to both uni-processors and multi-core processors without too many changes in the software architectures.

WoS DCI : Systematically obtain more diverse information (WoS DCI : 더욱 다양한 정보를 체계적으로!)

  • Kang, Yoon Hee
    • Proceedings of the Korean Society for Information Management Conference
    • /
    • 2017.08a
    • /
    • pp.102-102
    • /
    • 2017
  • 디지털 정보의 폭발적인 증가세와 함께 연구 데이타 또한 다양한 형태로 축적 되고 있다. 이에 다양한 정보들을 효율적으로 활용하는 것이 연구 혁신의 동력원으로 작용하고 어떠한 데이터를 어떻게 효율적으로 활용할 것인가가 정보 사회의 화두로 떠오르고 있다. 특히, 데이타 정보의 경우 전세계 약 900개 이상의 레파지토리들이 다양한 구조와 플랫폼을 토대로 축적 되고 있어 이에 대한 엄선 된 데이터 레파지토리 정보를 WoS의 단일 플랫폼에서 손쉽게 취득 할 수 있는 DCI(Data Citation Index)에 대한 관심이 증가되고 있는 추세이다. 현재 DCI에는 330여 종의 레포지토리에 수록 된 650만개 이상의 레코드를 수록 중이며 매년 50만 건 이상의 레코드가 추가 되고 있다. DCI는 레포지토리의 메타데이터를 분석하고 WoS에서 보유하고 있는 정보와 취합하여 데이터를 재구성하고 구조화하여 위계 질서를 부여하고 각 레코드가 소스 레포지토리로 연결되도록 링크를 제공하여 데이터 열람 및 다운로드가 가능하도록 하며 WoS내에 관련 논문(SCIE급)이 있는 경우 논문 과 데이터 상호 간의 링크도 제공한다. 보다 체계적인 데이터 관리를 위한 정보의 구조화와 보다 전문적인 정보 검색을 위한 Taxonomic Data와 시소러스(Thesaurus) 정보를 통한 DCI의 활용을 통해 새로운 정보의 세계를 경험해 보자.

  • PDF

Research on Minimizing Access to RDF Triple Store for Efficiency in Constructing Massive Bibliographic Linked Data (극대용량 서지 링크드 데이터 구축의 효율성을 위한 RDF 트리플 저장소 접근 최소화에 관한 연구)

  • Lee, Moon-Ho;Choi, Sung-Pil
    • Journal of Korean Library and Information Science Society
    • /
    • v.48 no.3
    • /
    • pp.233-257
    • /
    • 2017
  • In this paper, we propose an effective method to convert and construct the MEDLINE, the world's largest biomedical bibliographic database, into linked data. To do this, we first derive the appropriate RDF schema by analyzing the MEDLINE record structure in detail, and convert each record into a valid RDF file in the derived schema. We apply the dual batch registration method to streamline the subject URI duplication checking procedure when merging all RDF files in the converted record unit and storing it in a single RDF triple storage. By applying this method, the number of RDF triple storage accesses for the subject URI duplication is reduced from 26,597,850 to 2,400, compared with the sequential configuration of linked data in units of RDF files. Therefore, it is expected that the result of this study will provide an important opportunity to eliminate the inefficiency in converting large volume bibliographic record sets into linked data, and to secure promptness and timeliness.

TRANS FORM / Product Briefs

  • Korea Database Promotion Center
    • Digital Contents
    • /
    • no.12 s.127
    • /
    • pp.170-172
    • /
    • 2003
  • 미네소타 에덴프레리에 소재한 스텔런트(www.stellent.com)는 최근 유니버셜 콘텐츠 매니지먼트 7.0을 발표했다. 이 제품은 하나의 공통 제품 아키텍처 내에서 문서 관리, WCM(웹 콘텐츠관리), 협업, 레코드 관리, DAM(디지털자산관리)을 통합하는 유일한 ECM(기업콘텐츠관리) 솔루션이다. 본질적으로 다른 기술들을 통합시킨 ECM 시스템을 활용한 최신 업그레이드 제품과 달리 이번에 내놓은 ECM 시스템 7.0 버전은 공 통 GUI(Graphical User Interface)와 공 통API(Application Programming Interface)를 통해 단일 서버에서 모든 애플리케이션 모듈을 지원한다는 게 회사측 설명이다.

  • PDF

Estimating The Number of Hierarchical Distinct Values using Arrays of Attribute Value Intervals (속성값 구간 배열을 이용한 계층 상이값 갯수의 계산 기법)

  • Song, Ha-Joo;Kim, Hyoung-Joo
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.6 no.2
    • /
    • pp.265-273
    • /
    • 2000
  • In relational database management systems(RDBMS), a table consIn relational database management systems(RDBMS), a table consists of sets of records which are composed of a set of attributes. The number of distinct values(NDV) of an attribute denotes the number of distinct attribute values that actually appear in the database records, and is widely used in optimizing queries and supporting statistic queries. Object-relational database management systems(ORBBMSS), however, support the inheritance between tables which enforces an attribute defined in a super-table to be inherited in sub-tables automatically. Hence, in ORDBMSS, not only NDV of an attribute In a single table but also NDV of an attribute in multiple tables(HNDV) is needed. In this paper, we propose a method that calculates HNDV using arrays of attribute value intervals. In this method, an array of attribute value intervals is created for an attribute of interest In each table in a table hierarchy, and HNDV can be calculated or estimated by merging the arrays of attribute value intervals. The proposed method accurately calculates HNDV using small additional storage space and is efficient for an environment where only some of the tables in a table hierarchy are frequently updated.

  • PDF

The Design of Administrator System for Extending Secure DNS (Secure DNS의 기능확장을 위한 관리자 시스템의 설계)

  • 심희원;김진성;심영철;임찬순;변옥환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10a
    • /
    • pp.530-532
    • /
    • 1998
  • 본 연구에서는 안전한 네이밍 서비스를 제공하는 기존 Secure DNS를 확장시켜 GUI방식의 관리자 인터페이스를 설계하였다. 따라서 시스템 설정에 대한 configuration과 보안관련 도구의 핵심이라 할 수 있는 로그의 관리가 용이해 졌다. 또한 관리자 인터페이스에 의해 각각의 자원 레코드에 대한 자동적인 삽입, 삭제가 가능하며, 암호화 알고리즘의 추가를 interactive하게 처리한다. 그밖에 기존 Secure DNS에서는 새로운 암호와 알고리즘을 추가할 때마다 재 컴파일 해야하는 단점이 있다. 이를 해결하기 위해 'Dynamic link interface'를 설계하였다. 이는 암호화 알고리즘의 입출력 표준을 정하고 이를 단일한 시스템 API로 구성하여 Secure DNS가 초기화 될 때 동적 라이브러리를 사용하여 각각의 암호화 알고리즘을 메모리에 적재하는 방식을 택한다. 그 밖에 Secure DNS를 이용하여 제공할 수 있는 응용방안으로 개인의 공개키 분배서비스와 X.509 체계를 이용한 인증서를 제공하는 서비스를 제안한다. 따라서 본 연구에서는 인터넷의 기본 인프라스트럭쳐인 DNS를 최대한 활용할 수 있는 여러 가지 방안과 그 해결책을 제시한다.

  • PDF