• 제목/요약/키워드: RDF Triples

검색결과 26건 처리시간 0.023초

맵리듀스 잡을 사용한 해시 ID 매핑 테이블 기반 대량 RDF 데이터 변환 방법 (Conversion of Large RDF Data using Hash-based ID Mapping Tables with MapReduce Jobs)

  • 김인아;이규철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.236-239
    • /
    • 2021
  • AI 기술의 성장과 함께 지식 그래프의 크기는 지속적으로 확장되고 있다. 지식 그래프는 주로 트리플이 연결된 RDF로 표현되며, 많은 RDF 저장소들이 RDF 데이터를 압축된 형태의 ID로 변환한다. 그러나 RDF 데이터의 크기가 특정 기준 이상으로 클 경우, 테이블 탐색으로 인한 높은 처리 시간과 메모리 오버헤드가 발생한다. 본 논문에서는 해시 ID 매핑 테이블 기반 RDF 변환을 분산 병렬 프레임워크인 맵리듀스에서 처리하는 방법을 제안한다. 제안한 방법은 RDF 데이터를 정수 기반 ID로 압축 변환하면서, 처리 시간을 단축하고 메모리 오버헤드를 개선한다. 본 논문의 실험 결과, 약 23GB의 LUBM 데이터에 제시한 방법을 적용했을 때, 크기는 약 3.8배 가량 줄어들었으며 약 106초의 변환 시간이 소모되었다.

  • PDF

시맨틱 웹 환경에서 웹 서비스를 위한 RDF Triple 처리기법 (RDF Triple Processing Methodology for Web Service in Semantic Web Environment)

  • 정관호;김판구;김권천
    • 인터넷정보학회논문지
    • /
    • 제7권2호
    • /
    • pp.9-21
    • /
    • 2006
  • 온톨로지를 사용하여 웹 서비스 검색 기능을 향상시키려는 연구가 진행되고 있다. 그 중 DAML, DAML+OIL를 이용하여 UDDI를 검색하는 방안이 제안되었다. 하지만 이 방식은 UDDI 검색에 적합한 연산자들을 사용해야 하는 불편함과 그에 따른 온톨로지를 정의해 주어야 하는 번거로움이 존재한다. 이러한 문제점을 해결하기 위해 본 논문에서는 시맨틱 웹 환경에서 정보검색 및 의미적인 추천을 위한 N-Triple 처리, 핵심 Triple 추출을 위한 필터링, Triple 통합, Triple간 의미적 연결, Triple 탐색 기법을 제시하고 더 나아가 제시된 기법으로 시스템을 설계하고 구현한다. 끝으로 가상의 시맨틱 웹 환경에서 제안된 시스템을 실험하여 본 논문의 유용성을 입증한다.

  • PDF

The Basic Concepts Classification as a Bottom-Up Strategy for the Semantic Web

  • Szostak, Rick
    • International Journal of Knowledge Content Development & Technology
    • /
    • 제4권1호
    • /
    • pp.39-51
    • /
    • 2014
  • The paper proposes that the Basic Concepts Classification (BCC) could serve as the controlled vocabulary for the Semantic Web. The BCC uses a synthetic approach among classes of things, relators, and properties. These are precisely the sort of concepts required by RDF triples. The BCC also addresses some of the syntactic needs of the Semantic Web. Others could be added to the BCC in a bottom-up process that carefully evaluates the costs, benefits, and best format for each rule considered.

맵리듀스에서의 구조적 RDF 데이터 변경 탐지 기법 (Structural Change Detection Technique for RDF Data in MapReduce)

  • 이태휘;임동혁
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권8호
    • /
    • pp.293-298
    • /
    • 2014
  • RDF 데이터의 변경 내용을 탐지하고 이해하는 것은 데이터 웹의 진화 프로세스, 동기화 시스템, 버전 관리 시스템에서 매우 중요한 역할을 한다. 하지만 현재의 연구들은 대용량 데이터를 고려하지 않거나 정확하게 변경 내용을 탐지하지 못한다는 점에서 여전히 미흡하다. 본 논문에서는 대용량 데이터의 처리, 분석을 위해 여러 분야에서 사용되는 맵리듀스 프레임워크 기반의 확장가능하며 효과적인 변경 탐지 기법을 제안한다. 특히, RDF 데이터의 공노드를 비교하는 구조적인 변경 탐지에 초점을 둔다. 이를 위해, 두 개의 맵리듀스 작업으로 이루어진 방법을 사용한다. 첫 번째 작업에서는 공노드에 부여된 내부 아이디가 같은 트리플들을 그룹화하여 공노드에 연결된 경로를 계산한다. 두 번째 작업에서는 같은 경로를 가지는 트리플들을 그룹화하여 헝가리안 메소드를 이용하여 공노드 매칭을 수행한다. 실험을 통해 제안한 방법이 기존 방법보다 더 정확하고 효과적임을 보인다.

대규모 RDF 데이터의 특성을 고려한 효율적인 색인 기법 (An Efficient Indexing Scheme Considering the Characteristics of Large Scale RDF Data)

  • 김기연;윤종현;김천중;임종태;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제15권1호
    • /
    • pp.9-23
    • /
    • 2015
  • 본 논문에서는 RDF 데이터 특성을 고려하여 대규모 데이터에 대한 질의 처리를 향상시키기 위한 새로운 색인 기법을 제안한다. 제안하는 기법은 RDF 트리플 중 주어와 술어의 값이 중복적으로 사용되는 특징을 이용하여 주어와 목적어를 S-O 색인으로 구성한다. 또한, 트리플 중 상대적으로 가장 적은 수의 값을 갖고 있는 술어는 별도의 P 색인으로 구성하여 총 색인의 크기를 최소화한다. 술어를 포함한 질의 요청시 크기가 작은 P 색인을 우선 검색하고 술어를 포함하지 않은 질의 요청에 대해서는 S-O 색인을 우선 검색한다. 성능평가를 통해 제안하는 기법이 기존 기법에 비해 질의처리 속도 관점에서 성능이 우수함을 보인다.

RDFS, OWL, OWL2의 문법특성을 고려한 신뢰향상적 LOD 연결성 평가 기법 (A Trustworthiness Improving Link Evaluation Technique for LOD considering the Syntactic Properties of RDFS, OWL, and OWL2)

  • 박재영;손용락
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제41권4호
    • /
    • pp.226-241
    • /
    • 2014
  • LOD(Linked Open Data)는 온톨로지에 기반하여 구조화되고 링크드 데이터 원칙에 의거하여 식별, 연결, 접근되는 RDF 트리플들로 구성된다. 이러한 LOD 데이터집합의 공개는 LOD 클라우드의 확장으로 이어지며 궁극적으로는 데이터 중심적인 웹으로 진화한다. 그러나, 존재적으로 동일한 개체들이 여러 LOD 데이터집합들에 걸쳐 서로 다르게 식별되는 경우 이들간의 동일성을 파악하여 신뢰적인 연결을 제공하는 것은 어려운 작업이다. 이를 위하여 본 논문은 신뢰향상적 연결성 평가(Trustworthiness Improving Link Evaluation: TILE) 기법을 제시한다. 보다 신뢰적인 연결성 평가 결과를 도출하기 위하여 TILE은 4단계로 진행한다. 우선, TILE은 LOD 데이터집합의 문법요소들이 가지는 추론적 특징을 고찰하여 잠재적으로만 존재하고 있던 사실들을 RDF 트리플들로 실체화하여 이를 데이터집합에 보강한다. 두 번째 단계에서 지정한 술어의 목적어 값을 비교하여 평가를 수행하며 세 번째 단계에서 RDF 트리플의 술어부가 지니고 있는 문법적 특성을 주어서술적/어휘정의적 관점에서 평가한 후 이를 두 번째 단계의 결과에 추가 반영한다. 이 과정에서 TILE이 고찰하는 문법적 요소들은 LOD 클라우드를 구축하기 위하여 W3C가 제시한 언어인 RDFS, OWL, OWL2 모두를 망라한다. 마지막으로, LOD 데이터집합 공개자로 하여금 연결성 평가결과를 검토하여 재평가 실시 혹은 연결확정을 결정하도록 함으로써 공개하는 데이터의 연결성이 가져야 하는 신뢰성에 공개주체의 책임이 반영되도록 한다.

후방향 전진 추론을 이용한 RDF 모델의 효율적인 변경 탐지 (Efficient Change Detection between RDF Models Using Backward Chaining Strategy)

  • 임동혁;김형주
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권2호
    • /
    • pp.125-133
    • /
    • 2009
  • RDF(Resource Description Framework)는 시맨틱 웹에서 메타 정보를 기술하는 온톨로지 언어로 많이 사용되고 있다. 온톨로지는 실세계에 대한 모델링을 기반으로 하기 때문에 끊임없이 갱신이 발생한다. 이런 갱신을 찾고 분석하는 일은 지식 관리 시스템에서 핵심이 된다. 기존의 RDF 모델에 대한 변경 탐지 기법들은 구조적 변경에 초점을 두었으나 RDFS 함의 규칙을 적용하여 좀 더 작은 크기의 변경 부분을 찾는 연구들이 소개되고 있다. 하지만 RDF 모델의 추론은 데이타 크기와 시간의 증가에 영향을 미친다. 본 논문에서는 RDFS 함의 규칙을 효율적으로 사용하는 변경 탐지 기법을 제안한다. 제안된 기법은 후방향 전진 추론 기반으로 모델 일부분에만 추론을 적용하여 변경 내용을 계산한다. 실제 사용하는 RDF 데이타들을 사용하여 기존의 변경 탐지 기법과의 비교 실험을 통해 성능을 향상시킬 수 있음을 보인다.

TripleDiff: 트리플 저장소에서 RDF 문서에 대한 점진적 갱신 알고리즘 (TripleDiff: an Incremental Update Algorithm on RDF Documents in Triple Stores)

  • 이태휘;김기성;유상원;김형주
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제33권5호
    • /
    • pp.476-485
    • /
    • 2006
  • 시멘틱 웹(semantic web)과 함께 등장한 RDF는 웹 상의 메타데이타 및 데이타를 나타내는 표준으로 자리매김 하고 있다. 이에 따라 RDF에 대한 저장 및 질의 처리에 대한 연구가 많이 이루어졌으며, 대표적인 시스템으로 Sesame, Jena 등이 있다. 그러나 아직 갱신 방법에 대한 연구는 부족하다. RDF 데이타가 지속적으로 갱신이 이루어지는 경우에는 저장된 RDF를 갱신해야 하는 상황이 발생한다. 현존하는 RDF 저장소에서 데이타를 갱신하기 위해서는 기존의 데이타를 모두 삭제한 후 새로운 데이타를 처음부터 다시 저장해야 하는데, 이러한 상황에서는 매우 비효율적이다. 또한 한 RDF 저장소에 여러 RDF가 저장되어 있는 경우에는 갱신 문제가 더욱 복잡해진다. 이에 본 논문에서는 RDF 데이타를 점진적으로 갱신하는 기법을 제안하고자 한다. 제안한 기법은 텍스트 비교 알고리즘을 통해 얻은 결과를 보완하여 기존 RDF 데이타에서 변화된 트리플 문장만을 추출하여 갱신한다. 실제 RDF 데이터를 이용한 실험을 통해 제안한 방법을 사용하여 갱신을 효율적으로 할 수 있음을 보였다.

R2RML Based ShEx Schema

  • Choi, Ji-Woong
    • 한국컴퓨터정보학회논문지
    • /
    • 제23권10호
    • /
    • pp.45-55
    • /
    • 2018
  • R2RML is a W3C standard language that defines how to expose the relational data as RDF triples. The output from an R2RML mapping is only an RDF dataset. By definition, the dataset has no schema. The lack of schema makes the dataset in linked data portal impractical for integrating and analyzing data. To address this issue, we propose an approach for generating automatically schemas for RDF graphs populated by R2RML mappings. More precisely, we represent the schema using ShEx, which is a language for validating and describing RDF. Our approach allows to generate ShEx schemas as well as RDF datasets from R2RML mappings. Our ShEx schema can provide benefits for both data providers and ordinary users. Data providers can verify and guarantee the structural integrity of the dataset against the schema. Users can write SPARQL queries efficiently by referring to the schema. In this paper, we describe data structures and algorithms of the system to derive ShEx documents from R2RML documents and presents a brief demonstration regarding its proper use.

동적 분산병렬 하둡시스템 및 분산추론기에 응용한 서버가상화 빅데이터 플랫폼 (An elastic distributed parallel Hadoop system for bigdata platform and distributed inference engines)

  • 송동호;신지애;인연진;이완곤;이강세
    • Journal of the Korean Data and Information Science Society
    • /
    • 제26권5호
    • /
    • pp.1129-1139
    • /
    • 2015
  • 시멘틱 웹 기술인 RDF 트리플로 표현된 지식을 추론 과정을 거치면 새로운 트리플들이 생성되어 나온다. 초기 입력된 수억개의 트리플로 구성된 빅데이터와 추가로 생성된 트리플 데이터를 바탕으로 질의응답과 같은 다양한 응용시스템이 만들어 진다. 이 추론기가 수행되는 과정에서 더 많은 컴퓨팅 리소스가 필요해 진다. 이 추가 컴퓨팅 리소스는 하부 클라우드 컴퓨팅의 리소스 풀로부터 공급받아 수행시간을 줄일 수 있다. 본 연구에서는 하둡을 이용하는 환경에서 지식의 크기에 따라 런타임에 동적으로 서버 컴퓨팅 노드를 증감 시키는 방법을 연구하였다. 상부는 응용계층이며, 중간부는 트리플들에 대한 분산병렬추론과 하부는 탄력적 하둡시스템 및 가상화 서버로 구성되는 계층적 모델을 제시한다. 이 시스템의 알고리즘과 시험성능의 결과를 분석한다. 하둡 상에 기 개발된 풍부한 응용소프트웨어들은 이 탄력적 하둡 시스템 상에서 수정 없이 보다 빨리 수행될 수 있는 장점이 있다.