• Title/Summary/Keyword: 중복 데이터

Search Result 1,024, Processing Time 0.03 seconds

Research on Minimizing Access to RDF Triple Store for Efficiency in Constructing Massive Bibliographic Linked Data (극대용량 서지 링크드 데이터 구축의 효율성을 위한 RDF 트리플 저장소 접근 최소화에 관한 연구)

  • Lee, Moon-Ho;Choi, Sung-Pil
    • Journal of Korean Library and Information Science Society
    • /
    • v.48 no.3
    • /
    • pp.233-257
    • /
    • 2017
  • In this paper, we propose an effective method to convert and construct the MEDLINE, the world's largest biomedical bibliographic database, into linked data. To do this, we first derive the appropriate RDF schema by analyzing the MEDLINE record structure in detail, and convert each record into a valid RDF file in the derived schema. We apply the dual batch registration method to streamline the subject URI duplication checking procedure when merging all RDF files in the converted record unit and storing it in a single RDF triple storage. By applying this method, the number of RDF triple storage accesses for the subject URI duplication is reduced from 26,597,850 to 2,400, compared with the sequential configuration of linked data in units of RDF files. Therefore, it is expected that the result of this study will provide an important opportunity to eliminate the inefficiency in converting large volume bibliographic record sets into linked data, and to secure promptness and timeliness.

A Design of the efficient data aggregation using Hotspot Zone on Ad-hoc Networks (Ad-hoc 네트워크상에 Hotspot Zone을 이용한 효율적인 데이터 집계 설계)

  • Kim, Ju-Yung;Ahn, Heui-Hak;Lee, Byung-Kwan
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.17 no.7
    • /
    • pp.17-24
    • /
    • 2012
  • As the resources and power on Ad-hoc networks are limited, new data aggregation techniques are required for energy efficiency. The current research on data aggregation techniques is actively in progress, but existing studies don't consider the density of nodes. If nodes are densely placed in a particular area, the information which the sensor nodes placed on those areas detect can be judged as very strong association. But, the energy spent transmitting this information is a waste of energy. In this paper the densely-concentrated node area is designated as Hotspot_Zone in the multi-hop clustering environment using the AMC and a key node is selected in the area. If the request message of data aggregation is transmitted, the key node among the neighboring nodes sends its environmental information to a manager to avoid duplicate sensing information. Therefore, the life of networks can be prolonged due to this.

A Design of Hop-by-Hop based Reliable Congestion Control Protocol for WSNs (무선 센서 네트워크를 위한 Hop-by-Hop 기반의 신뢰성 있는 혼잡제어 기법 설계)

  • Heo Kwan;Kim Hyun-Tae;Ra In-Ho
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.10 no.6
    • /
    • pp.1055-1059
    • /
    • 2006
  • In Wireless Sensor Networks(WSNs), a sensor node broadcasts the acquisited sensing data to neighboring other nodes and it makes serious data duplication problem that increases network traffic loads and data loss. This problem is concerned with the conflict condition for supporting both the reliability of data transfer and avoidance of network congestion. To solve the problem, a reliable congestion control protocol is necessary that considers critical factors affecting on data transfer reliability such as reliable data transmission, wireless loss, and congestion loss for supporting effective congestion control in WSNs. In his paper, we proposes a reliable congestion protocol, called HRCCP, based on hop-hop sequence number, and DSbACK by minimizing useless data transfers as an energy-saved congestion control method.

A Design of Hop-by-Hop based Reliable Congestion Control Protocol for WSNs (무선 센서 네트워크를 위한 Hop-by-Hop 기반의 신뢰성 있는 혼잡제어 기법 설계)

  • Heo Kwan;Kim Hyun-Tae;Yang Hae-Kwon;Ra In-Ho
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2006.05a
    • /
    • pp.442-445
    • /
    • 2006
  • In Wireless Sensor Networks(WSNs), a sensor node broadcasts an acquisited data to neighboring other nodes and it makes serious data duplication problem that increases network traffic loads and data loss. This problem is concerned with the conflict condition for supporting both the reliability of data transfer and avoidance of network congestion. To solve the problem, a reliable congestion control protocol is necessary that considers critical factors affecting on data transfer reliability such as reliable data transmission, wireless loss, and congestion loss for supporting effective congestion control in WSNs. In this paper, we proposes a reliable congestion protocol, ratted HRCCP, based on hop-hop sequence number, and DSbACK by minimizing useless data transfers as an energy-saved congestion control method.

  • PDF

Real-time Implementation of Image Encoder for DVR Systems using TMS320C6201 (TMS320C6201을 이용한 DVR 시스템을 위한 영상 부호화기 구현)

  • 최용석;금재혁;임중곤;민홍기;박종승;정재호
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.493-496
    • /
    • 2000
  • 본 논문에서는 TMS320C6201 DSP (Digial Signal Processor)를 이용하여 실시간 영상 부호화기를 구현하였다. 기본적인 영상 압축 방법으로는 baseline-JPEG을 사용하였고 이에 움직임 검출 알고리즘을 부가하여 영상의 시간적인 중복성을 제거하였다. 특히 저속 메모리와 고속 메모리의 효율적인 분배 사용, 계산량이 많은 모듈의 최적화, 데이터의 병렬 연산과 DMA (Direct Memory Access)를 이용한 데이터 전송 등의 방법을 통하여 실시간 영상 부호화기의 고속 영상 처리에 중점을 두었다.

  • PDF

Implementation of DAG-based Co-Scheduling for Efficient RPC Program in the Grid Environment (그리드 환경에서 효율적 RPC프로그램 위한 DAG기반의 Co-Scheduling의 구현)

  • ;;R.S.Ramakrishna
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04a
    • /
    • pp.472-474
    • /
    • 2004
  • 본 논문은 그리드 환경에서 RPC 프로그래밍 메커니즘의 성능향상을 위하여 DAG기반의 Co-scheduling시스템의 구현에 관한 것이다. 제안된 Co-scheduling의 목적은 복수개의 관련된 RPC들의 데이터 입출력 관계를 고려하여 불필요하거나 중복되는 네트워크상의 데이터전송을 제거함으로써 실행시간을 줄이는 것이다. 사용자에 의해 만들어진 작업흐름을 DAG로 구성하여 각 작업에 대한 자원을 탈당 받아 실행기반 시스템을 통해 수행된다. 이 논문에서는 기존 RPC시스템에서의 오버헤드를 지적하고 그것을 극복하기 위한 DAG기반 Co-scheduling을 설명한다. 실험을 통해 구현된 시스템의 성능향상을 확인한다.

  • PDF

A Study on Efficient Extraction of Text frame in MPEG News Video Images (MPEG 뉴스영상에서 효율적인 텍스트 프레임 추출에 관한 연구)

  • 정하영;황보택근
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.234-237
    • /
    • 2000
  • 멀티미디어 데이터를 다루는 기술이 급격하게 발전함에 따라 멀티미디어 데이터베이스를 운용함에 있어서 사용자의 효율적인 검색을 지원하기 위한 연구가 활발히 진행되고 있다. 본 논문에서는 MPEG으로로 압축된 뉴스 영상에서 내용기반 검색을 위한 효율적인 텍스트 프레임 추출방법을 제시한다. 제시하는 방법은 문자가 있는 프레임을 탐색하는 데 있어서 압축된 데이터에 최소한의 복호화만을 함으로써 탐색시간을 줄이고, 뉴스 영상에서의 문자의 특성을 고려하여 중복 추출을 줄이고 시간을 단축한다.

  • PDF

Traffic Reducing Mechanism in the Leaf Network (종단 망에서의 트래픽 감소를 위한 SM기법)

  • Park, Ju-Young;Kim, Dae-Young
    • Annual Conference of KIPS
    • /
    • 2001.04b
    • /
    • pp.1181-1184
    • /
    • 2001
  • 멀티캐스트는 그룹 통신환경에서 매우 효과적인 전송 방식이지만, 아직까지 해결해야 할 여러 문제점들이 있기 때문에 광범위하게 사용되어지지 않고 있다.[1] 따라서 현재의 인터넷에서 인터넷 생방송과 같은 멀티캐스트형 데이터를 전송하기 위하여 사용할 수 있는 전송 방식은 유니캐스트뿐인데 본 고에서는 이러한 환경에서 기존의 망을 수정하지 않고 중복된 데이터를 최대한 줄일 수 있는 방법을 제안한다.

  • PDF

Vertex Detection of 3-D Data Using FCV Clustering Algorithm (FCE 클러스터링 알고리듬을 이용한 3차원 데이터의 정점 검출)

  • Choi, Byeong-Geol;Lee, Won-Hui;Kang, Hun
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 1998.03a
    • /
    • pp.24-27
    • /
    • 1998
  • 최근 컴퓨터의 속도 및 용량의 확장과 더불어 3차원 정보에 대한 연구의 필요성이 요구되고 있다. 본 논문에서는이 여기에 관한 연구의 하나로 FCV(Fuzzy c-Varieties)클러스터링의 방법을 써서 3차원 데이터의 변과 장점을 찾아 3차원 물체를 구성하여 중복된 자료의 크기를 압축하는 방법을 제시한다. 여기에 따른 문제점으로 클러스터의 개수를 결정하는 문제가 있는데 이는 fuzzy classification entropy로 해결하였다.

  • PDF

XML Global Schema Generation Model of XML Documents Considering Conflicts on Local Schema Integration (지역 스키마간 충돌 문제를 고려한 XML 문서의 전역 스키마 생성 모델)

  • 김정희;곽호영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10c
    • /
    • pp.70-72
    • /
    • 2002
  • 본 논문에서는 분산된 XML 문서를 수집 처리하여 상호 제공하는 과정에서 활용될 통합된 XML 문서의 전역 스키마를 생성하는 시스템을 제안한다. 제안된 시스템에서는 분산 환경에 존재하는 개별적인 XML 문서들에 대한 지역 스키마 정보를 관계형 데이터베이스로 구축하고, 통합된 XML 문서의 데이터를 기반으로 각각의 지역 스키마 데이터베이스를 검색한 후 데이터에 적합한 스키마 정의를 추출하게 된다. 또한 추출과정에서 중복 정의에 의한 충돌 범주를 분석하고, 이를 해결하는 방법도 제시하였다. 시스템 모델링 결과 XML 문서의 구조와 검증을 명확하게 보장하는 통합된 XHL 문서의 전역 스키마 생성과 지역 스키마간 발생되는 충돌문제 해결이 가능함을 알 수 있었다.

  • PDF