• Title/Summary/Keyword: Web Retrieval System

Search Result 395, Processing Time 0.029 seconds

Design of XML Document Query Language(XQL) Supported Link Retrieval (링크 검색을 지원하는 XML 문서 질의 언어의 설계)

  • 김용훈;이강찬;이규철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10b
    • /
    • pp.350-352
    • /
    • 1998
  • 최근 들어서 사무자동화 시스템(Office Information System), 디지털 도서관(Digital Library), WWW(WorldWideWeb)등의 응용에서는 대량의 문서들의 정보를 효율적으로 저장하고 처리, 검색할 수 있는 기능을 요구하고 있다. 이에 대해 최근에 인터넷 기반의 무서 표준인 XML(eXtensible Markup Language)이 제시되었고, 이러한 XML 문서를 저장하고 처리, 검색하기 위한 다양한 연구들이 진행되고 있다. 그러나, 이러한 대부분의 연구들은 XML 문서의 구조적 정보만을 저장하고 검색하도록 설계되어 지고 있으며, XML 문서가 지닌 또 다른 정보인 링크 정보를 저장하고 검색하는 기능을 제공되지 않고 있다. 본 논문에서는 현재 파서나 브라우저 수준에서 제공해 주는 링크의 브라우징을 확장하여 데이터베이스로 수많은 XML문서의 링크 정부들을 저장하고 저장된 링크 정보들에 대해 사용자들이 검색할 수 있는 시스템을 개발하고자 한다. 이를 위해 링크 정보를 지워할 수 있는 XML 문서에 대한 데이터 모델을 제시하고 이러한 데이터 모델로 지원할 수 있는 질의어들을 설계하였다.

Gyeonggi21 Search 2.0 : Regional Knowledge Retrieval System using Numerical Map and the Web (경기21서치 2.0 : 수치지도와 웹 공간을 융합한 지역지식 검색시스템)

  • Yun, Seoug-Kwan;Lee, Ryong;Kwon, Yong-Jin
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2008.06a
    • /
    • pp.45-50
    • /
    • 2008
  • 웹의 폭발적인 성장으로 다양한 형태의 지역관련 정보가 웹 공간에 포함되어 있으며, 기존의 지리정보시스템에서 제공하지 못한 실생활의 다양한 지역 정보를 얻을 수 있게 되었다. 하지만, 사용자가 지역 정보를 얻기 위해서는 현재의 키워드 기반의 웹 검색 엔진을 사용하여 얻은 다수의 검색 결과와 이를 맵과 관련시켜 정리해야 하는 불편함이 있다. 이러한 문제를 해결하기 위하여, 본 논문에서는 특정지역에 대한 정확한 지리정보를 갖고 있는 수치지도와 방대한 지역정보를 갖고 있는 웹 공간을 융합하여 특정지역과 관련된 지역정보를 효율적으로 제공할 수 있는 시스템인 "경기21서치 2.0"을 제안한다. 본 시스템에서는 웹을 통해 분석한 지역의 특징 및 지역 간의 의미적 관련성을 키워드를 통해 지역지식 네비게이터로 구성하고, 이를 수치지도에 기반한 맵 인터페이스와 연동하여 보다 효율적인 지역 웹 정보검색을 지원한다.

  • PDF

A Study of Knowledge Based Agent System for Web New-Document Retrieval (지식기반 방식을 이용한 웹 뉴스문서 검색 에이전트 시스템 연구)

  • 이성열;백혜정;박영택
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.102-104
    • /
    • 2000
  • 현재 인터넷상의 정보와 문서의 양은 상상을 초월하는 증가추이를 나타내고 있다. 이와 더불어 표현하려는 목적에 따라 체계적으로 정리되고 정형화된 문서들 또한 증가하고 있다. 이러한 문서들 중에는 각 인터넷 신문사나 웹진과 같은 문서들이 포함되는데, 이러한 문서들은 각각의 내용구성과 표현 형식에 있어서 비슷한 구성을 지니고 있다. 본 논문에서는 이러한 체계적이고 정형화된 웹 뉴스 문서검색을 위하여 '지식기반 방식을 이용한 웹 뉴스문서 검색 에이전트 시스템'을 제안한다. 사용자는 시스템에서 제공하는 지식을 기반으로 검색하고자 하는 대상을 에이전트 시스템에게 요청하게 되고 지식기반을 이용한 에이전트 시스템은 보다 정확한 정보를 사용자에게 제공하게 된다.

  • PDF

HMS-based Integration and Retrieval of Hospital Information on the Web (HMS를 기반으로 한 웹 상의 병원정보 통합 및 검색)

  • 양정욱;홍동완;윤지희;주한규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.76-78
    • /
    • 2001
  • HMS(Hallym Mediator System)는 XML을 기본 데이터 모델로 하여 인터넷에 산재하여 있는 분산 이질 정보에 대한 통합, 검색 기능을 제공하는 미디에이터 시스템이다. 분산이질 정보의 공통 스키마 구조로서 XML DTD를 사용하며, 각종 정보에 대한 가상의 통합 뷰(view) 생성 기능을 제공하여 웹 상의 통합된 가상 정보 구조를 표현한다. 실용성 및 성능평가를 위하여, HMS를 기반으로 하는 병원정보 통합/검색 시스템을 구현하였다. 병원정보 통합/검색 시스템은 가상접근 기법(virtual approach)기반의 정보검색 시스템으로서, 일반 사용자는 웹 상의 각종 병원 정보를 정보의 위치에 상관없이 비쥬얼 사용자 인터떼이스틀 통하여 제공 받게된다

  • PDF

Efficient Indexing Technique for Retrieval of an XML Document and Design of Query Language (TQL) (XML 문서의 검색을 위한 효율적인 색인 기법과 질의 언어(TQL)의 설계)

  • 이계준;신동욱;권택근
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.57-59
    • /
    • 1999
  • 현재 WWW(World Wide Web), 사무 자동화 시스템(Office Information System), 전자 도서관(Digital Library) 등의 빠른 발전으로 인하여 정보가 기하급수적으로 증가하였다. 이러한 방대한 양의 정보를 처리하기 위하여 많은 인터넷 기반의 문서 표준들이 출현하였고, 대표적으로 XML(eXtensible Markup Language)이 차세대 인터넷 전자 문서의 표준으로 많은 곳에 응용되고 있다. 이에 따라 XML 문서의 정보들을 효율적이고 정확하게 저장하고 이용, 검색 할 수 있는 기능을 요구되어졌다. 현재 대부분의 연구들은 XML 문서에 대한 구조적인 정보만을 저장하고 검색하는 기능만을 지원 할 뿐 검색된 결과에 대한 재사용이나 재구성에 대한 기능의 제공은 미흡한 실정이다. 본 논문에서는 현재 검색기들이 제공하는 XML 문서에 대한 구조적인 검색 기능을 확장하여 XML 문서를 보다 효율적으로 검색하기 위하여 새로운 색인 기법을 제안하고, 데이터베이스 내에 저장된 XML문서에 대해 구조적인 검색과 이것을 바탕으로 문서를 재구성하고 재사용하는 기능을 수행할 수 있도록 새로운 질의어(TQL)을 설계하였다.

  • PDF

Development of Efficient Service Retrieval System for the Integrated Model of OpenAPI and Web Service (OpenAPI와 웹서비스의 통합 모델을 통한 효율적인 서비스 검색 시스템 개발)

  • Dong-Suk Chun;Seung-Jun Cha;Kyong-Ok Kim;Kyu-Chul Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.405-408
    • /
    • 2008
  • 오늘날 웹에서는 OpenAPI, 웹서비스등 보급이 증가함에 따라 많은 양의 서비스로부터 적합한 서비스들을 발견해 내는 문제는 중요한 문제로 부각되고 있다. 본 논문에서는 OpenAPI와 웹서비스의 통합 모델을 제안하고 이 통합 모델에 알맞은 검색 알고리즘을 적용하여 효율적인 서비스 검색을 사용자에게 제공한다. 사용자는 키워드 질의를 통해 순위화 된 서비스 검색 결과를 제공받을 수 있다.

Methods for Integration of Documents using Hierarchical Structure based on the Formal Concept Analysis (FCA 기반 계층적 구조를 이용한 문서 통합 기법)

  • Kim, Tae-Hwan;Jeon, Ho-Cheol;Choi, Joong-Min
    • Journal of Intelligence and Information Systems
    • /
    • v.17 no.3
    • /
    • pp.63-77
    • /
    • 2011
  • The World Wide Web is a very large distributed digital information space. From its origins in 1991, the web has grown to encompass diverse information resources as personal home pasges, online digital libraries and virtual museums. Some estimates suggest that the web currently includes over 500 billion pages in the deep web. The ability to search and retrieve information from the web efficiently and effectively is an enabling technology for realizing its full potential. With powerful workstations and parallel processing technology, efficiency is not a bottleneck. In fact, some existing search tools sift through gigabyte.syze precompiled web indexes in a fraction of a second. But retrieval effectiveness is a different matter. Current search tools retrieve too many documents, of which only a small fraction are relevant to the user query. Furthermore, the most relevant documents do not nessarily appear at the top of the query output order. Also, current search tools can not retrieve the documents related with retrieved document from gigantic amount of documents. The most important problem for lots of current searching systems is to increase the quality of search. It means to provide related documents or decrease the number of unrelated documents as low as possible in the results of search. For this problem, CiteSeer proposed the ACI (Autonomous Citation Indexing) of the articles on the World Wide Web. A "citation index" indexes the links between articles that researchers make when they cite other articles. Citation indexes are very useful for a number of purposes, including literature search and analysis of the academic literature. For details of this work, references contained in academic articles are used to give credit to previous work in the literature and provide a link between the "citing" and "cited" articles. A citation index indexes the citations that an article makes, linking the articleswith the cited works. Citation indexes were originally designed mainly for information retrieval. The citation links allow navigating the literature in unique ways. Papers can be located independent of language, and words in thetitle, keywords or document. A citation index allows navigation backward in time (the list of cited articles) and forwardin time (which subsequent articles cite the current article?) But CiteSeer can not indexes the links between articles that researchers doesn't make. Because it indexes the links between articles that only researchers make when they cite other articles. Also, CiteSeer is not easy to scalability. Because CiteSeer can not indexes the links between articles that researchers doesn't make. All these problems make us orient for designing more effective search system. This paper shows a method that extracts subject and predicate per each sentence in documents. A document will be changed into the tabular form that extracted predicate checked value of possible subject and object. We make a hierarchical graph of a document using the table and then integrate graphs of documents. The graph of entire documents calculates the area of document as compared with integrated documents. We mark relation among the documents as compared with the area of documents. Also it proposes a method for structural integration of documents that retrieves documents from the graph. It makes that the user can find information easier. We compared the performance of the proposed approaches with lucene search engine using the formulas for ranking. As a result, the F.measure is about 60% and it is better as about 15%.

IMGT Unique Numbering for Standardized Contact Analysis of Immunoglobulin/antigen and T cell receptor/peptide/MHC Complexes

  • Kaas, Quentin;Chiche, Laurent;Lefrane, Marie-Paule
    • Proceedings of the Korean Society for Bioinformatics Conference
    • /
    • 2005.09a
    • /
    • pp.209-214
    • /
    • 2005
  • Immunoglobulins (IG) , T cell receptors (TR) and major histocompatibility complex (MHC) are major components of the immune system. Their experimentally determined three-dimensional (3D) structures are numerous and their retrieval and comparison is problematic. IMGT, the international ImMunoGeneTics information system$^{\circledR}$(http://imgt.cines.fr), has devised controlled vocabulary and annotation rules for the sequences and 3D structures of the IG TR and MHC. Annotated data from IMGT/3D sructure-DB, the IMGT 3D structure database, are used in this paper to compare 3D structure of the domains and receptor, and to characterize IG/antigen, peptide/MHC and TR/peptide/MHC interfaces. The analysis includes angle measures to assess receptor flexibility, structural superimposition and contact analysis. Up-to-date data and analysis results are available at the IMGT Web site, http://imgt.cines.fr.

  • PDF

A Study on the Korean-Engligh Semantic Thesaurus Construction for Knowledge Management System (지식관리시스템을 위한 의미형 한영 시소러스 구축에 관한 연구)

  • 남영준
    • Journal of Korean Library and Information Science Society
    • /
    • v.32 no.4
    • /
    • pp.77-98
    • /
    • 2001
  • As the role of a library has changed to the integrated management system of knowledge, the library needs new information retrieval tools. The purpose of this study is to propose a method and principle of the Korean-English semantic thesaurus construction for a knowledge management system. The method and principle is as follows; 1) in collecting terminology, I included not only internal documents but external documents on the web as a source for the descriptors extraction. 2) conceptual descriptors are more needed than semantic ones. I also proposed the necessity of the authority files for complement. 3) I proposed the appropriate scale of the descriptors to be 15,000 in a thesaurus. And 4) I proposed a hybrid method that used both a manual and an automatic process in establishing the relationship.

  • PDF

Auto Detection System of Personal Information based on Images and Document Analysis (이미지와 문서 분석을 통한 개인 정보 자동 검색 시스템)

  • Cho, Jeong-Hyun;Ahn, Cheol-Woong
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.15 no.5
    • /
    • pp.183-192
    • /
    • 2015
  • This paper proposes Personal Information Auto Detection(PIAD) System to prevent leakage of Personal informations in document and image files that can be used by mobile service provider. The proposed system is to automatically detect the images and documents that contain personal informations and shows the result to the user. The PIAD is divided into the selection step for fast and accurate retrieval images and analysis which is composed of SURF, erosion and dilation, FindContours algorithm. The result of proposed PIAD system showed more than 98% accuracy by selection and analysis steps, 267 images detection of 272 images.