• 제목/요약/키워드: distributed query processing

검색결과 130건 처리시간 0.037초

웹 통합문서의 효율적 생성과 검색을 위한 자동링크지원 시스템의 설계 및 구축 (Design and Implementation of Automatic Linking Support System for Efficient Generating and Retrieving Integrated Documents Based on Web)

  • 이원중;정은재;주수종;이승용
    • 정보처리학회논문지A
    • /
    • 제10A권2호
    • /
    • pp.93-100
    • /
    • 2003
  • 분산 컴퓨팅과 웹 서비스 기술의 발달과 함께, 급증하는 인터넷 사용자는 웹 기반의 맞춤형 정보를 편리하게 작성하고 제공받을 수 있는 서비스들을 요구하고 있다. 이를 위해, 본 논문에서는 맞춤형 정보로서 웹 기반의 통합문서를 생성하고, 사용자 요구에 따라 다양한 검색을 지원할 수 있는 자동링크지원 시스템(ALSS : Automatic Linking Support System)을 구축하고자 한다. 본 시스템의 구성은 클라이언트/서버 환경을 기반으로, 서버는 어휘분석, 질의처리 및 통합문서생성 기능들을 제공하는 자동링크엔진과 사전, 이미지 컨텐츠 및 URLs로 이루어진 데이터베이스를 지원하도록 구축하였다. 클라이언트 측은 서버 측의 자동링크엔진과 데이터베이스를 접근하여 웹 기반의 통합문서를 생성하는 웹 에디터와 검색 서비스를 지원하는 웹 도우미로 구축하였다. 웹 에디터나 웹 도우미 프로그램은 클라이언트 측에 별도의 설치 없이 서버로부터 다운로딩하여 실행할 수 있으며, 서버의 실행기능들의 일부를 글라이언트 측에 분산시키므로써 서버의 부하를 감소시켰다. 본 시스템의 구현으로서, 사용자 인터페이스는 JDK 1.3 기반의 SWING을 이용하고, 클라이언트와 서버간의 연동을 위한 자바 RMI 기법을 적용하였으며, SQL Server 7.0을 사용하여 데이터베이스를 구축하였다. 마지막으로 웹 에디터와 웹 도우미에 의해 자동링크엔진과 데이터베이스를 접근하는 과정과 그들의 실행결과를 보였다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

아파치 엘라스틱서치 기반 로그스태시를 이용한 보안로그 분석시스템 (A Security Log Analysis System using Logstash based on Apache Elasticsearch)

  • 이봉환;양동민
    • 한국정보통신학회논문지
    • /
    • 제22권2호
    • /
    • pp.382-389
    • /
    • 2018
  • 최근 사이버 공격은 다양한 정보시스템에 심각한 피해를 주고 있다. 로그 데이터 분석은 이러한 문제를 해결하는 하나의 방법이다. 보안 로그 분석시스템은 로그 데이터 정보를 수집, 저장, 분석하여 보안 위험에 적절히 대처할 수 있게 한다. 본 논문에서는 보안 로그 분석을 위하여 분산 검색 엔진으로 사용되고 있는 Elasticsearch와 다양한 종류의 로그 데이터를 수집하고 가공 및 처리할 수 있게 하는 Logstash를 사용하여 보안 로그 분석시스템을 설계하고 구현하였다. 분석한 로그 데이터는 Kibana를 이용하여 로그 통계 및 검색 리포트를 생성하고 그 결과를 시각화할 수 있게 하였다. 구현한 검색엔진 기반 보안 로그 분석시스템과 기존의 Flume 로그 수집기, Flume HDFS 싱크 및 HBase를 사용하여 구현한 보안 로그 분석시스템의 성능을 비교 분석하였다. 실험 결과 Elasticsearch 기반의 로그 분석시스템을 사용할 경우 하둡 기반의 로그 분석시스템에 비하여 데이터베이스 쿼리 처리시간 및 로그 데이터 분석 시간을 현저하게 줄일 수 있음을 보였다.

의미적 제약조건을 보존하는 DIDL 매핑 시스템의 설계 및 구현 (A design and implementation of DIDL mapping system preserving semantic constraints)

  • 송정석;김우생
    • 한국통신학회논문지
    • /
    • 제29권5B호
    • /
    • pp.482-490
    • /
    • 2004
  • 최근 XML 문서가 인터넷 기반의 애플리케이션간의 자료 저장 및 교환을 위한 표준으로서 부상함에 따라 XML 문서의 저장 및 관리에 대한 연구가 활발히 이루어지고 있다. 하지만 대부분의 연구들은 인스턴스 및 DTD 기반의 매핑 기술에 관한 것으로 문서의 구조적 변환께만 초점이 맞추어져 있었다. 현재는 XML 스키마 기반의 XML 문서 이용이 보편화되고 있는 추세이며 구조적 변환 이외에도 의미의 보존이 아울러 요구되고 있다. 이에 본 논문에서는 XML 스키마에 기반 한 MPEG-21의 DIDL(Digital Item Declaration Language) 언어를 응용 도메인으로 설정하곡 의미적 제약조건을 확장하여 보존할 수 있는 매핑 모델을 제안하였다. 기존의 연구결과를 제시된 도메인에 적절하게 확장하여 전처리 단계에서 적용한 후, 의미 정보의 보존을 위한 다양한 후처리 과정을 설계단계에 적용하였다. 구현에 적용된 시스템의 구성 및 제안 알고리즘을 소개하고, 구현 환경 및 상세한 의미적 확장기법을 제시하였으며, 테이블과 질의 예제를 통한 질의처리 예제를 보였다.

협업을 위한 XMDR-DSM 시스템 설계에 관한 연구 (A Study on XMDR-DSM System Design for Cooperative)

  • 문석재;정계동;최영근
    • 정보처리학회논문지D
    • /
    • 제16D권5호
    • /
    • pp.701-714
    • /
    • 2009
  • 서비스 기반의 전사적 데이터 통합은 기업 변화의 가속화에 따른 통합적인 데이터 관리가 필요하다. 기업 간 협업은 비즈니스 프로세스를 이용하여 분산된 데이터베이스들에 접근하여 이루어진다. 이러한 접근은 글로벌 쿼리 기반으로 수행되기 때문에 이기종간의 상호운용을 위해서 데이터 이질성, 스키마 이질성, 유효성 검증과 같은 문제가 선결되어야 한다. 따라서 협업은 동적이면서 신뢰성 있는 구조를 갖추어야 한다. 본 논문에서는 협업을 위한 XMDR-DSM(eXtended MetaData Registry-Data Service Mediator) 시스템을 제안한다. XMDR-DSM은 XMDR-DS와 XMDR-DQP, XMDR-DAI로 구성되어 글로벌 스키마와 로컬 스키마간의 매핑을 지원해주고, 데이터 접근 및 통합 서비스를 제공한다. 따라서 이기종 데이터베이스 상호간의 업무 지원이 가능하게 하고, 정보를 재활용 가능한 자산으로 확보할 수 있는 이점과 교환의 표준화를 제시할 수 있다. 그리고 워크플로우 기반의 비즈니스 프로세스 제공할 수 있으므로 일원화된 정보를 관리할 수 있게 된다. 따라서 정보 수명을 증대하고 비용절감을 할 수 있게 된다.

계획생성 모듈을 갖는 멀티에이전트 기반구조의 확장방법 (A Method of Extending a Multiagent Framework with a Plan Generation Module)

  • 이광로;박상규;장명욱;민병의;최중민
    • 한국정보처리학회논문지
    • /
    • 제4권9호
    • /
    • pp.2280-2288
    • /
    • 1997
  • 에이전트는 자율성, 사회성, 반응성, 지속성을 갖는 독립된 프로그램으로 지식과 추론 능력을 바탕으로 사용자의 작업을 대신해 준다. 여러 영역들을 포함하는 복잡한 문제를 효과적으로 해결하기 위해서 멀티에이전트 기반구조에 대한 연구가 활발히 진행되어 왔다. 그러나 이런 기반구조에서도 사용자의 질의는 상당히 애매하고 그에 대한 문제 해결에 대한 절차가 바로 생성되지 못하는 문제점이 있다. 이를 위해 멀티에이전트 기반구조에 계획 생성모듈을 추가시켜 좀더 지능을 갖춘 멀티에이전트의 개발이 요구된다. 본 논문에서는 OAA (Open Agent Architecture)를 이용한 에이전트 시스템이 사용자의 의도 파악과 작업수행을 위한 절차를 생성하고, 분산되어 독립적으로 흩어져 사용되고 있는 지식처리 시스템을 통합하여 상호의 지식을 공유하면서 서로 협동 가능하도록 OAA를 이용한 에이전트 시스템에 계획생성 모듈 추가방법을 제안한다. 또한 이방법의 유용성을 검증하기 위해 여행일정 에이전트 시스템에 적용하였다. 이러한 결과로 OAA를 이용한 에이전트 시스템을 사용하는 사용자는 컴퓨터 네트워크 상에서 제공되는 서비스의 제공과 사용에 있어서 좀더 편리한 인터페이스 환경을 제공 받을 수 있게 되었다. 또한 현재 독립적으로 흩어져 사용되고 있는 지식처리 시스템인 전문가 시스템이나 계획기를 통합하여 상호의 지식을 공유하면서 서로 협동으로 일을 처리할 수 있는 환경을 제공한다.

  • PDF

토픽맵과 카산드라를 이용한 그래프 구조와 트랜잭션 동시 처리 기법 (Technique for Concurrent Processing Graph Structure and Transaction Using Topic Maps and Cassandra)

  • 신재현
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권3호
    • /
    • pp.159-168
    • /
    • 2012
  • SNS, 클라우드, Web3.0과 같은 새로운 IT환경은 '관계(relation)'가 중요한 요소가 되고 있다. 그리고 이들 관계(relation)는 거래, 즉, 트랜잭션을 발생시킨다. 그러나 우리가 사용하고 있는 관계형 데이터베이스(RDBMS)나 그래프 데이터베이스는 관계(relation)를 나타내는 그래프 구조와 트랜잭션을 동시에 처리하지 못한다. 본 논문은 확장 가능한 복잡 네트워크 시스템에서 활용할 수 있는 그래프 구조와 트랜잭션을 동시에 처리할 수 있는 방법을 제안한다. 제안 기법은 토픽맵의 데이터 모델을 응용하여 그래프 구조와 트랜잭션을 동시에 저장하고 탐색한다. 토픽맵은 시멘틱 웹(Web3.0)을 구현하는 온톨로지 언어 중 하나로써, 정보자원들 사이의 연관 '관계(relation)'를 통해 정보의 네비게이터로써 활용되고 있다. 또한 본 논문에서는 컬럼형 데이터베이스인 카산드라를 이용하여 제안 기법의 아키텍처를 설계, 구현하였다. 이는 분산처리를 이용하여 빅데이터 레벨의 데이터까지 처리할 수 있도록 하기 위함이다. 마지막으로 대표적인 RDBMS인 오라클과 제안 기법을 동일한 데이터 소스, 동일한 질문에 대해 저장 및 질의를 하는 과정을 실험으로 보였다. 이는 조인(join) 없이 관계(relation)를 표현함으로써 RDBMS의 역할까지 충분히 대체 가능함을 보이고자 한다.

분산 이동 객체 데이타베이스를 위한 과거 위치 정보 관리 (Long-term Location Data Management for Distributed Moving Object Databases)

  • 이호;이준우;박승용;이충우;황재일;나연묵
    • 한국공간정보시스템학회 논문지
    • /
    • 제8권2호
    • /
    • pp.91-107
    • /
    • 2006
  • 최근의 위치 측위 기술과 무선 기술의 발전에 따라 위치 기반 서비스에 대한 관심이 크게 증가하고 있다. 기존 연구의 단일 노드 기반 시스템으로는 처리하기 힘든 휴대폰 사용자와 같은 최소 백만 단위이상의 대용량의 객체를 처리하기 위해 제시된 클러스터 기반 분산 컴퓨팅 구조로 GALIS가 제안되었다. GALIS는 이동 객체의 현재 위치정보를 관리하는 SLDS와 과거 시간의 흐름에 따라 과거 위치정보를 관리하는 LLDS로 구성된다 LLDS는 분산된 다수의 노드로 구성되며 각 노드는 독립된 지역에 위치한 이동 객체의 정보를 관리한다. 본 논문에서는 이전의 GALIS 프로토타입에서 구현되지 않았던 이탈시간 관리 기법을 제안하여 노드간 이동 경로를 가진 이동객체를 추적하기 위한 질의유형에 대해 보다 정확하고 빠른 응답을 얻을 수 있음을 보인다. LLDS는 객체의 과거 위치 정보가 타임 존을 이동할 때 필터링하여 저장하므로 보다 효율적인 저장공간의 활용이 가능하다. 이때 LLDS가 모든 이동 객체의 위치 정보에 대해 해당 타임 존으로 이동시키고 정보를 필터링하는 작업을 타임 존 시프팅이라 한다. 본 논문에서는 GALIS에서 제안한 타임 존 시프팅을 구현하기 위해서 실시간 시프팅, 일괄 타임존 시프팅, 테이블 분할 시프팅 세 가지 기법을 제안하였고, 이를 구현하여 각 방법의 성능을 질의 테스트를 통해 제안된 세 가지 방법 중 테이블 분할 시프팅 방법이 보다 효율적임을 살펴볼 수 있었다.

  • PDF

스타일 기반 키워드 추출 및 키워드 마이닝 프로파일 기반 웹 검색 방법 (An Efficient Web Search Method Based on a Style-based Keyword Extraction and a Keyword Mining Profile)

  • 주길홍;이준휘;이원석
    • 정보처리학회논문지D
    • /
    • 제11D권5호
    • /
    • pp.1049-1062
    • /
    • 2004
  • World Wide Web의 대중화로 인해 전자 정보량이 급속하게 증가하였고, 이러한 많은 양의 다양한 정보에 대한 효율적인 검색 시스템의 필요성이 증대되었다. 정확한 검색 결과를 제공하기 위해 사용자 요구 사항의 올바른 분석과 서술이 중요하게 인식되고 있으며, 분산 환경에서의 요구 사항 추출 및 분석의 필요성이 대두되고 있다. 본 논문에서는 웹 검색 방법에 있어서 목표 검색어만을 가지고 검색을 수행하는 기존 검색 방법과 달리 검색어가 나타나는 문맥 정보를 추가하여 검색하는 방법을 제안하고 구현하였다. 또한 본 논문에서는 제안된 새로운 키워드 추출 방법으로 추출된 키워드를 기반으로 키워드 마이닝 프로파일에 기반한 웹 검색 시스템을 제안하고 구현하였다. 이는 원하는 정보를 대표하는 목표 검색어만 가지고 검색을 수행하는 기존의 검색방법과 달리 검색어가 포함된 문맥정보를 추가하여 검색하기 때문에 기존의 검색방법보다 정확하고 효율적인 정보를 제공한다. 특정 도메인으로부터 순위가 매겨진 도메인 키워드 리스트를 작성하여 이를 기준으로 기존의 출현빈도기반의 차이를 실험을 통하여 보였으며, 예제 기반 질의를 바탕으로 키워드 마이닝 프로파일을 만들어 검색을 수행하는 검색 방법으로 이의 효용성을 실험을 통해 검증하였다.

FCA 기반 계층적 구조를 이용한 문서 통합 기법 (Methods for Integration of Documents using Hierarchical Structure based on the Formal Concept Analysis)

  • 김태환;전호철;최종민
    • 지능정보연구
    • /
    • 제17권3호
    • /
    • pp.63-77
    • /
    • 2011
  • 월드와이드웹(World Wide Web)은 인터넷에 연결된 컴퓨터를 통해 사람들이 정보를 공유할 수 있는 매우 큰 분산된 정보 공간이다. 웹은 1991년에 시작되어 개인 홈페이지, 온라인 도서관, 가상 박물관 등 다양한 정보 자원들을 웹으로 표현하면서 성장하였다. 이러한 웹은 현재 5천억 페이지 이상 존재할 것이라고 추정한다. 대용량 정보에서 정보를 효과적이며 효율적으로 검색하는 기술을 적용할 수 있다. 현재 존재하는 몇몇 검색 도구들은 초 단위로 gigabyte 크기의 웹을 검사하여 사용자에게 검색 정보를 제공한다. 그러나 검색의 효율성은 검색 시간과는 다른 문제이다. 현재 검색 도구들은 사용자의 질의에 적합한 정보가 적음에도 불구하고 많은 문서들을 사용자에게 검색해준다. 그러므로 대부분의 적합한 문서들은 검색 상위에 존재하지 않는다. 또한 현재 검색 도구들은 사용자가 찾은 문서와 관련된 문서를 찾을 수 없다. 현재 많은 검색 시스템들의 가장 중요한 문제는 검색의 질을 증가 시키는 것이다. 그것은 검색된 결과로 관련 있는 문서를 증가시키고, 관련 없는 문서를 감소시켜 사용자에게 제공하는 것이다. 이러한 문제를 해결하기 위해 CiteSeer는 월드와이드웹에 존재하는 논문에 대해 한정하여 ACI(Autonomous Citation Indexing)기법을 제안하였다. "Citaion Index"는 연구자가 자신의 논문에 다른 논문을 인용한 정보를 기술하는데 이렇게 기술된 논문과 자신의 논문을 연결하여 색인한다. "Citation Index"는 논문 검색이나 논문 분석 등에 매우 유용하다. 그러나 "Citation Index"는 논문의 저자가 다른 논문을 인용한 논문에 대해서만 자신의 논문을 연결하여 색인했기 때문에 논문의 저자가 다른 논문을 인용하지 않은 논문에 대해서는 관련 있는 논문이라 할지 라도 저자의 논문과 연결하여 색인할 수 없다. 또한 인용되지 않은 다른 논문과 연결하여 색인할 수 없기 때문에 확장성이 용이하지 못하다. 이러한 문제를 해결하기 위해 본 논문에서는 검색된 문서에서 단락별 명사와 동사 및 목적어를 추출하여 해당 동사가 명사 및 목적어를 취할 수 있는 가능한 값을 고려하여 하나의 문서를 formal context 형태로 변환한다. 이 표를 이용하여 문서의 계층적 그래프를 구성하고, 문서의 그래프를 이용하여 문서 간 그래프를 통합한다. 이렇게 만들어진 문서의 그래프들은 그래프의 구조를 보고 각각의 문서의 영역을 구하고 그 영역에 포함관계를 계산하여 문서와 문서간의 관계를 표시할 수 있다. 또한 검색된 문서를 트리 형식으로 보여주어 사용자가 원하는 정보를 보다 쉽게 검색할 수 있는 문서의 구조적 통합 방법에 대해 제안한다. 제안한 방법은 루씬 검색엔진이 가지고 있는 순위 계산 공식을 이용하여 문서가 가지는 중요한 단어를 문서의 참조 관계에 적용하여 비교하였다. 제안한 방법이 루씬 검색엔진보다15% 정도 높은 성능을 나타내었다.