• 제목/요약/키워드: Search software

검색결과 784건 처리시간 0.029초

질의어 의미별 사용자 선호도를 이용한 웹 검색의 성능 향상 (Improving Performance of Web Search using The User Preference in Query Word Senses)

  • 김형일;김준태
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권8호
    • /
    • pp.1101-1112
    • /
    • 2004
  • 본 논문에서는 웹 검색의 성능 향상을 위해 질의어 의미별 사용자 선호도를 이용한 웹 페이지의 가중치 부여 방식을 제안한다. 일반적으로 검색엔진들은 검색 질의어와 웹 페이지의 어휘 비교에 의한 관련도 측정만을 사용하여 웹 페이지의 가중치를 부여한다. 웹과 같이 방대한 자료를 대상으로 검색을 할 경우 유사한 관련도를 가진 검색 결과가 매우 많으므로 어휘 비교만으로는 중요한 웹 페이지를 선별하기 어렵다. 본 논문에서는 질의어의 의미를 구분하도록 워드넷(WordNet)을 이용한 사용자 인터페이스를 구축하고, 사용자의 클릭 수를 각 웹 페이지의 가중치에 누적함으로써 다수 사용자의 검색 행위에 의한 묵시적 평가가 웹 페이지의 검색 순위에 반영되는 검색 시스템을 구현하였다. 클릭수의 누적에 있어서 질의 어 의미별로 가중치를 구분하여 저장함으로써 일반적인 검색엔진보다 정확한 검색이 되었으며, 웹 페이지의 범주별 가중치와 질의어의 의미별 사용자 선호도를 이용함으로써 검색 시스템의 성능을 향상시킬 수 있다는 것을 20개의 어휘에 관련된 41개의 의미들을 대상으로 실험한 결과로 확인하였다.

이웃 탐색점에서의 평균 절대치 오차를 이용한 2단계 고속 블록 정합 알고리듬 (A Two-Stage Fast Block Matching Algorithm Using Mean Absolute Error of Neighbor Search Point)

  • 정원식;이법기;권성근;한찬호;신용달;송규익;이건일
    • 대한전자공학회논문지SP
    • /
    • 제37권3호
    • /
    • pp.41-56
    • /
    • 2000
  • 본 논문에서는 이웃 탐색점에서의 평균 절대치 오차(mean absolute error, MAE)를 이용하여 전역 탐색 알고리듬(full search algorithm, FSA)과 거의 같은 움직임 추정 성능을 얻으면서도 고속으로 움직임을 추정할 수 있는 2단계 고속 블록 정함 알고리듬을 제안하였다. 제안한 방법에서는 현재 탐색점에서 블록 정합을 통하여 얻을 수 있는 MAE의 최소 범위를 이웃 탐색점에서의 MAE를 이용하여 구한 뒤, 이를 이용하여 블록 정합이 필요한 탐색점에 대하여서만 블록 정합을 행하였다. 즉, 제안한 방법에서는 블록 정함이 필요한 탐색점 수를 줄임으로써 고속으로 움직임을 추정하였으며, 움직임 추정을 두 단계로 나누어 수행하였다 모의 설험을 통하여 제안한 방법이 FSA와 거의 같은 움직임 추정 성능을 유지하면서도 많은 계산량의 감소를 얻을 수 있음을 확인하였다

  • PDF

웹 검색 환경에서 범주의 동적인 분류 (Dynamic Classification of Categories in Web Search Environment)

  • 최범기;이주홍;박선
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권7호
    • /
    • pp.646-654
    • /
    • 2006
  • 분류검색 방법은 색인검색 방법과 함께 중요한 요소로서 웹 검색 엔진에서 지원되고 있다. 사용자가 분류나 색인검색 방법 중 하나를 이용하여 원하는 검색결과를 찾지 못하면 다른 검색방법을 이용하여 찾을 수 있도록 대부분의 검색엔진에서는 두 가지 방법 모두 지원하고 있다. 색인검색 방법에서는 검색결과의 재현율이 높지만 검색결과가 너무 많이 나오기 때문에 원하는 검색결과를 찾아내는 것이 어렵다는 단점이 있다. 분류검색 방법은 찾고자 하는 문서의 해당 분류가 애매모호하거나 명확하게 알지 못할 때에는 문서를 찾지 못하는 경우가 빈번히 발생한다. 즉, 검색결과의 정확도는 높으나 재현율이 떨어지는 단점이 있다. 본 논문은 이러한 문제점을 해결하기 위해서 분류와 검색어간의 관계를 퍼지논리를 이용하여 정량적으로 계산하고 이를 바탕으로 범주간의 함의관계를 유도함으로써 동적인 범주체계를 구성하는 새로운 방법을 제시한다. 이 방법의 장점은 범주간의 합의관계를 유사한 하위범주로 간주함으로써 분류검색 결과의 재현율을 높일 수 있다는 것이다.

고객중심의 과학기술정보 서비스를 위한 FAST 검색엔진 커스터마이징 (FAST Search Engine Customizing for S&T Information Service)

  • 한희준;이태석;김선태;예용희;이상기;여일연
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2008년도 춘계 종합학술대회 논문집
    • /
    • pp.480-483
    • /
    • 2008
  • 다양한 인터넷 기술이 개발 및 발전됨에 따라 정보 제공자는 사용자에게 보다 효율적이고 고객중심의 서비스를 제공하기 위해 노력하고 있다. 특히 방대한 양의 정보에 대하여 고객이 원하는 정보를 정확하고 쉽게 제공하기 위해서는 검색기능의 효율성이 필수이다. 한국과학기술정보연구원(KISTI)에서는 국가과학기술포털서비스 성능향상을 위하여 FAST(Fast Search & Transfer ASA) 검색엔진을 도입하였다. 하지만 무엇보다도 서비스 환경에 적합하게 검색엔진의 하드웨어 및 소프트웨어적 성능을 최적화하는 것이 중요하다. 본 논문에서는 국가과학기술정보의 효율적 서비스를 위한 FAST 검색엔진 설계 및 최적화 기법에 대해 논한다.

  • PDF

차량번호의 효율적 탐색을 위한 파일 데이터베이스와 탐색 알고리즘 (File Database and Search Algorithm for Efficient Search of Car Number)

  • 심철준;유상현;김원일
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권10호
    • /
    • pp.391-396
    • /
    • 2019
  • 다양한 하드웨어의 발전으로 영상처리를 이용한 연구가 활발하게 진행되고 있다. 예를 들어 차량에 의한 각종 범죄를 예방하기 위해 기존에 설치된 CCTV를 이용하여 실시간으로 범죄 차량의 위치를 탐색하여 단속하는 방법이 있다. 그러나 특정 시스템과 높은 시스템 요구 사항으로 인해 기존 장비들에 적용하기 어려운 문제점 있다. 본 논문에서는 이러한 문제점을 해결하기 위해 기존 장비들에서도 차량의 탐지를 수행할 수 있도록 한국 표준 차량 번호판 정보를 파일 데이터베이스로 구성하고, 특정 차량에 대한 정보를 빠르게 탐색할 수 있는 탐색 알고리즘을 제안하였다. 본고에서 제안한 파일 데이터베이스와 탐색 알고리즘의 성능 평가를 위해 다양한 위치에 탐색 대상을 설정하고 실험한 결과 탐색 알고리즘은 항상 특정 시간 안에 차량을 탐색하여 정보를 확인할 수 있었다.

사용자 개인 프로파일을 이용한 개인화 검색 기법 (Personalized Search Technique using Users' Personal Profiles)

  • 윤성희
    • 한국전자통신학회논문지
    • /
    • 제14권3호
    • /
    • pp.587-594
    • /
    • 2019
  • 본 논문은 사용자의 검색 의도와 개별 관심을 반영한 순위화된 검색 결과 문서를 제공하는 개인화 검색 기법을 제안한다. 개인화 검색에서는 사용자의 개별 관심사와 선호도를 정확하게 판별하기 위한 사용자 프로파일을 생성하는 기술이 개인화 검색의 성능을 좌우한다. 개인 프로파일은 사용자의 최근 입력 질의어들과 검색과정에서 참조했던 문서들에 나타나는 주제어들의 가중치와 빈도가 기록된 데이터 집합이다. 사용자 프로파일은 웹 검색에 앞서 사용자의 입력 질의어를 개인화된 질의어들로 확장하기 위해 사용된다. 중의적 질의어의 정확한 의미를 결정하기 위해서 워드넷을 사용하여 프로파일에 등록된 단어들과 의미 유사도를 계산한다. 검색 시스템의 사용자 측에 질의확장 모듈과 순위 재계산 모듈을 확장모듈로 구축하여 진행한 실험에서 개인화 검색 기술을 적용한 실험 결과가 상위문서들에 대해서 정확률과 재현률이 크게 향상된 성능을 보이고 있다.

생활지리정보 검색 및 안내를 위한 POI의 구축 및 활용 (A Study of the Construction and Application of Point of Interest Data for Search and Guide)

  • 김대식;김형진;손봉수;유완
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2003년도 추계종합학술대회 논문집
    • /
    • pp.423-430
    • /
    • 2003
  • Generally, elements of DRM(Digital Road Map) consist of road, background and landmark data. The landmark, expressed as text and symbol, on map and additional search data are processed by GISSD(Geo-spatial Information System Service Data). This paper aims to develop the DBMS(Database Management System) for operating landmark and search data, and to discuss the characteristics and application of the DBMS. To accomplish the two objectives, the following four tasks were performed in this study. First, the working scopes of field survey and specification to construct the GISSD were defined. Second, the suggested process of manufacture and design of database were described. Third, the software for required construction and management of the system were developed. Lastly, the properties of developed system and data were analyzed. Especially, the efforts for the GISSD in this study are expected to provide a direct use and practical application to the creation of landmark in DRM and search data.

  • PDF

PCA 기반 군집화를 이용한 해슁 기법 (A Hashing Method Using PCA-based Clustering)

  • 박정희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권6호
    • /
    • pp.215-218
    • /
    • 2014
  • 해슁(hashing)을 기반으로 한 근사 최근접 이웃 탐색(approximate nearest neighbors search, ANN search) 방법에서는 데이터 샘플들을 k-비트 이진 코드로 변환하는 해쉬 함수들을 이용함으로써 근접 이웃 탐색이 이진변환 공간에서 이루어지게 된다. 본 논문에서는 PCA 기반 군집화 방법인 Principal Direction Divisive Partitioning(PDDP)를 이용한 해슁 방법을 제안한다. PDDP는 가장 큰 분산을 가지는 클러스터를 선택하여 그 클러스터의 첫 번째 주성분 방향을 이용하여 두 개의 클러스터로 분할하는 과정을 반복적으로 시행하는 군집화 방법이다. 제안하는 해슁 방법에서는 PDDP에서 분할을 위해 사용하는 주성분방향을 바이너리 코딩을 위한 사영벡터로서 사용한다. 실험결과는 제안하는 방법이 다른 해슁 방법들과 비교하여 경쟁력 있는 방법임을 입증한다.

국지적 탐색의 효율향상을 위한 확률적 여과 기법 (A Probabilistic Filtering Technique for Improving the Efficiency of Local Search)

  • 강병호;류광렬
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권3호
    • /
    • pp.246-254
    • /
    • 2007
  • 국지적 탐색 알고리즘들은 최적해를 찾기 위해서 이웃해를 생성하여 평가한 뒤에 좋은 해로 이동하는 과정을 반복한다. 본 논문에서는 생성된 이웃해를 원래의 목적함수로 평가하기 전에 간단한 예비 평가 휴리스틱을 이용하여 미리 평가함으로써, 좋지 않아 보이는 이웃해를 확률적으로 여과할 수 있는 기법을 소개한다. 이 확률적 여과 기법은 결국에 버려질 이웃해를 엄밀하게 평가하는데 낭비되는 시간을 절약하고, 이 시간 동안 보다 좋아 보이는 이웃해를 더 많이 탐색할 수 있게 함으로써 탐색 효율을 높이는 기법이다. 대규모의 실세계 최적화 문제인 교통망에서의 교통 신호 최적화 문제와 작업 일정 계획에서의 부하평준화 문제를 대상으로 한 실험에서 확률적 여과를 적용한 경우가 적용하지 않은 경우에 비해 주어진 탐색시간 동안 더 좋은 질의 최적해를 얻을 수 있는 것으로 확인되었다.

확률적 문법규칙에 기반한 국어사전의 뜻풀이말 구문분석기 (A Parser of Definitions in Korean Dictionary based on Probabilistic Grammar Rules)

  • 이수광;옥철영
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권5호
    • /
    • pp.448-448
    • /
    • 2001
  • The definitions in Korean dictionary not only describe meanings of title, but also include various semantic information such as hypernymy/hyponymy, meronymy/holonymy, polysemy, homonymy, synonymy, antonymy, and semantic features. This paper purposes to implement a parser as the basic tool to acquire automatically the semantic information from the definitions in Korean dictionary. For this purpose, first we constructed the part-of-speech tagged corpus and the tree tagged corpus from the definitions in Korean dictionary. And then we automatically extracted from the corpora the frequency of words which are ambiguous in part-of-speech tag and the grammar rules and their probability based on the statistical method. The parser is a kind of the probabilistic chart parser that uses the extracted data. The frequency of words which are ambiguous in part-of-speech tag and the grammar rules and their probability resolve the noun phrase's structural ambiguity during parsing. The parser uses a grammar factoring, Best-First search, and Viterbi search In order to reduce the number of nodes during parsing and to increase the performance. We experiment with grammar rule's probability, left-to-right parsing, and left-first search. By the experiments, when the parser uses grammar rule's probability and left-first search simultaneously, the result of parsing is most accurate and the recall is 51.74% and the precision is 87.47% on raw corpus.