• Title/Summary/Keyword: 검색어 추출

Search Result 328, Processing Time 0.027 seconds

Word Spotting Algorithms Using SIFT in Document Images (SIFT를 이용한 문서 영상에서의 단어 검색 알고리즘)

  • Lee, Duk-Ryong;Jeon, Hyo-Jong;Oh, Il-Seok
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.488-490
    • /
    • 2011
  • 본 논문에서는 문서 영상에서 글자 분할 및 인식이 필요 없는 단어 검색 알고리즘을 제안한다. 글자 분할을 하지 않고 검색하기 위해 영상 검색에 사용되는 SIFT특징을 이용하였다. 제안하는 알고리즘은 사용자가 입력한 질의어를 질의 영상으로 변환하고, 질의 영상에서 SIFT특징을 추출한다. 추출된 특징은 문서영상에서 추출한 특징과 매칭을 통해 매칭점 쌍을 생성한다. 생성된 매칭점 쌍들을 군집화 조건에 따라 군집화 한다. 군집화는 질의 영상과 지리적 분포가 유사하게 군집화 되도록 설계되었다. 생성된 군집은 군집에 포함된 특징점의 개수가 많을수록 질의 영상과 유사하다. 따라서 N개 이상의 원소를 가지는 군집을 결과로 출력한다. 실험한 결과 제안하는 알고리즘의 가능성을 확인할 수 있었다.

Document Thematic words Extraction using Principal Component Analysis (주성분 분석을 이용한 문서 주제어 추출)

  • Lee, Chang-Beom;Kim, Min-Soo;Lee, Ki-Ho;Lee, Guee-Sang;Park, Hyuk-Ro
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.10
    • /
    • pp.747-754
    • /
    • 2002
  • In this paper, We propose a document thematic words extraction by using principal component analysis(PCA) which is one of the multivariate statistical methods. The proposed PCA model understands the flow of words in the document by using an eigenvalue and an eigenvector, and extracts thematic words. The proposed model is estimated by applying to document summarization. Experimental results using newspaper articles show that the proposed model is superior to the model using either word frequency or information retrieval thesaurus. We expect that the Proposed model can be applied to information retrieval , information extraction and document summarization.

Content based Image retrieval using Object Shape Token Clustering (객체 외형의 토큰 군집화를 통한 내용 기반 영상 검색)

  • Jeong Seok-hyun;KIM Gae-Young
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.880-882
    • /
    • 2005
  • 내용기반 영상 검색 시스템은 데이터베이스에 저장된 정지영상의 색이나, 질감, 형태 등의 특징을 이용한다. 본 연구는 실험 영상 집합에서 주요 객체를 추출하여, 객체들의 외형으로부터 분리된 토큰들을 군집화 한 후, 그 군집단위를 색인어로 사용하여 검색하는 방법이다. 기존의 내용기반 영상 검색 시스템에서 모양 정보는 그 표현과 색인 정합 등의 문제로 처리 방법이 명확하지 않았고, 회전, 크기 변화, 폐색 등에 민감했다. 따라서 기존 방법의 문제점을 해결하기 위해서 토큰을 이용한 색인을 이용하여 지역 정보와, 이들 지역 정보들의 관계에 의한 전역 정보를 복합적으로 이용한 방법을 제안한다.

  • PDF

Answer Suggestion for Knowledge Search (지식검색의 답변 추천 시스템)

  • Lee, Hochang;Lee, Hyun Ah
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.201-205
    • /
    • 2012
  • 지식검색은 방대한 지식정보 데이터를 바탕으로 사용자의 질문에 대한 답변을 검색하는 시스템이다. 이러한 사용자 참여로 구축된 지식정보는 잘못된 답변으로 인한 신뢰성 부족과 중복 답변 등의 문제점이 있어, 원하는 답변을 찾기 위해서는 지식검색에서 다수의 답변을 읽고 그 답변의 진위여부를 판단해야만 한다. 만일 정답에 포함되는 단어나 어구가 답변들에서 나타내는 통계적 특성을 활용하여 사용자가 원하는 답변을 제시할 수 있다면, 지식검색의 효용성과 신뢰성이 크게 향상될 수 있다. 본 논문에서는 지식정보 데이터 분석을 통해 사용자의 질문의 유형을 단어, 목록, 도표, 글의 4가지 유형으로 분류하고, 각 분류에 대한 사용자 질의어의 답변을 요약하는 방식을 제안한다. 단어, 목록, 글 유형은 TF와 IDF, 어휘 간의 거리 정보를 통해서 중요 단어를 추출하여 각 유형에 적합한 형식의 답변을 사용자에게 제시한다. 도표형은 답변들에서 사용자의 의견 정보를 추출하여 의견 통계를 도표로서 제시한다.

  • PDF

An Automative Melody Track Selection in MIDI Files for Query By Humming(QBH) Application (Query By Humming 응용을 위한 MIDI 파일에서의 자동 멜로디 트랙 선택 방법)

  • Kim, Moo-Jung;Nang, Jong-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06b
    • /
    • pp.405-408
    • /
    • 2011
  • 기존의 작곡가, 곡명 등의 질의어로 대표될 수 있는 메타 데이터 기반 음악 검색은 음악 데이터의 양이 급증함에 따라 탐색 근거가 되는 사항을 모를 경우 사용자의 요구를 충족시켜 줄 수 없는 단점을 가지고 있다 [1]. 반면 음악의 내용을 기반으로 한 검색의 경우 이러한 제약에서 보다 자유로울 수 있다. 내용 기반 검색[2]의 연구에 있어서 음악 데이터로부터 사용자의 질의를 처리해주기 위한 멜로디를 추출해주는 것이 중요한 문제가 되는데, 데이터의 추출과 편집이 용이한 MIDI 파일이 많이 사용되고 있다. 본 논문에서는 사용자의 질의를 바탕으로 한 QBH system상에서의 음악 데이터 구축을 위해 MIDI파일에서 추출해 낼 수 있는 특징들을 이용해 MIDI파일의 멜로디 트랙 멜로디 트랙과 반주 트랙을 자동으로 구분하는 것을 목적으로, MIDI트랙에서 추출해서 이용할 수 있는 특징들에 대해 알아보고 그에 따른 간단한 분류 알고리즘의 제안과 실험 결과에 대해 소개한다.

A Study on Method for Extraction of Emotion in Newspaper (신문기사의 감정추출 방법에 관한 연구)

  • Baek, Sun-Kyoung;Kim, Pan-Koo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.562-564
    • /
    • 2005
  • 정보검색에서의 사용자의 다양한 질의어는 객관적인 키워드에서 인간이 주관적으로 생각하고 느끼는 감정요소를 동반한 어휘들로 범위가 넓어지고 있다. 이에 본 논문에서는 감정에 기반한 신문기사 검색을 위하여 기사의 구문 분석 및 품사 태깅 절차를 거쳐 동사를 추출하고 그 중 감점을 내포하는 동사들의 관계를 이용하여 신문기사의 감정을 추출한다. 감정동사의 관계를 창조하기 위하여 감정동사들을 OWL/RDF(S)를 이용해서 온톨로지를 구축하였고 에지(Edge)기반의 유사도 측정방법을 제안하였다. 제안한 방법은 여러 가지 감정을 추출하고 감정 정도를 측정할 수 있기 때문에 이는 향후 감정기반 신문기사 검색에 효과적으로 사용될 수 있을 것이다.

  • PDF

Design and Implementation of Meaning Collecting Tool for New Words (새로 생겨난 단어의 의미를 기술하는 프로그램의 설계 및 구현)

  • Kim, Unghee;Lee, Samuel Sangkon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.733-736
    • /
    • 2014
  • 웹에 실시간으로 등록되는 언론 기사를 수집하는 웹 에이전트를 개발하여 텍스트를 추출하고, 어휘 분석을 통하여 어미/조사를 자동으로 제거하고, 국어사전에 등록된 표제어를 제외하여 새롭게 생성된 신조어의 추출 작업을 지원하는 조사 도구를 본 논문에서 제작하였다. 본 프로그램은 웹 에이젼트를 개발하여 신어의 의미를 기술하고 그 결과물을 검색엔진 시스템의 내부에 준비해 두고 있다가 고객의 검색 요구에 따라 새로 생성된 신어의 의미를 국민들에게 대민 서비스하는데 본 논문의 목적이 있다.

Data Mining Technology for Application in Humanistic Computing (인문전산학 활용을 위한 데이터마이닝기법)

  • Kwak, Ho-Hyung;Bang, Hye-Ja
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.593-596
    • /
    • 2005
  • 데이터마이닝은 대량의 실제 데이터로부터 이전에 잘 알려지지는 않았지만 묵시적이고 잠재적으로 유용한 정보를 추출하는 작업으로, 본 논문은 최근 인문학 정보 자료가 전산화되고 있는 가운데 대량의 정보와 특정 체계를 갖춘 ‘조선왕조실록’ 전산자료를 분석하고 기존의 단순한 정보 검색이 아닌 데이터마이닝 기법을 적용한 상세하고 예측가능 한 정보자료 추출법을 제시한다. 먼저 텍스트화 되어 있는 컨텐츠를 형태소분석기법을 사용하여 색인어를 추출하고 집계를 낸다. 질의어와 유관한 색인어의 군집정도와 출현시점을 분석하는데, 사용된 마이닝 기법은 연관규칙분석과 클러스터링 분석기법이다. 최종 결과치는 기존의 인문학연구 결과물과 비교하여 그 정확도를 분석해 보인다.

  • PDF

An XML Tag Indexing Method Using on Lexical Similarity (XML 태그를 분류에 따른 가중치 결정)

  • Jeong, Hye-Jin;Kim, Yong-Sung
    • The KIPS Transactions:PartB
    • /
    • v.16B no.1
    • /
    • pp.71-78
    • /
    • 2009
  • For more effective index extraction and index weight determination, studies of extracting indices are carried out by using document content as well as structure. However, most of studies are concentrating in calculating the importance of context rather than that of XML tag. These conventional studies determine its importance from the aspect of common sense rather than verifying that through an objective experiment. This paper, for the automatic indexing by using the tag information of XML document that has taken its place as the standard for web document management, classifies major tags of constructing a paper according to its importance and calculates the term weight extracted from the tag of low weight. By using the weight obtained, this paper proposes a method of calculating the final weight while updating the term weight extracted from the tag of high weight. In order to determine more objective weight, this paper tests the tag that user considers as important and reflects it in calculating the weight by classifying its importance according to the result. Then by comparing with the search performance while using the index weight calculated by applying a method of determining existing tag importance, it verifies effectiveness of the index weight calculated by applying the method proposed in this paper.

A Study of Disaster Recognition Based on Disaster-related Place Names (재난과 관련된 지명에 투영된 방재인식에 관한 연구)

  • PARK, Kyeong;KIM, Sunhee
    • Journal of The Geomorphological Association of Korea
    • /
    • v.17 no.2
    • /
    • pp.15-28
    • /
    • 2010
  • This study aims at the exploration of usefulness of traditional knowledge reflected in the place names. This study is useful and pragmatic for the establishment of disaster prevention measures from the analyses of disaster database, which shows the regional distribution and historical changes of disaster characteristics through history. The construction and categorization of disaster-related place names are based on historical maps and literatures on place names. One hundred twenty eight disaster-related place terminologies are selected based on disaster causes and possibilities. Design of field structures and category codes for the disaster-related place names has been proposed and the construction of disaster-related place names from the six sources has been completed.