• 제목/요약/키워드: Text Retrieval System

검색결과 177건 처리시간 0.028초

효율적인 이미지 분할을 위한 RGB 채널 선택 기법 (RGB Channel Selection Technique for Efficient Image Segmentation)

  • 김현종;박영배
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권10호
    • /
    • pp.1332-1344
    • /
    • 2004
  • 최근 초고속 통신망 및 멀티미디어 관련기술의 발달로 인해 멀티미디어 데이타를 좀 더 효율적으로 전송하고 저장, 검색하는 기술이 요구되고 있다. 그 중에서 의미 기반 영상 검색은 색상, 질감, 모양 정보 등의 저 차원 특징 정보와 이미지 데이타에 의미를 부여하기 위해 주석 처리하는 것이 일반적이다. 그리고 부여된 키워드와 같은 어휘 사전을 이용하여 의미기반 정보검색을 수행하고 있지만, 기존의 키 워드기반 텍스트 정보검색의 한계를 벗어나지 못하는 문제를 야기 시킨다. 두 번째 문제점으로 내용 기반이미지 검색시스템에서 검색 성능이 떨어지며, 복잡한 배경을 가진 이미지에서 객체를 분리하기가 어렵고, 그리고 영역의 과잉 분할로 인하여 영역 추출이 어렵다. 그리고 복잡한 다중 객체를 가진 이미지에서 객체들을 분리하기 어렵다는 것이다. 이러한 문제점들을 해결하기 위해서, 본 논문에서는 총 다섯 가지 단계로 처리할 수 있는 내용 기반 검색 시스템을 구축한다. 다섯 단계 중에서 가장 중요한 부분은 RGB 이미지들 중에서 배경이 가장 큰 것과 가장 작은 것을 추출한다. 특히, 배경이 가장 큰 이미지를 이용하여 피사체와 배경을 추출하는 방법을 제안한다. 두 번째 문제점을 해결하기 위해서, RGB 채널 분할 기법을 이용하여 객체를 분리하고, Watermerge의 임계값을 이용하여 영역의 과잉분할을 최적화하며, RGB 채널 선택 기법을 이용하여 다중객체를 분리하는 방법을 제안한다. 실험을 통하여 기존에 검색하기 어려웠던 복잡한 객체들을 검색하는 방법들을 대체할 수 있도록, 제안한 기법이 기존의 방법보다 검색 성능이 우수함을 입증한다.과 황산이온의 농도에 따르는 것으로 생각된다. 이상과 같이, 에트린자이트는 콘크리트 내에서 다양한 내외부적인 화학작용 따라 특징적인 산출 양상을 보이며, 주변 환경 조건에 따라 다른 광물로 전이되는 나타내었다. 이러한 연구결과, 에트린자이트의 생성에 따른 콘크리트의 성능저하는 그 광물학적 특성과 분포양상에 관련성을 가지는 것으로 나타났다.인 상관관계를 보이지 않는 것으로 나타난다. 이에 비해서 팽윤도는 벤토나이트의 광물조성, 표면전하 특성, 입도 및 형상 등의 물리화학적 성향을 포괄하는 체표면적 수치와 대략적으로 반비례적인 관계를 보인다 따라서 벤토나이트 현탁액에서의 유변학적 특성은 몬모릴로나이트의 표면전하 특성, 형태, 입도 및 조직 등의 차이에 의해서 달라지는 점토 입자들의 응집특성 및 취합결정체의 형상에 주로 규제되고, 제올라이트와 같은 미세한 불순 광물성분들의 영향도 부수적으로 관여되는 복합적인 성향인 것으로 해석된다.18.88%이상 향상시키는 것으로 나타났다. 3. 유지방 함량 23.80%인 control 치즈의 cholesterol 함량은 81.47mg/100g이었고, 균질압력 1200psi(91kg/$cm^2$)에 $\beta$-cyclodextrin 2%를 첨가한 cheese에서는 cholesterol 함량이 20.15mg/100g으로 cholesterol 제거율이 75.27%로 가장 높게 나타났다. 4. Meltability는 균질압력 1200psi(91kg/$cm^2$)에 $\beta$-cyclodextrin 1과 2%로 처리한

Coreference Resolution을 위한 3인칭 대명사의 선행사 결정 규칙 (Antecedent Decision Rules of Personal Pronouns for Coreference Resolution)

  • 강승식;윤보현;우종우
    • 정보처리학회논문지B
    • /
    • 제11B권2호
    • /
    • pp.227-232
    • /
    • 2004
  • 정보 검색 시스템에서 문서의 내용을 대표하는 용어를 추출하거나 정보 추출 및 텍스트 마이닝에서 특정 정보만을 추출하려면 고유명사에 대한 대용어 문제가 해결되어야 한다. 대용어 해소 문제는 인칭 명사에 대한 대명사의 선행사 결정 문제가 대표적이다. 본 논문에서는 한국어에서 문서의 내용을 보다 정확히 분석하기 위해 3인칭 대명사 “그/그녀/그들/그녀들”의 선행사를 결정하는 방법을 제안한다. 일반적으로 3인칭 대명사의 선행사는 현재 문장 또는 이전 문장의 주어인 경우가 많고, 또한 3인칭 대명사가 2회 이상 반복되는 경우가 자주 발생한다. 이러한 특성을 이용하여 현재 문장과 이전 문장에 출현한 인칭 명사들 중에서 선행사로 사용되는 경우를 조사하여 선행사 결정 규칙을 발견하였다. 이 경험 규칙은 3인칭 대명사의 격에 따라 조금씩 달라지기 때문에 대명사의 격에 따라 주격, 목적격, 소유격으로 구분하여 기술하였다. 제안한 방법의 타당성을 검증하기 위하여 신문 기사의 정치 관련 문서에서 대명사의 격에 따라 100개씩 총 300개의 실험 대상을 선정하였으며, 실험 결과로 3인칭 대명사의 선행사 결정 정확도는 재현율이 79.0%, 정확률이 86.8%로 나타났다.

텍스트 마이닝 기법을 이용한 컴퓨터공학 및 정보학 분야 연구동향 조사: DBLP의 학술회의 데이터를 중심으로 (Investigation of Topic Trends in Computer and Information Science by Text Mining Techniques: From the Perspective of Conferences in DBLP)

  • 김수연;송성전;송민
    • 정보관리학회지
    • /
    • 제32권1호
    • /
    • pp.135-152
    • /
    • 2015
  • 이 논문의 연구목적은 컴퓨터공학 및 정보학 관련 연구동향을 분석하는 것이다. 이를 위해 텍스트마이닝 기법을 이용하여 DBLP(Digital Bibliography & Library Project)의 학술회의 데이터를 분석하였다. 대부분의 연구동향 분석 연구가 계량서지학적 연구방법을 사용한 것과 달리 이 논문에서는 LDA(Latent Dirichlet Allocation) 기반 다항분포 토픽모델링 기법을 이용하였다. 가능하면 컴퓨터공학 및 정보학과 관련된 광범위한 자료를 수집하기 위해서 DBLP에서 컴퓨터공학 및 정보학과 관련된 353개의 학술회의를 수집 대상으로 하였으며 2000년부터 2011년 기간 동안 출판된 236,170개의 문헌을 수집하였다. 토픽모델링 결과와 주제별 문헌 수, 주제별 학술회의 수를 조사하여 2000년부터 2011년 사이의 주제별 상위 저자와 주제별 상위 학술회의를 제시하였다. 주제동향 분석 결과 네트워크 관련 연구 주제 분야는 성장 패턴을 보였으며, 인공지능, 데이터마이닝 관련 연구 분야는 쇠퇴 패턴을 나타냈고, 지속 패턴을 보인 주제는 웹, 텍스트마이닝, 정보검색, 데이터베이스 관련 연구 주제이며, HCI, 정보시스템, 멀티미디어 시스템 관련 연구 주제 분야는 성장과 하락을 지속하는 변동 패턴을 나타냈다.

XSTAR: XML 질의의 SQL 변환 알고리즘 (XSTAR: XQuery to SQL Translation Algorithms on RDBMS)

  • 홍동권;정민경
    • 한국지능시스템학회논문지
    • /
    • 제17권3호
    • /
    • pp.430-433
    • /
    • 2007
  • XML이 다양한 분야에 널지 이용되면서 대용량의 XML을 효과적으로 관리하는 여러 가지 방법들이 연구되고 있다. 특히 지금가지 상업적, 기술적으로 성공적인 데이터 모델인 관계형 데이터베이스를 기반으로 한 여러 가지 방법들이 연구되고 있다. 본 논문은 관계형 DBMS를 사용하여 XML 질의어인 XQuery를 SQL로 변환하는 알고리즘인 XSTAR(XQuery to SQL Translation Algorithms on RDBMS)를 설계 및 구현한다. 본 연구의 XSTAR 알고리즘은 기본적인 XPath 뿐만 아니라 XQuery FLWOR 표현식, XQuery함수, 그리고 전문 검색(Fulltext 검색[8])과 관련된 몇몇 특수한 기능을 효율적으로 지원할 수 있으며, 질의의 결과 값을 XML 형태로 재생성하여 사용자에게 반환한다. 본 논문에서 제안하는 XSTAR 알고리즘은 현재 웹 상에서 공개적으로 시범 운용되고 있는 XML 문서의 관리 및 질의 처리 시스템인 XPERT(XML Query Processing Engine using Relational Technologies, http://dblab.kmu.ac.kr/project.jsp")의 질의 처리 엔진으로 사용되고 있다.

특징, 색상 및 텍스처 정보의 가공을 이용한 Bag of Visual Words 이미지 자동 분류 (Improved Bag of Visual Words Image Classification Using the Process of Feature, Color and Texture Information)

  • 박찬혁;권혁신;강석훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 추계학술대회
    • /
    • pp.79-82
    • /
    • 2015
  • 이미지를 분류하고 검색하는 기술(Image retrieval)중 하나인 Bag of visual words(BoVW)는 특징점(feature point)을 이용하는 방법으로 데이터베이스의 이미지 특징벡터들의 분포를 통해 쿼리 이미지를 자동으로 분류하고 검색해주는 시스템이다. Words를 구성하는데 특징벡터만을 이용하는 기존의 방법은 이용자가 원하지 않는 이미지를 검색하거나 분류할 수 있다. 이러한 단점을 해결하기 위해 특징벡터뿐만 아니라 이미지의 전체적인 분위기를 표현할 수 있는 색상정보나 반복되는 패턴 정보를 표현할 수 있는 텍스처 정보를 Words를 구성하는데 포함시킴으로서 다양한 검색을 가능하게 한다. 실험 부분에서는 특징정보만을 가진 words를 이용해 이미지를 분류한 결과와 색상정보와 텍스처 정보가 추가된 words를 가지고 이미지를 분류한 결과를 비교하였고 새로운 방법은 80~90%의 정확도를 나타내었다.

  • PDF

정보 검색을 위한 숫자의 해석에 관한 구문적.의미적 판별 기법 (Syntactic and Semantic Disambiguation for Interpretation of Numerals in the Information Retrieval)

  • 문유진
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권8호
    • /
    • pp.65-71
    • /
    • 2009
  • 월드 와이드 웹의 정보 검색에서 산출되어지는 수많은 정보를 효율적으로 검색하기 위해서 자연어 정보처리가 필수적이다. 이 논문은 텍스트에서 숫자의 의미 파악을 위한 판별기법을 제안한 것이다. 숫자 의미 판별기법은 챠트 파싱 기법과 함께 문맥자유 문법을 활용하여 숫자 스트링과 연관된 접사를 해석하였으며, N-그램 기반의 단어에 의거하여 조직화된 의미 파악을 하도록 설계되었다. 그리고 POS 태거를 사용하여 트라이그램 단어의 제한조건이 자동 인식되도록 시스템을 구성하여, 점진적으로 효율적인 숫자의 의미 파악을 하도록 하였다. 이 논문에서 제안한 숫자 해석 시스템을 실험한 결과, 빈도수 비례 방법은 86.3%의 정확률을 나타냈고 조건수 비례 방법은 82.8%의 정확률을 나타냈다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

Structural SVM을 이용한 백과사전 문서 내 생략 문장성분 복원 (Restoring Omitted Sentence Constituents in Encyclopedia Documents Using Structural SVM)

  • 황민국;김영태;나동열;임수종;김현기
    • 지능정보연구
    • /
    • 제21권2호
    • /
    • pp.131-150
    • /
    • 2015
  • 영어와 달리 한국어나 일본어 문장의 경우 용언의 필수격을 채우는 명사구가 생략되는 무형대용어 현상이 빈번하다. 특히 백과사전이나 위키피디아의 문서에서 표제어로 채울 수 있는 격의 경우 그 격이 문장에서 더 쉽게 생략된다. 정보검색, 질의응답 시스템 등 주요 지능형 응용시스템들은 백과사전류의 문서에서 주요한 정보를 추출하여 수집하여야 한다. 그러나 이러한 명사구 생략 현상으로 인해 양질의 정보추출이 어렵다. 본 논문에서는 백과사전 종류 문서에서 생략된 명사구 즉 무형대용어를 복원하는 시스템의 개발을 다루었다. 우리 시스템이 다루는 문제는 자연어처리의 무형대용어 해결 문제와 거의 유사하나, 우리 문제의 경우 문서의 일부가 아닌 표제어도 복원에 이용할 수 있다는 점이 다르다. 무형대용어 복원을 위해서는 먼저 무형대용어의 탐지 즉 문서 내에서 명사구 생략이 일어난 곳을 찾는 작업을 수행한다. 그 다음 무형대용어의 선행어 탐색 즉 무형대용어의 복원에 사용될 명사구를 문서 내에서 찾는 작업을 수행한다. 문서 내에서 선행어를 발견하지 못하면 표제어를 이용한 복원을 시도해 본다. 우리 방법의 특징은 복원에 사용된 문장성분을 찾기 위해 Structural SVM을 사용하는 것이다. 문서 내에서 생략이 일어난 위치보다 앞에 나온 명사구들에 대해 Structural SVM에 의한 시퀀스 레이블링(sequence labeling) 작업을 시행하여 복원에 이용 가능한 명사구인 선행어를 찾아내어 이를 이용하여 복원 작업을 수행한다. 우리 시스템의 성능은 F1 = 68.58로 측정되었으며 이는 의미정보의 이용 없이 달성한 점을 감안하면 높은 수준으로 평가된다.

근대 한국기독교 자료의 디지털 아카이브 시스템 구축에 관한 연구 (A Study on Constructing a Digital Archive System of the Modern Korean Christian Collections)

  • 양지안
    • 한국콘텐츠학회논문지
    • /
    • 제22권8호
    • /
    • pp.681-691
    • /
    • 2022
  • 본 연구는 우리나라 개화기 이후 해방될 때까지 근대 시기에 발행된 한국기독교 관련 자료를 다수 소장하고 있는 S대학교 한국기독교박물관의 자료목록을 분석하여 이를 대상으로 디지털 아카이브 시스템을 구축하는데 목적이 있다. 한국 근대 시기의 기독교자료에 관한 디지털 아카이브 시스템 구축을 위해 대상 자료에 대한 색인과 메타데이터를 형식에 맞게 작성하였다. 선별된 자료를 디지털화한 후, 메타데이터 정보를 이용하여 데이터베이스를 구축하였고, 실제 시스템은 웹 표준 기반의 관리시스템과 이용자서비스시스템으로 나누어 구축하였다. 디지털 아카이브의 원활한 이용을 위해 내용기반의 검색시스템을 구축하였으며, 한 글자 단위의 검색결과 매칭값을 제공하고 검색어 자동완성 기능을 구현함으로써 이용자의 편의성을 제고하였다. 이를 통해 원문접근이 어려운 박물관 자료를 손쉽게 이용할 수 있도록 디지털화하여 제공함으로써 인문학 콘텐츠의 장기적 발전의 토대를 마련하여 연구자 및 대중들의 자료 접근성 및 활용성을 제고할 수 있는 기반을 마련하였다.

텍스트 내용 기반의 철학 온톨로지 구축 및 교육에의 응용 (Building a Philosophy Ontology based on Content of Texts and its Application to Learning)

  • 정현숙;최병일
    • 정보교육학회논문지
    • /
    • 제9권2호
    • /
    • pp.257-270
    • /
    • 2005
  • 철학을 비롯한 인문학의 연구에 있어서 연구자들에게 텍스트는 지식을 습득하는 중요한 매체이다. 그러나 현재의 서지정보 중심의 문헌 검색으로는 연구자들이 여러 텍스트들로부터 필요한 지식만을 선택적으로 습득하는데 많은 시간과 노력을 들인다. 본 논문에서는 텍스트 내용에 의거한 지식 검색이 가능하도록 철학 고전 텍스트를 대상으로 철학 온톨로지를 구축하였다. 철학 온톨로지는 전문가에 의해 동서양의 철학 고전 텍스트로부터 분석된 주요 철학 개념과 의미 기반 계층관계 및 연관관계 정의하고 있으며 개념 해설서를 비롯한 온오프라인의 철학 지식 자원들을 연결하고 있다. 본 논문에서는 철학 온톨로지 구축 과정을 3개의 단계와 14개의 세부과정으로 나열함으로써 다른 분야의 학문 온톨로지 구축을 위한 하나의 가이드라인을 제시하고 있으며 철학 온톨로지의 응용사례로서 대학의 철학 수업에서의 교수자와 학습자 사이의 철학 온톨로지에 기반한 지식 습득 및 교류가 가능함을 보였다.

  • PDF