• Title/Summary/Keyword: 지식 추출

Search Result 1,097, Processing Time 0.036 seconds

A Study On Extraction System Of Trackback Address For Knowledge Service Based On Using AJAX (AJAX를 이용한 웹 기반 지식 서비스의 트랙백 주소 추출 시스템에 관한 연구)

  • Ku, Min-O;Kyung, Min-Gi;Min, Dug-Ki
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2010.05a
    • /
    • pp.547-552
    • /
    • 2010
  • 지식서비스에서는 최근 자사의 지식정보에 대해 대표적인 지식 구축 채널로 발전중인 블로그(Blog)와의 연계를 추구하기 위해 트랙백(Trackback) 서비스 제공하고 있으며 이를 통해 자사를 넘어 다양한 블로그 서비스를 통해 지식 정보를 제공하고 있는 블로그 사이트들 과의 지식 체인(Knowledge Chain)을 형성하고 있다. 본 논문에서는 지식 체인 서비스를 제공하고 있는 다음 커뮤니케이션사의 지식 서비스에 대한 트랙백 주소 확보를 위한 구조 및 환경에 대해 분석 제공하고 있으며, 앞서 언급한 지식서비스와 블로그간의 지식 체인 형성시 필수적으로 요구되는 트랙백 주소 확보를 보다 용이하게 할 수 있도록 웹 기반의 비동기적 통신 스크립트 기술인 AJAX를 이용하는 클라이언트 측의 웹 어플리케이션 형태의 "트랙백 주소 추출 시스템"을 제시 구현하고 있다.

  • PDF

Implementation of Question-Answering System using Wikipedia (위키백과를 이용한 질의응답 시스템의 구현)

  • Park, Young-Min;Seo, Jung-Yun
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.206-208
    • /
    • 2012
  • 본 논문에서는 위키백과를 이용한 지식DB구축의 예로서 연예인 관련 정보들을 자동으로 추출한다. 우리는 위키백과의 연예인 문서로부터 생년월일, 학력, 본명 등 총 9가지 정보들을 추출하고 이를 지식DB로 구축한다. 또한 추출된 지식 DB를 이용하여 질의응답 시스템을 구현하여 유용함을 입증하였다. 질의응답 시스템은 어휘의미패턴 방법으로 질의를 분석하고, 템플릿 기반의 문장생성 방법으로 정답을 자연어문장으로 생성한다. 성능 평가결과 총 6471명의 연예인 정보들을 추출하였고 95%에 해당하는 질의분석 성능을 제공하였다.

  • PDF

Implementation of the Game Terminology Electronics Dictionary (게임전문용어전자사전 구현에 관한 연구)

  • Im, Choong-Jae;Yun, Tae-Soo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11a
    • /
    • pp.355-358
    • /
    • 2002
  • 세계는 지식정보의 창출 및 활용정도가 국가경쟁력을 좌우하는 지식기반사회로 급격히 전환하고 있다. 이러한 상황에서 주요 지식정보의 집중적인 디지털화를 통해서 국가 지식정보 공유체계를 구축하는 것이 무엇보다 시급한 상황이다. 특히 급격하게 성장하고 있는 디지털 콘텐츠 분야의 체계적인 정보화 사업은 관련 분야의 선진국과 경쟁하기 위해서 절실하게 요구된다. 본 논문은 게임산업에 대한 체계적인 정보화를 추진하기 위해서 의미를 기반으로 한 게임전문용어전자사전 구축을 위한 연구 결과를 소개한다. 의미를 기반으로 한 게임전문용어전자사전 구축하기 위해서 다양한 형태의 게임 관련 자료를 통해서 망뭉치를 추출하였다. 추출한 망뭉치로부터 빈도수 등을 이용해서 중요한 의미를 갖는 표제어를 추출하였으며, 추출한 표제어를 이용해서 게임전문용어 시소러스를 구축하였다. 또한 웹 기반으로 게임전문용어전자사전을 구축하기 위해서 SDML 을 이용하여 전문용어를 표기했으며 다양한 검색 기능을 추가해서 게임전문용어전자사전의 프로토타입 시스템을 구축하였다.

  • PDF

A Workbench for Domain Adaptation of an MT Lexicon with a Target Domain Corpus (대상 영역 코퍼스를 이용한 번역사전의 특정 영역화를 위한 워크벤치)

  • Noh, Yoon-Hyung;Lee, Hyun-Ah;Kim, Gil-Chang
    • Annual Conference on Human and Language Technology
    • /
    • 2000.10d
    • /
    • pp.163-168
    • /
    • 2000
  • 기계번역에서 좋은 품질의 번역 결과를 얻기 위해서는 대상으로 하고 있는 전문 영역에 맞게 시스템의 번역 지식을 조정해야 한다. 본 연구에서는 대상 영역 코퍼스를 이용하여 기계번역 시스템의 특정 영역화를 지원하는 워크벤치를 설계하고 구현한다. 워크벤치는 대상 영역의 코퍼스에서 대상 영역의 지식을 추출하는 영역 지식 추출기와, 추출된 지식을 사용자에게 제시하여 사용자가 사전을 편집할 수 있는 환경을 제공하는 영역 지식 검색기와 사전 편집기로 구성된다. 구현된 워크벤치를 이용하여 일반 영역 사전을 군사 정보 영역으로 특정 영역화를 해 본 결과, 효율성과 정확성에서의 향상이 있었다.

  • PDF

An Algorithm for extracting English-Korean Transliteration pairs using Automatic I-K Transliteration (자동 음차표기를 이용한 영-한 음차표기 대역쌍의 자동 추출)

  • 오종훈;배선미;최기선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.928-930
    • /
    • 2004
  • 지금까지 기계번역과 교차언어 정보검색 등과 같은 자연언어응용에서 사용되는 번역지식을 자동으로 구축하는 연구가 활발히 진행되어 왔다. 번역지식을 자동으로 구축하는 연구는 대역사전에 등재되어 있지 않은 미등록어에 대한 대역정보를 문서에서 자동으로 획득하는 것을 목표로 한다. 최근에는 이러한 미등록어 중 음차표기 번역지식에 대한 연구가 활발히 진행되고 있다. 음차표기는 주로 영어 단어를 발음에 기반하여 비영어권의 언어로 표기하는 것을 의미한다. 음차표기된 단어들은 새로운 개념을 나타내는 신조어가 많기 때문에 사전에 등재되어 있지 않온 경우가 많다. 따라서 효과적인 번역지식 구축을 위해서는 이러한 음차표기 번역지식을 자동으로 획득하는 것은 매우 중요하다. 본 논문에서는 영-한 음차표기 대역쌍을 문서에서 자동으로 추출하는 알고리즘을 제안한다. 본 논문의 기법은 한국어 음차표기의 인식, 영-한 자동음차표기, 한국어 음차표기와 자동음차표기된 영어단어간의 음성적 유사도 비교를 통하여 음차표기 대역쌍을 추출한다. 본 논문의 기법은 약 93%의 정확률과 68%의 재현율을 나타내었다.

  • PDF

Answer Suggestion for Knowledge Search (지식검색의 답변 추천 시스템)

  • Lee, Hochang;Lee, Hyun Ah
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.201-205
    • /
    • 2012
  • 지식검색은 방대한 지식정보 데이터를 바탕으로 사용자의 질문에 대한 답변을 검색하는 시스템이다. 이러한 사용자 참여로 구축된 지식정보는 잘못된 답변으로 인한 신뢰성 부족과 중복 답변 등의 문제점이 있어, 원하는 답변을 찾기 위해서는 지식검색에서 다수의 답변을 읽고 그 답변의 진위여부를 판단해야만 한다. 만일 정답에 포함되는 단어나 어구가 답변들에서 나타내는 통계적 특성을 활용하여 사용자가 원하는 답변을 제시할 수 있다면, 지식검색의 효용성과 신뢰성이 크게 향상될 수 있다. 본 논문에서는 지식정보 데이터 분석을 통해 사용자의 질문의 유형을 단어, 목록, 도표, 글의 4가지 유형으로 분류하고, 각 분류에 대한 사용자 질의어의 답변을 요약하는 방식을 제안한다. 단어, 목록, 글 유형은 TF와 IDF, 어휘 간의 거리 정보를 통해서 중요 단어를 추출하여 각 유형에 적합한 형식의 답변을 사용자에게 제시한다. 도표형은 답변들에서 사용자의 의견 정보를 추출하여 의견 통계를 도표로서 제시한다.

  • PDF

Cross-document Relation Extraction using Bridging Context Identification (중간 문맥 식별 및 검색을 활용한 문서간 관계 추출)

  • Junyoung Son;Jinsung Kim;Jungwoo Lim;Yoonna Jang;Aram So;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.654-658
    • /
    • 2023
  • 관계 추출은 질의응답이나 대화 시스템의 기반이 되는 지식을 구추하기 위한 작업으로, 정보 추출의 기초가 되는 기술이기도 하다. 최근 실세계 지식의 희소한 형태를 구현한 문서간 관계 추출 데이터셋이 제안되어, 여러 문서를 통해 분산되어 언급된 두 개체 사이의 관계 추론을 수행 및 평가할 수 있게 되었다. 이 작업에서 추론의 대상이 되는 개체쌍은 한 문서 안에 동시에 언급되지 않기 때문에 여러 문서에 언급된 중간 개체를 통하여 직/간접적으로 추론해야 하나, 원시 텍스트에서 이러한 정보를 수집하는 작업은 쉽지 않다. 따라서, 본 연구에서는 개체의 동시발생빈도에 기반하여 중간 개체의 중요도를 정량화하고, 이 중요도에 기반화여 중요한 문맥을 식별하는 방법론을 제안한다. 제안하는 방법론은 기존의 두 문서로 구성된 추론 경로를 식별된 중간 개체를 활용하여 확장하여, 관계 추론 모델의 수정 없이 추가된 문맥만을 활용하여 문서간 관계 추출 시스템의 성능을 개선할 수 있었다.

  • PDF

Automatic Classification of Web Documents Using Concept-Based Keyword Information (개념 기반 키워드 정보를 이용한 웹 문서의 자동 분류)

  • 박사준;김기태
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.151-153
    • /
    • 2003
  • 본 연구에서는 웹 문서를 분류하기 위해서 분류하고자 하는 영역(category)에 대한 개념 지식을 이용한다. 먼저, 영역별 개념 지식을 기구축된 웹 문서의 집합으로부터 제목과 하이퍼링크에 기반한 앵커 텍스트를 이용하여 개념을 보유한 키워드를 추출한다. 추출된 키워드를 형태소 분석을 통해 색인어로 추출한다. 추출된 색인어에 대해 TFIDF를 확장한 영역 적용 색인 가중치 TFIDFc를 적용하여 영역별 개념 기반 색인어와 색인를 구축한다. 색인은 TFIDF를 영역별로 확장하여 구축한다. 구축된 영역별 개념 기반 색인을 이용하여 새로운 웹 문서에 대해서 어떤 영역에 해당하는 가를 결정하는 자동 분류 알고리즘을 수행한다. 자동 분류 알고리즘에 의해 수행된 문서는 영역별로 정리되며, 또한, 분류된 웹 문서의 색인어는 새로운 개념 기반 키워드로 추출되어 개념 기반 영역 지식을 구축한다.

  • PDF

Iterative learning system design for relation extraction and knowledge base population (관계 추출 및 지식베이스 확장을 위한 반복 학습 시스템 설계)

  • Jeong, Yong-Bin;Nam, Sang-Ha;Kim, Ji-Seong;Lee, Min-Ho;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.185-189
    • /
    • 2019
  • 관계추출기의 학습을 위해서는 많은 학습 데이터가 필요한데, 사람이 모으게 되면 많은 비용이 필요하여 원격 지도 학습을 이용한 데이터 수집이 많은 연구에서 사용되고 있다. 원격 지도 학습은 지식베이스를 기반으로 학습 데이터를 자동으로 만들어 내는 방식이기에 비용이 거의 들지 않지만, 지식베이스의 질과 양에 영향을 받는다. 본 연구는 원격 지도 학습을 기본으로 관계추출기의 성능을 향상 시키고, 지식베이스를 확장하는 방안으로 반복학습을 제안한다. 실험을 적은 비용으로 빠르게 진행하기 위해 반복학습을 자동화 하는 시스템을 설계하여 실험을 하였고, 이 시스템으로 관계추출기의 성능이 향상 될 수 있는 가능성을 보였으며, 반복학습을 통한 지식베이스의 확장 방안을 제시한다.

  • PDF

Knowledge Extraction Methodology and Framework from Wikipedia Articles for Construction of Knowledge-Base (지식베이스 구축을 위한 한국어 위키피디아의 학습 기반 지식추출 방법론 및 플랫폼 연구)

  • Kim, JaeHun;Lee, Myungjin
    • Journal of Intelligence and Information Systems
    • /
    • v.25 no.1
    • /
    • pp.43-61
    • /
    • 2019
  • Development of technologies in artificial intelligence has been rapidly increasing with the Fourth Industrial Revolution, and researches related to AI have been actively conducted in a variety of fields such as autonomous vehicles, natural language processing, and robotics. These researches have been focused on solving cognitive problems such as learning and problem solving related to human intelligence from the 1950s. The field of artificial intelligence has achieved more technological advance than ever, due to recent interest in technology and research on various algorithms. The knowledge-based system is a sub-domain of artificial intelligence, and it aims to enable artificial intelligence agents to make decisions by using machine-readable and processible knowledge constructed from complex and informal human knowledge and rules in various fields. A knowledge base is used to optimize information collection, organization, and retrieval, and recently it is used with statistical artificial intelligence such as machine learning. Recently, the purpose of the knowledge base is to express, publish, and share knowledge on the web by describing and connecting web resources such as pages and data. These knowledge bases are used for intelligent processing in various fields of artificial intelligence such as question answering system of the smart speaker. However, building a useful knowledge base is a time-consuming task and still requires a lot of effort of the experts. In recent years, many kinds of research and technologies of knowledge based artificial intelligence use DBpedia that is one of the biggest knowledge base aiming to extract structured content from the various information of Wikipedia. DBpedia contains various information extracted from Wikipedia such as a title, categories, and links, but the most useful knowledge is from infobox of Wikipedia that presents a summary of some unifying aspect created by users. These knowledge are created by the mapping rule between infobox structures and DBpedia ontology schema defined in DBpedia Extraction Framework. In this way, DBpedia can expect high reliability in terms of accuracy of knowledge by using the method of generating knowledge from semi-structured infobox data created by users. However, since only about 50% of all wiki pages contain infobox in Korean Wikipedia, DBpedia has limitations in term of knowledge scalability. This paper proposes a method to extract knowledge from text documents according to the ontology schema using machine learning. In order to demonstrate the appropriateness of this method, we explain a knowledge extraction model according to the DBpedia ontology schema by learning Wikipedia infoboxes. Our knowledge extraction model consists of three steps, document classification as ontology classes, proper sentence classification to extract triples, and value selection and transformation into RDF triple structure. The structure of Wikipedia infobox are defined as infobox templates that provide standardized information across related articles, and DBpedia ontology schema can be mapped these infobox templates. Based on these mapping relations, we classify the input document according to infobox categories which means ontology classes. After determining the classification of the input document, we classify the appropriate sentence according to attributes belonging to the classification. Finally, we extract knowledge from sentences that are classified as appropriate, and we convert knowledge into a form of triples. In order to train models, we generated training data set from Wikipedia dump using a method to add BIO tags to sentences, so we trained about 200 classes and about 2,500 relations for extracting knowledge. Furthermore, we evaluated comparative experiments of CRF and Bi-LSTM-CRF for the knowledge extraction process. Through this proposed process, it is possible to utilize structured knowledge by extracting knowledge according to the ontology schema from text documents. In addition, this methodology can significantly reduce the effort of the experts to construct instances according to the ontology schema.