• 제목/요약/키워드: keyword extraction

검색결과 191건 처리시간 0.02초

키워드 추출 및 유사도 평가를 통한 태그 검색 시스템 (Tag Search System Using the Keyword Extraction and Similarity Evaluation)

  • 정재인;유명식
    • 한국통신학회논문지
    • /
    • 제40권12호
    • /
    • pp.2485-2487
    • /
    • 2015
  • 해시태그는 현재 페이스북, 트위터와 같은 SNS와 개인 블로그 등에서 활발하게 사용되고 있다. 하지만 스팸성 목적 또는 게시글 조회수 증가 등의 목적으로 무분별하게 해시태그를 사용하여 태그검색의 효율성이 떨어지고 있다. 이에 따라 본 논문에서는 태그검색의 정확도를 높이고자 기존의 키워드 추출 알고리즘과 단어간 유사도 평가 알고리즘을 이용한 태그 검색 시스템을 제안하였다. 제안하는 시스템의 테스트 결과 태그 검색의 정확도가 향상됨을 알 수 있었다.

특허 문서로부터 키워드 추출을 위한 위한 텍스트 마이닝 기반 그래프 모델 (Text-mining Based Graph Model for Keyword Extraction from Patent Documents)

  • 이순근;임영문;엄완섭
    • 대한안전경영과학회지
    • /
    • 제17권4호
    • /
    • pp.335-342
    • /
    • 2015
  • The increasing interests on patents have led many individuals and companies to apply for many patents in various areas. Applied patents are stored in the forms of electronic documents. The search and categorization for these documents are issues of major fields in data mining. Especially, the keyword extraction by which we retrieve the representative keywords is important. Most of techniques for it is based on vector space model. But this model is simply based on frequency of terms in documents, gives them weights based on their frequency and selects the keywords according to the order of weights. However, this model has the limit that it cannot reflect the relations between keywords. This paper proposes the advanced way to extract the more representative keywords by overcoming this limit. In this way, the proposed model firstly prepares the candidate set using the vector model, then makes the graph which represents the relation in the pair of candidate keywords in the set and selects the keywords based on this relationship graph.

단어 동시출현관계로 구축한 계층적 그래프 모델을 활용한 자동 키워드 추출 방법 (Automatic Keyword Extraction using Hierarchical Graph Model Based on Word Co-occurrences)

  • 송광호;김유성
    • 정보과학회 논문지
    • /
    • 제44권5호
    • /
    • pp.522-536
    • /
    • 2017
  • 키워드 추출은 주어진 문서로부터 문서의 주제나 내용에 관련된 단어들을 추출해내는 방법으로 대량의 문서를 다루는 텍스트마이닝 연구들이 전처리에서 공통적으로 거치는 대표 자질 추출에서 중요하게 활용될 수 있다. 본 논문에서는 하나의 문서의 주제에 적합한 키워드를 추출하기 위해 문서에 출현한 단어들 사이의 동시출현관계, 동시출현 단어 쌍 사이의 출현 종속 관계, 단어들 사이의 공통 부분단어 관계 등의 다양한 관계들을 특징으로 활용하여 구축한 계층적 그래프 모델을 제안하고, 그래프를 구성하는 정점(Vertex)들의 중요도를 평가할 때 입력 간선(Edge)에 의한 영향뿐만 아니라 출력 간선에 의한 영향도 고려한 새로운 중요도 산출 방법을 제안하며, 이를 토대로 점진적으로 키워드를 추출해내는 방안을 제안한다. 그리고 제안한 방법의 정확성과 주제적 포괄성 검증을 위해 다양한 분야의 주제를 가진 문서 데이터에 다양한 평가방법을 적용해 기존의 방법보다 전체적으로 더 나은 성능을 보임을 확인하였다.

XML 문서 키워드 가중치 분석 기반 문단 추출 모델 (XML Document Keyword Weight Analysis based Paragraph Extraction Model)

  • 이종원;강인식;정회경
    • 한국정보통신학회논문지
    • /
    • 제21권11호
    • /
    • pp.2133-2138
    • /
    • 2017
  • 기존의 XML 문서나 다른 문서는 단어를 중심으로 분석이 진행되었다. 이는 형태소 분석기를 활용하여 구현이 가능하나 문서 내에 기재되어 있는 많은 단어를 분류할 뿐 문서의 핵심 내용을 파악하기에는 어려움이 있다. 사용자가 문서를 효율적으로 이해하기 위해서는 주요 단어가 포함되어 있는 문단을 추출하여 사용자에게 보여주어야 한다. 본 논문에서 제안하는 시스템은 정규화 된 XML 문서 내에 키워드를 검색하고 사용자가 입력한 키워드들이 포함되어 있는 문단을 추출하여 사용자에게 보여준다. 그리고 검색에 사용된 키워드들의 빈도수와 가중치를 사용자에게 알려주고 추출한 문단의 순서와 중복 제거 기능을 통해 사용자가 문서를 이해하는데 발생할 수 있는 오류를 최소화하였다. 제안하는 시스템은 사용자가 문서 전체를 읽지 않고 문서를 이해할 수 있게 하여 문서를 이해하는데 필요한 시간과 노력을 최소화할 수 있을 것으로 사료된다.

국내(國內) 문헌정보(文獻情報) 검색(檢索)을 위한 키워드 자동추출(自動抽出) 시스템 개발(開發) (Automatic Keyword Extraction System for Korean Documents Information Retrieval)

  • 예용희
    • 정보관리연구
    • /
    • 제23권1호
    • /
    • pp.39-62
    • /
    • 1992
  • 본(本) 연구(硏究)는 실제의 데이터 분석(分析)을 통하여 60여개의 조사(助詞)와 출현빈도는 높지만 검색(檢率)에 불필요한 320여개의 불용어(不用語)를 선정하여 좌우절단을 적용한 네 가지 유형으로 분류하고 조사(助詞)와 불용어 테이블을 구성하는 방법(方法)을 제시한다. 한글문헌에서 단어(單語)가 추출되면 조사의 효율적인 절단이 이러우지고, 한자어(漢字語)일 경우 한글로 변환되며, 2단계로 불용어제거(不用語除去) 과정을 거쳐 키워드를 선정하는 시스템을 개발한다. 여기서 추출된 키워드는 정보전문가(情報專門家)에 의해 추출된 색인어(索引語)와는 92.2%의 일치율을 보였다. 그리고 $4{\sim}6$글자로 구성된 복합어(複合語)의 경우 본(本) 연구(硏究)에서 제시한 분리방법에 의해 약 2배의 새로운 단어(單語)를 추가할 수 있었으며 그 중 58.8%가 키워드로 적합했다.

  • PDF

한글 형태소 및 키워드 분석에 기반한 웹 문서 분류 (Web Document Classification Based on Hangeul Morpheme and Keyword Analyses)

  • 박단호;최원식;김홍조;이석룡
    • 정보처리학회논문지D
    • /
    • 제19D권4호
    • /
    • pp.263-270
    • /
    • 2012
  • 최근 초고속 인터넷과 대용량 데이터베이스 기술의 발전으로 웹 문서의 양이 크게 증가하였으며, 이를 효과적으로 관리하기 위하여 문서의 주제별 자동 분류가 중요한 문제로 대두되고 있다. 본 연구에서는 한글 형태소 및 키워드 분석에 기초한 문서 특성 추출 방법을 제안하고, 이를 이용하여 웹 문서와 같은 비구조적 문서의 주제를 예측하여 문서를 자동으로 분류하는 방법을 제시한다. 먼저, 문서 특성 추출을 위하여 한글 형태소 분석기를 사용하여 용어를 선별하고, 각 용어의 빈도와 주제 분별력을 기초로 주제 분별 용어인 키워드 집합을 생성한 후, 각 키워드에 대하여 주제 분별력에 따라 점수화한다. 다음으로, 추출된 문서 특성을 기초로 상용 소프트웨어를 사용하여 의사 결정 트리, 신경망 및 SVM의 세 가지 분류 모델을 생성하였다. 실험 결과, 제안한 특성 추출 방법을 이용한 문서 분류는 의사 결정 트리 모델의 경우 평균 Precision 0.90 및 Recall 0.84 로 상당한 정도의 분류 성능을 보여 주었다.

개념기반 복합키워드 추출방법 (Concept-based Compound Keyword Extraction)

  • 이상곤;이태헌
    • 컴퓨터교육학회논문지
    • /
    • 제6권2호
    • /
    • pp.23-31
    • /
    • 2003
  • 인간은 문서를 읽고 그 내용을 머릿속에서 개념적으로 정리하여 적은 수의 복합단어를 이용하여 문서를 대표하는 적당한 키워드로 정리한다. 본 논문은 이러한 점에 착안하여 문서를 대표하는 키워드를 추출하는 방법을 제안한다. 학술논문을 실험 예로 사용하여 저자가 자신의 문서에 부여한 키워드가 문서의 본문 중에 출현하지 않는 경우에도 동작하도록 출현단어의 개념정보를 기초로 복합어 생성규칙을 구축한다. 문서의미와 상관없는 키워드의 추출을 억제하기 위해 중요도 결정법을 새로 제안한다. 추출된 키워드의 타당성 여부는 자연언어와 음성언어에 관한 논문의 제목과 요약을 수집하여 실험하였다. 또한 저자가 부여한 키워드와 본 시스템이 출력한 키워드를 비교 한 결과, 상위 한 개의 정확율이 96%가 되어 제안방법의 유용성을 확인하였다.

  • PDF

플립러닝 연구 동향에 대한 키워드 네트워크 분석 연구 (A Study on the Research Trends to Flipped Learning through Keyword Network Analysis)

  • 허균
    • 수산해양교육연구
    • /
    • 제28권3호
    • /
    • pp.872-880
    • /
    • 2016
  • The purpose of this study is to find the research trends relating to flipped learning through keyword network analysis. For investigating this topic, final 100 papers (removed due to overlap in all 205 papers) were selected as subjects from the result of research databases such as RISS, DBPIA, and KISS. After keyword extraction, coding, and data cleaning, we made a 2-mode network with final 202 keywords. In order to find out the research trends, frequency analysis, social network structural property analysis based on co-keyword network modeling, and social network centrality analysis were used. Followings were the results of the research: (a) Achievement, writing, blended learning, teaching and learning model, learner centered education, cooperative leaning, and learning motivation, and self-regulated learning were found to be the most common keywords except flipped learning. (b) Density was .088, and geodesic distance was 3.150 based on keyword network type 2. (c) Teaching and learning model, blended learning, and satisfaction were centrally located and closed related to other keywords. Satisfaction, teaching and learning model blended learning, motivation, writing, communication, and achievement were playing an intermediary role among other keywords.

키워드 네트워크 분석을 통한 난독증과 학습장애 관련 연구 동향 분석 (A Study on the Research Trend in the Dyslexia and Learning Disability Trough a Keyword Network Analysis)

  • 이우진;김태강
    • 디지털융복합연구
    • /
    • 제17권1호
    • /
    • pp.91-98
    • /
    • 2019
  • 본 연구는 난독증과 학습장애 관련 연구 동향과 키워드 네트워크 분석을 통한 관련 변인의 중심성을 알아보는데 그 목적이 있다. 2008년부터 2018년까지 학술교육학술정보원에서 제공하는 학술연구정보서비스 사이트 데이터베이스를 활용하여 연구 목록을 수집하였다. 분석대상으로 선정된 407편의 연구 주제는 키워드 클렌징 작업을 거쳐 KrKwic 프로그램을 이용하여 주요 키워드를 추출하였고 키워드 간 연결중심성을 시각화를 하기 위해 NodeXL프로그램을 활용하였다. 분석결과 다음과 같은 연구결과를 도출하였다. 첫째, 난독증과 학습장애 연구주제 총 72개의 키워드가 추출되었고 주요키워드에는 학습장애, 읽기장애, 난독증, 중재반응모형 순으로 제시하고 있었다. 둘째, 난독증과 학습장애의 관련 매개 키워드 중심성을 분석한 결과 학습장애가 국내 난독증 및 학습장애 관련 연구에서 주요한 키워드로 볼 수 있다. 이러한 연구결과를 통해 난독증과 학습장애와 관련해 정량적 분석과 정성적 분석을 절충한 연구동향 분석방법을 제시하였다는 점에서 의의가 있다고 할 수 있다.

퍼지 추론을 이용한 소수 문서의 대표 키워드 추출 (Representative Keyword Extraction from Few Documents through Fuzzy Inference)

  • 노순억;김병만;허남철
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 추계학술대회 학술발표 논문집
    • /
    • pp.117-120
    • /
    • 2001
  • In this work, we propose a new method of extracting and weighting representative keywords(RKs) from a few documents that might interest a user. In order to extract RKs, we first extract candidate terms and then choose a number of terms called initial representative keywords (IRKS) from them through fuzzy inference. Then, by expanding and reweighting IRKS using term co-occurrence similarity, the final RKs are obtained. Performance of our approach is heavily influenced by effectiveness of selection method of IRKS so that we choose fuzzy inference because it is more effective in handling the uncertainty inherent in selecting representative keywords of documents. The problem addressed in this paper can be viewed as the one of calculating center of document vectors. So, to show the usefulness of our approach, we compare with two famous methods - Rocchio and Widrow-Hoff - on a number of documents collections. The results show that our approach outperforms the other approaches.

  • PDF