• 제목/요약/키워드: Keyword weight

검색결과 59건 처리시간 0.024초

키워드 네트워크 분석을 활용한 치위생과학회지 연구동향 분석 (Analysis of Journal of Dental Hygiene Science Research Trends Using Keyword Network Analysis)

  • 강용주;윤선주;문경희
    • 치위생과학회지
    • /
    • 제18권6호
    • /
    • pp.380-388
    • /
    • 2018
  • 본 연구는 키워드 네트워크 분석 방법을 활용하여 치위생과학회지 2001년부터 2018년 3호까지 게재된 논문 953편의 키워드를 추출하여 연구 구조를 파악하기 위해 키워드 분석과 핵심어를 파악하기 위해 중심성 분석을 실시하였다. 그리고 5년 단위로 1기를 2001년부터 2005년까지, 2기를 2006년부터 2010년까지, 3기를 2011년부터 2015년까지, 4기를 2016년부터 2018년까지로 구분하여 연구동향을 분석하여 다음과 같은 결론을 얻었다. 치위생과학회지에서 도출된 총 1,454개의 단어 중에서 17년간 치위생과학회지 투고 논문에서 가장 많이 쓰인 단어는 'Health'이며 'Dental', 'Oral', 'Hygiene', 'Hygienist'에 관한 논의가 가장 활발하였음을 알 수 있었다. 중심성 분석을 통해 치위생과학회지에서 핵심이 되는 단어들과 연결되며 중심을 형성하고 있는 단어들은 'Health', 'Dental', 'Oral', 'Hygiene', 'Hygienist', 'Behavior' 등이며, 매개중심성 상위 단어들은 'Dental', 'Health', 'Oral', 'Hygiene', 'Student' 등으로 나타났다. 시기별 연결중심성 핵심 키워드를 살펴본 결과, 1기에서는 Health (0.227), Dental (0.136), Hygiene (0.136) 등, 2기에서는 Health (0.242), Dental (0.177), Hygiene (0.113) 등, 3기에서는 Health (0.200), Dental (0.176), Oral (0.082) 등, 4기에서는 Dental (0.235), Health (0.206), Oral (0.147) 등의 단어들이 나타났다. 각 시기별로 매개중심성은 1기에서는 Oral (0.281)과 Health (0.199)의 매개중심성이 높게 나타났으며, 2기에서는 Dental (0.205)과 Health (0.169)가 높게 나와 매개역할의 비중이 높다가 Hygiene (0.112), Hygienist (0.054), Oral (0.053) 등으로 매개역할의 비중이 분산되는 것을 알 수 있었다. 3기에서는 Health (0.258)와 Dental (0.246)의 매개중심성이 높게 나타났으며, 4기에서는 Oral (0.364)과 Health (0.353), Dental (0.333)의 매개중심성이 높게 나타났다. 이상의 결과를 바탕으로 향후 치위생학 연구에 있어 학문 주제에 대한 다양성과 다각화를 모색하여 많은 연구가 이루어지길 기대한다.

간호간병통합서비스 관련 온라인 기사 및 소셜미디어 빅데이터의 의미연결망 분석 (Semantic Network Analysis of Online News and Social Media Text Related to Comprehensive Nursing Care Service)

  • 김민지;최모나;염유식
    • 대한간호학회지
    • /
    • 제47권6호
    • /
    • pp.806-816
    • /
    • 2017
  • Purpose: As comprehensive nursing care service has gradually expanded, it has become necessary to explore the various opinions about it. The purpose of this study is to explore the large amount of text data regarding comprehensive nursing care service extracted from online news and social media by applying a semantic network analysis. Methods: The web pages of the Korean Nurses Association (KNA) News, major daily newspapers, and Twitter were crawled by searching the keyword 'comprehensive nursing care service' using Python. A morphological analysis was performed using KoNLPy. Nodes on a 'comprehensive nursing care service' cluster were selected, and frequency, edge weight, and degree centrality were calculated and visualized with Gephi for the semantic network. Results: A total of 536 news pages and 464 tweets were analyzed. In the KNA News and major daily newspapers, 'nursing workforce' and 'nursing service' were highly rated in frequency, edge weight, and degree centrality. On Twitter, the most frequent nodes were 'National Health Insurance Service' and 'comprehensive nursing care service hospital.' The nodes with the highest edge weight were 'national health insurance,' 'wards without caregiver presence,' and 'caregiving costs.' 'National Health Insurance Service' was highest in degree centrality. Conclusion: This study provides an example of how to use atypical big data for a nursing issue through semantic network analysis to explore diverse perspectives surrounding the nursing community through various media sources. Applying semantic network analysis to online big data to gather information regarding various nursing issues would help to explore opinions for formulating and implementing nursing policies.

당뇨병의 한의학적 치료에 대한 국내 실험연구 고찰 - 2013년 이후 (Review of Domestic Experimental Studies of Korean Medicine Treatment for Diabetes Mellitus Since 2013)

  • 손아현;고지윤;이동근;신현수
    • 대한한방내과학회지
    • /
    • 제38권1호
    • /
    • pp.10-19
    • /
    • 2017
  • Objective: This study reviewed experimental studies on the effects of Korean medical treatment for diabetes mellitus (DM). Method: We reviewed 24 studies about DM that had been published since 2013. We searched the Korean Institute of Oriental Medicine (KIOM) database with the keyword '당뇨', '消渴', 'Diabetes'. Results: 1. The studies used various Korean medicine treatments; 15 used single medicinal herbs, 6 used herbal complexes, and 2 used acupuncture. 2. The measurement parameters used in the studies included blood glucose, body weight, histochemical change, lipid parameters, and food/water intake. Anti-diabetic effects were demonstrated in most of the studies. 3. The experimental animals used were rats or mice. There were 15 type 1 diabetes models, 7 type 2 diabetes models, and one normal model. Among them, 13 cases of chemical diabetes induced by Streptozotosin (STZ, type 1 diabetes inducer) were the most common. Conclusion: Further articles on Korean medical treatment of DM should be studied.

퍼지추론을 적용한 웹 음란문서 검출 (Detection of Porno Sites on the Web using Fuzzy Inference)

  • 김병만;최상필;노순억;김종완
    • 한국지능시스템학회논문지
    • /
    • 제11권5호
    • /
    • pp.419-425
    • /
    • 2001
  • 본 논문은 인터넷 상에서 무수히 많은 음란 문서를 검출하는 방법을 제시한다. 제시된 방법은 정보검색 기술에 퍼지추론을 적용시킨 것이다. 먼저 음란 사이트 주소를 몇 개 선정하고 이 문서들로부터 어휘분석과 스테밍과정을 통하여 음란 사이트를 대표하는 후보단어들을 추출한다. 추출된 후보단어가 음란문서를 대표할 중요도를 계산하기 위해, 각 후보 단어별로 용어 빈도수(DF), 휴리스틱 정보(HI)를 계산하고 이 값들을 이용하여 퍼지추론을 수행한다. 이렇게 계산 된 후보용어의 중요도들이 주어진 사이트가 음란사이트인지 아닌지를 판별하는데 최종적으로 사용된다. 소규모 테스트 데이터를 갖고 실험한 결과, 본 논문에서 제시한 방법이 음란 사이트 자동 검출시 유용함을 알 수 있었다.

  • PDF

토픽 식별성 향상을 위한 키워드 재구성 기법 (Keyword Reorganization Techniques for Improving the Identifiability of Topics)

  • 윤여일;김남규
    • 한국IT서비스학회지
    • /
    • 제18권4호
    • /
    • pp.135-149
    • /
    • 2019
  • Recently, there are many researches for extracting meaningful information from large amount of text data. Among various applications to extract information from text, topic modeling which express latent topics as a group of keywords is mainly used. Topic modeling presents several topic keywords by term/topic weight and the quality of those keywords are usually evaluated through coherence which implies the similarity of those keywords. However, the topic quality evaluation method based only on the similarity of keywords has its limitations because it is difficult to describe the content of a topic accurately enough with just a set of similar words. In this research, therefore, we propose topic keywords reorganizing method to improve the identifiability of topics. To reorganize topic keywords, each document first needs to be labeled with one representative topic which can be extracted from traditional topic modeling. After that, classification rules for classifying each document into a corresponding label are generated, and new topic keywords are extracted based on the classification rules. To evaluated the performance our method, we performed an experiment on 1,000 news articles. From the experiment, we confirmed that the keywords extracted from our proposed method have better identifiability than traditional topic keywords.

텍스트 마이닝으로 OTT 인터랙티브 콘텐츠 다시보기 (Analyzing OTT Interactive Content Using Text Mining Method)

  • 이석창
    • 문화기술의 융합
    • /
    • 제9권5호
    • /
    • pp.859-865
    • /
    • 2023
  • OTT 시장의 과열로 서비스 사업자들이 콘텐츠 개발에 주력하는 상황에서 시청자들의 능동적인 참여를 독려하는 인터랙티브 콘텐츠가 주목받고 있다. 그에 따라 인터랙티브 콘텐츠에 관한 연구 역시 활발히 이루어지고 있다. 본 연구는 온라인상의 비정형 데이터를 중심으로 텍스트 마이닝을 통해 인터랙티브 콘텐츠에 관한 분석을 목적으로 한다. 가중치에 따른 키워드 특징 도출, OTT와 인터랙티브 콘텐츠의 관계, 그리고 인터랙티브 콘텐츠의 트렌드 변화를 객관적인 데이터에 근거하여 '워드클라우드', '관계도 분석', 그리고 '키워드 트렌드'라는 세부 기법을 활용하여 연구 결과 및 함의점을 도출하였다.

전자정부내 의미기반 기술 도입에 따른 기능 및 정책 연구 (Research on Function and Policy for e-Government System using Semantic Technology)

  • 장영철
    • 한국산업정보학회논문지
    • /
    • 제13권5호
    • /
    • pp.22-28
    • /
    • 2008
  • 본 논문에서는 전자정부 시스템의 대 국민 사용성과 효율성을 증진시키기 위한 의미기반 문서 분류 방법(CoWDC)을 제시한다. 기존 의미기반 문서분류 방법에서 많은 양의 키워드들의 계층적 컨셉들을 이용하는 것을 지양하고 사용자들이 사용하는 키워드들 간의 관계를 중심으로 문서를 분류한다. 즉, 문서의 컨텍스트(context)에 근거하여 깊고 정확한 의미를 키워드 간 관계를 분석하여 적은 양의 정보로 효율적인 문서분류를 하게 된다. 이를 위해 제안한 CoWDC(Concept Wright Document Classification) 시스템은 기존의 시소러스/온톨로지의 의존도를 줄이고 키워드 관계, 관계의 경중 고려, 상하위 개념으로 변환 등을 통한 실험과 평가가 이루어졌다. 전자정부 시스템의 구조 및 특징 분석을 통해 CoWDC 실험 결과는 대국민 서비스 향상을 위해 매우 필요함을 인지하고 이를 접목하기 위한 기술적, 정책적 제언을 제시하였다. CoWDC를 통해 의미기반 검색기술의 우수함을 입증하였고 이는 전자정부 시스템의 지식베이스 구축, 운영체제의 운용, 시소러스의 구성 등의 과정에서 체계적으로 통합 운영되어야 한다.

  • PDF

다이내믹 토픽 모델링의 의미적 시각화 방법론 (Semantic Visualization of Dynamic Topic Modeling)

  • 연진욱;부현경;김남규
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.131-154
    • /
    • 2022
  • 최근 방대한 양의 텍스트 데이터에 대한 분석을 통해 유용한 지식을 창출하는 시도가 꾸준히 증가하고 있으며, 특히 토픽 모델링(Topic Modeling)을 통해 다양한 분야의 여러 이슈를 발견하기 위한 연구가 활발히 이루어지고 있다. 초기의 토픽 모델링은 토픽의 발견 자체에 초점을 두었지만, 점차 시기의 변화에 따른 토픽의 변화를 고찰하는 방향으로 연구의 흐름이 진화하고 있다. 특히 토픽 자체의 내용, 즉 토픽을 구성하는 키워드의 변화를 수용한 다이내믹 토픽 모델링(Dynamic Topic Modeling)에 대한 관심이 높아지고 있지만, 다이내믹 토픽 모델링은 분석 결과의 직관적인 이해가 어렵고 키워드의 변화가 토픽의 의미에 미치는 영향을 나타내지 못한다는 한계를 갖는다. 본 논문에서는 이러한 한계를 극복하기 위해 다이내믹 토픽 모델링과 워드 임베딩(Word Embedding)을 활용하여 토픽의 변화 및 토픽 간 관계를 직관적으로 해석할 수 있는 방안을 제시한다. 구체적으로 본 연구에서는 다이내믹 토픽 모델링 결과로부터 각 시기별 토픽의 상위 키워드와 해당 키워드의 토픽 가중치를 도출하여 정규화하고, 사전 학습된 워드 임베딩 모델을 활용하여 각 토픽 키워드의 벡터를 추출한 후 각 토픽에 대해 키워드 벡터의 가중합을 산출하여 각 토픽의 의미를 벡터로 나타낸다. 또한 이렇게 도출된 각 토픽의 의미 벡터를 2차원 평면에 시각화하여 토픽의 변화 양상 및 토픽 간 관계를 표현하고 해석한다. 제안 방법론의 실무 적용 가능성을 평가하기 위해 DBpia에 2016년부터 2021년까지 공개된 논문 중 '인공지능' 관련 논문 1,847건에 대한 실험을 수행하였으며, 실험 결과 제안 방법론을 통해 다양한 토픽이 시간의 흐름에 따라 변화하는 양상을 직관적으로 파악할 수 있음을 확인하였다.

신문 빅데이터와 키워드 분석을 이용한 홈트레이닝 트렌드 분석 (Home training trend analysis using newspaper big data and keyword analysis)

  • 지동철;김상호
    • 한국융합학회논문지
    • /
    • 제12권6호
    • /
    • pp.233-239
    • /
    • 2021
  • 최근 코로나19(COVID-19)라는 신종 바이러스로 인해 사람들은 외출을 자제하고 집안에 있는 시간이 길어졌다. 그로 인해 활동량이 급감하고 체중이 증가하여 건강에 대한 관심이 더욱 높아졌고, 이를 해결하기 위한 방법으로 홈트레이닝이 대안이 될 수 있다. 이에 홈트레이닝의 트렌드를 알아보기 위해 뉴스분석시스템인 빅카인즈(BIG KINDS)에서 제공하는 뉴스를 활용하여 2019년 12월 1일부터 2020년 11월 30일까지의 기사를 수집하였다. 빈도분석, 가중도에 따른 관계도 분석, 연관어 분석을 실시하였고, 빅카인즈에서 개발한 알고리즘을 활용한 프로그램으로 분석을 실시하였다. 결론적으로 첫째, 홈트레이닝은 인공지능의 기술과 등장이 홈트레이닝을 주도하는 것으로 나타났다. 둘째, 홈트레이닝은 이동통신사의 관련한 컨텐츠와 영상서비스 위주로 이루어지고 있음을 추측할 수 있다. 셋째, 운동 종목으로는 필라테스의 선호도가 높고, 이와 관련된 운동용품의 수요가 증가함에 따라 상표출원도 영향이 있음을 알 수 있었다. 다음연구에서는 연구방법론을 보완하고 다양한 분석을 통해 향후 시행될 여러 빅데이터 연구의 기초자료로 활용될 것을 기대한다.

음향학적 자질을 활용한 비디오 스피치 요약의 자동 추출과 표현에 관한 연구 (Investigating an Automatic Method for Summarizing and Presenting a Video Speech Using Acoustic Features)

  • 김현희
    • 정보관리학회지
    • /
    • 제29권4호
    • /
    • pp.191-208
    • /
    • 2012
  • 스피치 요약을 생성하는데 있어서 두 가지 중요한 측면은 스피치에서 핵심 내용을 추출하는 것과 추출한 내용을 효과적으로 표현하는 것이다. 본 연구는 강의 자료의 스피치 요약의 자동 생성을 위해서 스피치 자막이 없는 경우에도 적용할 수 있는 스피치의 음향학적 자질 즉, 스피치의 속도, 피치(소리의 높낮이) 및 강도(소리의 세기)의 세 가지 요인을 이용하여 스피치 요약을 생성할 수 있는지 분석하고, 이 중 가장 효율적으로 이용할 수 있는 요인이 무엇인지 조사하였다. 조사 결과, 강도(최대값 dB과 최소값 dB간의 차이)가 가장 효율적인 요인으로 확인되었다. 이러한 강도를 이용한 방식의 효율성과 특성을 조사하기 위해서 이 방식과 본문 키워드 방식간의 차이를 요약문의 품질 측면에서 분석하고, 이 두 방식에 의해서 각 세그먼트(문장)에 할당된 가중치간의 관계를 분석해 보았다. 그런 다음 추출된 스피치의 핵심 세그먼트를 오디오 또는 텍스트 형태로 표현했을 때 어떤 특성이 있는지 이용자 관점에서 분석해 봄으로써 음향학적 특성을 이용한 스피치 요약을 효율적으로 추출하여 표현하는 방안을 제안하였다.