• 제목/요약/키워드: Text-search

검색결과 549건 처리시간 0.026초

Improving Classification Accuracy in Hierarchical Trees via Greedy Node Expansion

  • Byungjin Lim;Jong Wook Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권6호
    • /
    • pp.113-120
    • /
    • 2024
  • 정보통신 기술이 발전함에 따라 우리는 일상에서 다양한 형태의 데이터를 손쉽게 생성하고 있다. 이처럼 방대한 데이터를 효율적으로 관리하려면, 체계적인 카테고리별 분류가 필수적이다. 효율적인 검색과 탐색을 위해서 데이터는 트리 형태의 계층적 구조인 범주 트리로 조직화되는데, 이는 뉴스 웹사이트나 위키피디아에서 자주 볼 수 있는 구조이다. 이에 따라 방대한 양의 문서를 범주 트리의 단말 노드로 분류하는 다양한 기법들이 제안되었다. 그러나 범주 트리를 대상으로 하는 문서 분류기법들은 범주 트리의 높이가 증가할수록 단말 노드의 수가 기하급수적으로 늘어나고 루트 노드부터 단말 노드까지의 길이가 길어져서 오분류 가능성이 증가하며, 결국 분류 정확도의 저하로 이어진다. 그러므로 본 연구에서는 사용자의 요구 분류 정확도를 만족시키면서 세분화된 분류를 구현할 수 있는 새로운 노드 확장 기반 분류 알고리즘을 제안한다. 제안 기법은 탐욕적 접근법을 활용하여 높은 분류정확도를 갖는 노드를 우선적으로 확장함으로써, 범주 트리의 분류 정확도를 극대화한다. 실데이터를 이용한 실험 결과는 제안 기법이 단순 방법보다 향상된 성능을 제공함을 입증한다.

Organic solvent exposure for the chronic kidney disease: updated systematic review with meta-analysis

  • Chaeseong Lim;Hyeoncheol Oh
    • Annals of Occupational and Environmental Medicine
    • /
    • 제35권
    • /
    • pp.11.1-11.17
    • /
    • 2023
  • Background: Studies on the relationship between organic solvent exposure and chronic kidney disease (CKD) have presented inconsistent results. Definition of CKD has changed in 2012, and other cohort studies have been newly published. Therefore, this study aimed to newly confirm the relationship between organic solvent exposure and CKD through an updated meta-analysis including additional studies. Methods: This systematic review was conducted in accordance with the Preferred Reporting Items for Systematic Reviews and Meta-Analysis (PRISMA) guidelines. The search was conducted on January 2, 2023 using Embase and MEDLINE databases. Case-control and cohort studies on the relationship between organic solvent exposure and CKD were included. Two authors independently reviewed full-text. Results: Of 5,109 studies identified, a total of 19 studies (control studies: 14 and cohort studies: 5) were finally included in our meta-analysis. The pooled risk of CKD in the organic solvent exposed group was 2.44 (1.72-3.47). The risk of a low-level exposure group was 1.07 (0.77-1.49). The total risk of a high-level exposure group was 2.44 (1.19-5.00). The risk of glomerulonephritis was 2.69 (1.18-6.11). The risk was 1.46 (1.29-1.64) for worsening of renal function. The pooled risk was 2.41 (1.57-3.70) in case-control studies and 2.51 (1.34-4.70) in cohort studies. The risk of subgroup classified as 'good' by the Newcastle Ottawa scale score was 1.93 (1.43-2.61). Conclusions: This study confirmed that the risk of CKD was significantly increased in workers exposed to mixed organic solvents. Further research is needed to determine the exact mechanisms and thresholds. Surveillance for kidney damage in the group exposed to high levels of organic solvents should be conducted.

자인단오제의 고형(古形)에 관한 탐색 - '여원무'와 '호장굿'을 중심으로 - (Search for an archaic form of Jain-Danoje - Focucing on 'Yeowonmoo' and 'Hojanggut' -)

  • 한양명
    • 공연문화연구
    • /
    • 제19호
    • /
    • pp.5-33
    • /
    • 2009
  • 근대 이후 자인단오제의 노정은, 1960년대 이후 전국민속예술경연대회와 중요무형문화재 지정을 배경으로 복원 재현되었던 대부분의 연행민속과 크게 다르지 않다. 이들 연행 민속은 대개 전승의 단절과 재현의 과정에서 탈맥락화(Decontextualization)했고 새로운 전승의 길로 접어들면서 재맥락화(Recontextualization)하고 있다. 현재의 자인단오제는 1970년 문화재지정조사 당시의 모습을 일정하게 간직하고 있다. 그러나 1936년 자인단오제의 마지막 모습은 물론이고 자인현읍지를 비롯한 몇몇 문헌에 실린 것과는 분명히 다르다. 이와 같은 차이는 재현의 과정에서 비롯된 것이라는 것이 나의 판단이다. 이러한 관점에서 옛 문헌과 초창기의 보고서, 그리고 현행 텍스트에 대해 검토해 보았다. 특히 자인단오제의 정체성을 구성하는 데 중심적인 역할을 해온 여원무와 호장굿의 고형을 탐색하고 현행 텍스트와 비교해 봄으로써 재현의 과정에서 일어난 양상을 드러내보려고 했다. 검토 결과, 현재 연행되고 있는 여원무와 호장굿의 모습은 1960년대 이후 전국민속경연대회와 무형문화재 지정을 의식하고 창출된 텍스트였다. 이 텍스트는 전근대사회에서 전승된 읍치축제의 구조와 흐름, 그리고 연행의 양상에 대한 이해가 부족한 상태에서 구성된 것이다. 재현에 관여한 지식인들은 자인단오제의 실상을 전하는 여러 읍지 가운데 1895년 본을 바탕으로 고형을 탐색하였다. 이 과정에서 선입견을 가지고 문맥을 이해함으로써 한장군제의 실상을 파악하지 못했고 여원무의 실체를 바로 보지 못했다. 또한 호장이 주도하는 오신을 가장행렬로 오해하고 단오제의 한 구성요소로 인정함으로써 우리 축제 특유의 오신과는 다른 텍스트가 통용되기에 이르렀음을 확인할 수 있었다.

중립도 기반 선택적 단어 제거를 통한 유용 리뷰 분류 정확도 향상 방안 (Increasing Accuracy of Classifying Useful Reviews by Removing Neutral Terms)

  • 이민식;이홍주
    • 지능정보연구
    • /
    • 제22권3호
    • /
    • pp.129-142
    • /
    • 2016
  • 전자상거래에서 소비자들의 구매 의사결정에 판매 제품을 이미 구매하여 사용한 고객의 리뷰가 중요한 영향을 미치고 있다. 전자상거래 업체들은 고객들이 제품 리뷰를 남기도록 유도하고 있으며, 구매고객들도 적극적으로 자신의 경험을 공유하고 있다. 한 제품에 대한 고객 리뷰가 너무 많아져서 구매하려는 제품의 모든 리뷰를 읽고 제품의 장단점을 파악하는 것은 무척 힘든 일이 되었다. 전자상거래 업체들과 연구자들은 텍스트 마이닝을 활용하여 리뷰들 중에서 유용한 리뷰들의 속성을 파악하거나 유용한 리뷰와 유용하지 않은 리뷰를 미리 분류하는 노력을 수행하고 있다. 고객들에게 유용한 리뷰를 필터링하여 전달하는 방안이다. 본 연구에서는 문서-단어 매트릭스에서 단어의 제거 기준으로 온라인 고객 리뷰가 유용한 지, 그렇지 않은지를 구분하는 문제에서 단어들이 유용 리뷰 집합과 유용하지 않은 리뷰집합에 중복하여 등장하는 정도를 측정한 중립도를 제시한다. 제시한 중립도를 희소성과 함께 분석에 활용하여 제거할 단어를 선정한 후에 각 분류 알고리즘의 성과를 비교하였다. 최적의 성과를 보이는 중립도를 찾았으며, 희소성과 중립도에 따라 단어를 선택적으로 제거하였다. 실험은 Amazon.com의 'Cellphones & Accessories', 'Movies & TV program', 'Automotive', 'CDs & Vinyl', 'Clothing, Shoes & Jewelry' 제품 분야 고객 리뷰와 사용자들의 리뷰에 대한 평가를 활용하였다. 전체 득표의 수가 4개 이상인 리뷰 중에서 제품 카테고리 별로 유용하다고 판단되는 1,500개의 리뷰와 유용하지 않다고 판단되는 1,500개의 리뷰를 무작위로 추출하여 연구에 사용하였다. 데이터 집합에 따라 정확도 개선 정도가 상이하며, F-measure 기준으로는 두 알고리즘에서 모두 희소성과 중립도에 기반하여 단어를 제거하는 방안이 더 성과가 높았다. 하지만 Information Gain 알고리즘에서는 Recall 기준으로는 5개 제품 카테고리 데이터에서 언제나 희소성만을 기준으로 단어를 제거하는 방안의 성과가 높았으며, SVM에서는 전체 단어를 활용하는 방안이 Precision 기준으로 성과가 더 높았다. 따라서, 활용하는 알고리즘과 분석 목적에 따라서 단어 제거 방안을 고려하는 것이 필요하다.

집단지성 기반 학습자료 북마킹 서비스 시스템 (Learning Material Bookmarking Service based on Collective Intelligence)

  • 장진철;정석환;이슬기;정치훈;윤완철;이문용
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.179-192
    • /
    • 2014
  • 최근 IT 환경의 변화에 따라 웹 서비스를 기반으로 대규모 사용자 대상의 상호 참여적인 MOOC(Massive Open Online Courses)과 같은 온라인 교육 환경이 부상하고 있다. 그러나 온라인 교육 시스템은 원거리로 학습이 이루어짐에 따라 학습자의 자발적 동기를 꾸준히 유지하기 어려우며, 또한 학습자 간에 지식을 공유하고 공유한 지식을 활용하는 기능이 부족하다. 이러한 문제를 극복하기 위해 구성주의적 학습이론과 집단지성에 기반하여 학습자가 보유한 학습자료를 공유하고 개인화된 학습자료 추천을 받을 수 있는 학습자료 북마킹 서비스인 WeStudy를 구현하였다. 위키피디아(Wikipedia), 슬라이드쉐어 (SlideShare), 비디오렉쳐스 (VideoLectures) 등 현존하는 집단지성 기반 서비스들의 주요 기능으로부터 필요한 집단지성 기능들을 검토하였으며, 본 서비스의 주요 기능으로 1) 리스트 및 그래프 형태의 학습자료 리스트 시각화, 2) 개인화된 학습자료 추천, 3) 보다 상세한 학습자료 추천을 위한 관심 학습자 지정 등을 도출하여 시스템을 설계하였다. 이후, 웹 기반으로 구현된 세 가지 주요기능 별로 개량된 휴리스틱 사용성 평가 방법을 통해 개발된 시스템의 사용성 평가를 실시하였다. 10명의 HCI 분야 전공자 및 현업 종사자를 대상으로 정량적 및 정성적인 평가 결과, 세 가지의 주요 기능에서 전반적으로 사용성이 우수한 것으로 판정되었다. 주요 기능 별 정성적인 평가에서 도출된 여러 마이너 이슈들을 반영할 필요가 있으며, 향후 대규모 사용자를 대상으로 본 서비스를 보급하고 이용할 수 있도록 제공하여 자발적인 지식 공유 환경을 조성할 수 있을 것으로 전망된다.

연구주제 분석을 통한 한국창작무용 경향 탐색 : 텍스트 마이닝의 적용 (Exploring the Trend of Korean Creative Dance by Analyzing Research Topics : Application of Text Mining)

  • 유지영;김우경
    • 한국엔터테인먼트산업학회논문지
    • /
    • 제14권6호
    • /
    • pp.53-60
    • /
    • 2020
  • 이 연구는 현상의 흐름과 연구의 경향이 맥락적으로 일치한다는 가정을 바탕에 두고 있다. 이에 텍스트 마이닝을 활용하여 한국창작무용 연구의 주제 분석을 통해 춤의 경향을 탐색하는 것에 목적이 있다. 이에 논문 검색 웹사이트에 구축되어 있는 616편의 논문제목에서 1,291개의 단어를 분석하였다. 데이터의 수집 및 정제, 분석은 모두 R 3.6.0 SW을 사용하였다. 연구결과 첫째, 2000년대 이전에는 시대를 나타내는 키워드가 높은 빈도를 나타내었으나 교육 및 신체훈련 측면에서의 한국창작무용 연구유형도 발견되었다. 둘째, 2000년대 이후에는 무용단의 공연활동과 관련된 키워드의 빈도가 높게 나타났으나 최승희가 여전히 한국창작무용 연구에서 중요한 위치에 있다는 것이 확인되었다. 셋째, 한국창작무용 연구의 전체 연구주제를 분석한 결과 '근대시대 최승희의 예술', '현대 전통의 수용 양상과 가치', '전통춤의 안무적 표현 및 활용', '국립무용단의 공연 활동', '시대별 춤 표현', '교육 프로그램의 적용'으로 총 6개의 토픽이 추출되었다. 이 중 '근대시대 최승희의 예술'에 관한 연구가 가장 높은 비중을 차지하고 있는 것으로 나타났다. 넷째, 2000년을 기준으로 상승하고 있는 Hot 토픽은 '국립무용단의 공연 활동'과 '전통춤의 안무적 표현 및 활용'으로 나타났다. 그러나 최근 국립무용단의 공연 기조가 '전통을 기반으로 한 현대화'를 표방하고 있으므로 2000년대 이후 한국창작무용의 경향이 전통춤을 모티프로 한 안무적 표현과 그 활용에 공통적으로 집중되어 있음이 확인되었다. 다섯째, 2000년을 기준으로 하락하고 있는 Cold 토픽은 '시대별 춤 표현'에 관한 연구로 나타났다. 이것은 한국창작춤의 장르적 정착 이후 다양한 춤 스타일의 혼재에 따른 경향으로 연구에 대한 관심도 역시 저하된 것으로 판단되었다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

주가지수 방향성 예측을 위한 주제지향 감성사전 구축 방안 (Predicting the Direction of the Stock Index by Using a Domain-Specific Sentiment Dictionary)

  • 유은지;김유신;김남규;정승렬
    • 지능정보연구
    • /
    • 제19권1호
    • /
    • pp.95-110
    • /
    • 2013
  • 최근 다양한 소셜미디어를 통해 생성되는 비정형 데이터의 양은 빠른 속도로 증가하고 있으며, 이를 저장, 가공, 분석하기 위한 도구의 개발도 이에 맞추어 활발하게 이루어지고 있다. 이러한 환경에서 다양한 분석도구를 통해 텍스트 데이터를 분석함으로써, 기존의 정형 데이터 분석을 통해 해결하지 못했던 이슈들을 해결하기 위한 많은 시도가 이루어지고 있다. 특히 트위터나 페이스북을 통해 실시간에 근접하게 생산되는 글들과 수많은 인터넷 사이트에 게시되는 다양한 주제의 글들은, 방대한 양의 텍스트 분석을 통해 많은 사람들의 의견을 추출하고 이를 통해 향후 수익 창출에 기여할 수 있는 새로운 통찰을 발굴하기 위한 움직임에 동기를 부여하고 있다. 뉴스 데이터에 대한 오피니언 마이닝을 통해 주가지수 등락 예측 모델을 제안한 최근의 연구는 이러한 시도의 대표적 예라고 할 수 있다. 우리가 여러 매체를 통해 매일 접하는 뉴스 역시 대표적인 비정형 데이터 중의 하나이다. 이러한 비정형 텍스트 데이터를 분석하는 오피니언 마이닝 또는 감성 분석은 제품, 서비스, 조직, 이슈, 그리고 이들의 여러 속성에 대한 사람들의 의견, 감성, 평가, 태도, 감정 등을 분석하는 일련의 과정을 의미한다. 이러한 오피니언 마이닝을 다루는 많은 연구는, 각 어휘별로 긍정/부정의 극성을 규정해 놓은 감성사전을 사용하며, 한 문장 또는 문서에 나타난 어휘들의 극성 분포에 따라 해당 문장 또는 문서의 극성을 산출하는 방식을 채택한다. 하지만 특정 어휘의 극성은 한 가지로 고유하게 정해져 있지 않으며, 분석의 목적에 따라 그 극성이 상이하게 나타날 수도 있다. 본 연구는 특정 어휘의 극성은 한 가지로 고유하게 정해져 있지 않으며, 분석의 목적에 따라 그 극성이 상이하게 나타날 수도 있다는 인식에서 출발한다. 동일한 어휘의 극성이 해석하는 사람의 입장에 따라 또는 분석 목적에 따라 서로 상이하게 해석되는 현상은 지금까지 다루어지지 않은 어려운 이슈로 알려져 있다. 구체적으로는 주가지수의 상승이라는 한정된 주제에 대해 각 관련 어휘가 갖는 극성을 판별하여 주가지수 상승 예측을 위한 감성사전을 구축하고, 이를 기반으로 한 뉴스 분석을 통해 주가지수의 상승을 예측한 결과를 보이고자 한다.

한국 최근 정치캠페인에서 나타난 크리에이티브한 선거광고홍보전략 트렌드 분석 -2010. 6.2지방선거, 2011. 10.26 보궐선거 2012. 4.11 총선, 2012. 12.19 대선을 중심으로 (An analysis of creative trend of election Ads and PR strategy which appears in recent political campaign - Focused on 2010. 6.2 local election, 2011. 10.26 by-election, 2012. 4.11 general election, 2012. 12.19 presidential election)

  • 김만기
    • 디지털융복합연구
    • /
    • 제11권8호
    • /
    • pp.65-73
    • /
    • 2013
  • 정치캠페인에서 선거운동전략은 어느 정치후보가 더 참신하고 새로운 아이디어로 선거광고홍보를 치려 당선의 승패가 달려 있다. 특히 정치광고홍보는 한 줄의 카피(슬로건)와 한 컷의 이미지를 통해 유권자 감성을 휘어잡는 수단이기에 그 중요성은 더 말할 필요가 없다. 본 연구는 2010~2012년 기간 동안 치러졌던 4차례(2010. 6 2지방 선거, 2011. 10 26 보궐선거, 2012. 4 11 총선, 2012. 12 19 대선)각 선거단위에서에 이색적인 크리에에티브한 정치캠페인 트렌드를 분석하였다. 분석을 위해 선거 기간 동안 선거캠페인에 사용했던 동영상, 인터넷, 책자형 선거공보물, 선거운동활동 등을 대상으로 텍스트와 이미지 중심으로 탐색분석 하였다. 이색적인 크리에이티브한 정치캠페인은 유권자들의 성별, 연령층, 사회적 분위기 등 지지성향에 맞추려는 맞춤형 마이크로 타깃팅 선거 전략의 트렌드이다. 본 연구에서는 이런 선거 전략이 얼마나 성공했는지는 분석 대상에서 제외했다.

광고 글 필터링 모델 적용 및 성능 향상 방안 (Application of Advertisement Filtering Model and Method for its Performance Improvement)

  • 박래근;윤혁진;신의철;안영진;정승도
    • 한국산학기술학회논문지
    • /
    • 제21권11호
    • /
    • pp.1-8
    • /
    • 2020
  • 최근 기하급수적인 인터넷 데이터의 증가로 딥러닝 등의 많은 분야가 발전하였지만 바이럴 마케팅(viral marketing)과 같은 상업적 목적의 광고가 발견되면서 정보증가의 부작용이 발생하고 있다. 이는 양질의 정보를 공유하고자 하는 인터넷의 본질을 훼손하고 있을 뿐만 아니라 사용자는 양질의 정보를 습득하기 위해 검색시간이 증가하는 문제가 야기된다. 이에 본 연구에서는 광고(Ad: Advertisement, 이하 Ad) 글을 정보 전달의 본질을 흐리는 내용의 글이라 정의하였으며 본 정의에 부합하는 정보로 필터링하는 모델을 제안하였다. 제안하는 모델은 광고 필터링 경로와 광고 필터링 성능 개선경로로 구성되었으며 지속적으로 성능이 개선되도록 설계하였다. 광고 글 필터링을 위해 데이터를 수집하고 KorBERT를 사용하여 문서분류를 학습하였다. 본 모델의 성능을 검증하기 위해 실험을 진행하였으며 5개의 주제를 통합한 데이터에 대한 정확도(Accuracy), 정밀도(Precision)는 각각 89.2%, 84.3%의 결과를 나타냈고 광고의 비정형적 특성을 고려하더라도 높은 성능이 보임을 확인하였다. 본 모델을 통해 바이럴 마케팅으로 구성된 문서에서 광고 문단을 판단하고 필터링하여 사용자에게 양질의 정보를 효과적으로 전달하며 검색하는 과정에서 낭비되는 시간과 피로가 감소할 것으로 기대된다.