• 제목/요약/키워드: Public-key algorithm

검색결과 249건 처리시간 0.025초

Prediction of Lung Cancer Based on Serum Biomarkers by Gene Expression Programming Methods

  • Yu, Zhuang;Chen, Xiao-Zheng;Cui, Lian-Hua;Si, Hong-Zong;Lu, Hai-Jiao;Liu, Shi-Hai
    • Asian Pacific Journal of Cancer Prevention
    • /
    • 제15권21호
    • /
    • pp.9367-9373
    • /
    • 2014
  • In diagnosis of lung cancer, rapid distinction between small cell lung cancer (SCLC) and non-small cell lung cancer (NSCLC) tumors is very important. Serum markers, including lactate dehydrogenase (LDH), C-reactive protein (CRP), carcino-embryonic antigen (CEA), neurone specific enolase (NSE) and Cyfra21-1, are reported to reflect lung cancer characteristics. In this study classification of lung tumors was made based on biomarkers (measured in 120 NSCLC and 60 SCLC patients) by setting up optimal biomarker joint models with a powerful computerized tool - gene expression programming (GEP). GEP is a learning algorithm that combines the advantages of genetic programming (GP) and genetic algorithms (GA). It specifically focuses on relationships between variables in sets of data and then builds models to explain these relationships, and has been successfully used in formula finding and function mining. As a basis for defining a GEP environment for SCLC and NSCLC prediction, three explicit predictive models were constructed. CEA and NSE are requentlyused lung cancer markers in clinical trials, CRP, LDH and Cyfra21-1 have significant meaning in lung cancer, basis on CEA and NSE we set up three GEP models-GEP 1(CEA, NSE, Cyfra21-1), GEP2 (CEA, NSE, LDH), GEP3 (CEA, NSE, CRP). The best classification result of GEP gained when CEA, NSE and Cyfra21-1 were combined: 128 of 135 subjects in the training set and 40 of 45 subjects in the test set were classified correctly, the accuracy rate is 94.8% in training set; on collection of samples for testing, the accuracy rate is 88.9%. With GEP2, the accuracy was significantly decreased by 1.5% and 6.6% in training set and test set, in GEP3 was 0.82% and 4.45% respectively. Serum Cyfra21-1 is a useful and sensitive serum biomarker in discriminating between NSCLC and SCLC. GEP modeling is a promising and excellent tool in diagnosis of lung cancer.

Research on rapid source term estimation in nuclear accident emergency decision for pressurized water reactor based on Bayesian network

  • Wu, Guohua;Tong, Jiejuan;Zhang, Liguo;Yuan, Diping;Xiao, Yiqing
    • Nuclear Engineering and Technology
    • /
    • 제53권8호
    • /
    • pp.2534-2546
    • /
    • 2021
  • Nuclear emergency preparedness and response is an essential part to ensure the safety of nuclear power plant (NPP). Key support technologies of nuclear emergency decision-making usually consist of accident diagnosis, source term estimation, accident consequence assessment, and protective action recommendation. Source term estimation is almost the most difficult part among them. For example, bad communication, incomplete information, as well as complicated accident scenario make it hard to determine the reactor status and estimate the source term timely in the Fukushima accident. Subsequently, it leads to the hard decision on how to take appropriate emergency response actions. Hence, this paper aims to develop a method for rapid source term estimation to support nuclear emergency decision making in pressurized water reactor NPP. The method aims to make our knowledge on NPP provide better support nuclear emergency. Firstly, this paper studies how to build a Bayesian network model for the NPP based on professional knowledge and engineering knowledge. This paper presents a method transforming the PRA model (event trees and fault trees) into a corresponding Bayesian network model. To solve the problem that some physical phenomena which are modeled as pivotal events in level 2 PRA, cannot find sensors associated directly with their occurrence, a weighted assignment approach based on expert assessment is proposed in this paper. Secondly, the monitoring data of NPP are provided to the Bayesian network model, the real-time status of pivotal events and initiating events can be determined based on the junction tree algorithm. Thirdly, since PRA knowledge can link the accident sequences to the possible release categories, the proposed method is capable to find the most likely release category for the candidate accidents scenarios, namely the source term. The probabilities of possible accident sequences and the source term are calculated. Finally, the prototype software is checked against several sets of accident scenario data which are generated by the simulator of AP1000-NPP, including large loss of coolant accident, loss of main feedwater, main steam line break, and steam generator tube rupture. The results show that the proposed method for rapid source term estimation under nuclear emergency decision making is promising.

모듈라 멱승 연산의 빠른 수행을 위한 덧셈사슬 휴리스틱과 모듈라 곱셈 알고리즘들 (An Addition-Chain Heuristics and Two Modular Multiplication Algorithms for Fast Modular Exponentiation)

  • 홍성민;오상엽;윤현수
    • 정보보호학회논문지
    • /
    • 제7권2호
    • /
    • pp.73-92
    • /
    • 1997
  • 모듈라 멱승 연산(M$^{E}$ modN)은 공개키 암호시스템에 있어서 가장 기본적이고 중요한 연산들 중 하나이다. 그런데 이는 512-비트 이상의 정수들과 같이 매우 큰 수들을 다루기 때문에, 수행속도가 느려서 빠른 연산 알고리즘을 필요로 한다. 모듈라 멱승 연산은 모듈라 곱셈의 반복 수행으로 이루어져있고, 이 때의 반복횟수는 지수(E)에 대한 덧셈사슬의 길이에 의해 결정된다. 따라서, 모듈라 멱승 연산을 빠르게 수행하기 위한 방법에는 두 가지가 있을 수 있다. 하나는 보다 짧은 덧셈사슬을 구함으로써 모듈라 곱셈의 반복횟수를 줄이는 것이고, 다른 하나는 각각의 모듈라 곱셈을 빠르게 수행하는 것이다. 본 논문에서는 하나의 덧셈사슬 휴리스틱과 두 개의 모듈라 곱셈 알고리즘들을 제안한다. 두개의 모듈라 곱셈 알고리즘들 중 하나는 서로 다른 두 수들 간의 모듈라 곱셈을 빠르게 수행하기 위한 것이고, 다른 하나는 모듈라 제곱을 빠르게 수행하기 위한 것이다. 본 논문에서 제안하는 덧셈사슬 휴리스틱은 기존의 알고리즘들보다 짧은 덧셈사슬을 찾을 수 있다. 본 논문에서 제안하는 모듈라 곱셈 알고리즘들은 기존의 알고리즘들 보다 1/2 이하의 단정도 곱셈만으로 모듈라 곱셈을 수행한다. 실제로 PC에서 구현하여 수행한 결과, 기존의 알고리즘들 중 가장 좋은 성능을 보이는 Montgomery 알고리즘에 비해 30~50%의 성능향상을 보인다.

나눗셈 체인을 이용한 RSA 모듈로 멱승기의 구현 (Implementation of RSA modular exponentiator using Division Chain)

  • 김성두;정용진
    • 정보보호학회논문지
    • /
    • 제12권2호
    • /
    • pp.21-34
    • /
    • 2002
  • 본 논문에서는 최근 발표된 멱승방법인 나눗셈 체인을 적용한 새로운 모듈로 멱승기의 하드웨어 구조를 제안하였다. 나눗셈 체인은 제수(divisor) d=2 또는 $d=2^I +1$ 과 그에 따른 나머지(remainder) r을 이용하여 지수 I를 새롭게 변형하는 방법으로 전체 멱승 연산이 평균 약 1.4$log_2$E 번의 곱셈으로 가능한 알고리즘이다. 이것은 Binary Method가 하드웨어 구현 시 항상 worst case인 $2log_2$E의 계산량이 필요한 것과 비교할 때 상당한 성능개선을 의미한다. 전체 구조는 파이프라인 동작이 가능한 선형 시스톨릭 어레이 구조로 설계하였으며, DG(Dependence Graph)를 수평으로 매핑하여 k비트의 키 사이즈에 대해 두 개의 k 비트 프레임이 k/2+3 개의 PE(Processing Element)로 구성된 두 개의 곱셈기 모듈을 통해 병렬로 동시에 처리되어 100% 처리율을 이루게 하였다. 또한, 규칙적인 데이터 패스를 가질 수 있도록 나눗셈체인을 새롭게 코딩하는 방법을 제안하였다. ASIC 구현을 위해 삼성 0.5um CMOS 스탠다드 셀 라이브러리를 이용해 합성한 결과 최장 지연 패스는 4.24ns로 200MHz의 클럭이 가능하며, 1024비트 데이터 프레임에 대해 약 140kbps의 처리속도를 나타낸다. 복호화 시에는 CRT(Chinese Remainder Theorem)를 적용하여 처리속도를 560kbps로 향상시켰다. 전자서명의 검증과정으로 사용되기도 하는 암호화 과정을 수행할 때 공개키 E는 3,17 혹은 $2^{16} +1$의 사용이 권장된다는 점을 이용하여 E를 17 비트로 제한할 경우 7.3Mbps의 빠른 처리속도를 가질 수 있다.

인터넷 커뮤니티에서 사용자 참여가 밀착도와 지속적 이용의도에 미치는 영향 (A Study on the Effects of User Participation on Stickiness and Continued Use on Internet Community)

  • 고미현;권순동
    • Asia pacific journal of information systems
    • /
    • 제18권2호
    • /
    • pp.41-72
    • /
    • 2008
  • The purpose of this study is the investigation of the effects of user participation, network effect, social influence, and usefulness on stickiness and continued use on Internet communities. In this research, stickiness refers to repeat visit and visit duration to an Internet community. Continued use means the willingness to continue to use an Internet community in the future. Internet community-based companies can earn money through selling the digital contents such as game, music, and avatar, advertizing on internet site, or offering an affiliate marketing. For such money making, stickiness and continued use of Internet users is much more important than the number of Internet users. We tried to answer following three questions. Fist, what is the effects of user participation on stickiness and continued use on Internet communities? Second, by what is user participation formed? Third, are network effect, social influence, and usefulness that was significant at prior research about technology acceptance model(TAM) still significant on internet communities? In this study, user participation, network effect, social influence, and usefulness are independent variables, stickiness is mediating variable, and continued use is dependent variable. Among independent variables, we are focused on user participation. User participation means that Internet user participates in the development of Internet community site (called mini-hompy or blog in Korea). User participation was studied from 1970 to 1997 at the research area of information system. But since 1997 when Internet started to spread to the public, user participation has hardly been studied. Given the importance of user participation at the success of Internet-based companies, it is very meaningful to study the research topic of user participation. To test the proposed model, we used a data set generated from the survey. The survey instrument was designed on the basis of a comprehensive literature review and interviews of experts, and was refined through several rounds of pretests, revisions, and pilot tests. The respondents of survey were the undergraduates and the graduate students who mainly used Internet communities. Data analysis was conducted using 217 respondents(response rate, 97.7 percent). We used structural equation modeling(SEM) implemented in partial least square(PLS). We chose PLS for two reason. First, our model has formative constructs. PLS uses components-based algorithm and can estimated formative constructs. Second, PLS is more appropriate when the research model is in an early stage of development. A review of the literature suggests that empirical tests of user participation is still sparse. The test of model was executed in the order of three research questions. First user participation had the direct effects on stickiness(${\beta}$=0.150, p<0.01) and continued use (${\beta}$=0.119, p<0.05). And user participation, as a partial mediation model, had a indirect effect on continued use mediated through stickiness (${\beta}$=0.007, p<0.05). Second, optional participation and prosuming participation significantly formed user participation. Optional participation, with a path magnitude as high as 0.986 (p<0.001), is a key determinant for the strength of user participation. Third, Network effect (${\beta}$=0.236, p<0.001). social influence (${\beta}$=0.135, p<0.05), and usefulness (${\beta}$=0.343, p<0.001) had directly significant impacts on stickiness. But network effect and social influence, as a full mediation model, had both indirectly significant impacts on continued use mediated through stickiness (${\beta}$=0.11, p<0.001, and ${\beta}$=0.063, p<0.05, respectively). Compared with this result, usefulness, as a partial mediation model, had a direct impact on continued use and a indirect impact on continued use mediated through stickiness. This study has three contributions. First this is the first empirical study showing that user participation is the significant driver of continued use. The researchers of information system have hardly studies user participation since late 1990s. And the researchers of marketing have studied a few lately. Second, this study enhanced the understanding of user participation. Up to recently, user participation has been studied from the bipolar viewpoint of participation v.s non-participation. Also, even the study on participation has been studied from the point of limited optional participation. But, this study proved the existence of prosuming participation to design and produce products or services, besides optional participation. And this study empirically proved that optional participation and prosuming participation were the key determinant for user participation. Third, our study compliments traditional studies of TAM. According prior literature about of TAM, the constructs of network effect, social influence, and usefulness had effects on the technology adoption. This study proved that these constructs still are significant on Internet communities.

기술가치 평가를 위한 기술사업화 기간 및 비용 추정체계 개발 (Development of Systematic Process for Estimating Commercialization Duration and Cost of R&D Performance)

  • 전승표;최대헌;박현우;서봉군;박도형
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.139-160
    • /
    • 2017
  • 기술사업화는 기업의 연구개발 과정 및 결과물을 시장에 효과적으로 연계하여 경제 가치를 창출하는 것을 의미한다. 거시적인 관점에서 보면 기술사업화는 국가수준의 R&D 효과성을 강화할 수 있으며, 관련된 산업의 발전을 촉진할 수 있다. 또한, 미시적인 관점에서 보면 기업이나 개인들은 기술사업화를 통해서 경쟁우위를 확보하고, 유지할 수 있다. 특정 기술이 사업화까지 이르기 위해서는 기술 기획, 기술의 연구와 개발, 상용화 즉 시장 진출까지의 크게 세 단계를 거치는 게 일반적이며, 이런 일련의 과정은 많은 시간과 비용을 수반한다. 따라서 연구개발 착수에서 상용화까지 소요되는 기술사업화 기간과 비용은 기업 입장에서는 시장 진출 전략을 결정하는 데 중요한 의사결정 정보가 되며, 기술 투자자에게는 기술가치를 합리적으로 평가하는데 더욱 중요한 정보가 된다. 이렇게 중요한 기술사업화 소요 기간과 비용을 과학적으로 추정하는 것은 매우 중요하지만 현재까지 이런 두 가지 정보에 대한 연구는 매우 부족한 실정이며, 널리 알려진 방법론도 부재한 상황이다. 본 연구의 목적은 기술사업화 기간과 비용을 추정하는 체계를 설계하고 이를 실제 기업데이터를 활용하여 개발하는 것이다. 구체적으로 특정 기술의 기술 자체의 요인, 기술개발 주체의 역량, 외부 환경 요인의 세 관점에서 어떤 요인들이 기술사업화 기간 및 비용에 영향을 주는지 도출하고, 해당 요인들의 수준에 따라 기술사업화 기간 및 비용을 제시하는 모형을 개발하고자 한다. 본 연구의 결과는 기술을 개발하는 주체와 기술을 투자하는 주체 모두에게 유용하게 활용될 것으로 기대된다.

특허의 기술이전 활성화를 위한 소셜 태깅기반 지적재산권 추천플랫폼 (Social Tagging-based Recommendation Platform for Patented Technology Transfer)

  • 박윤주
    • 지능정보연구
    • /
    • 제21권3호
    • /
    • pp.53-77
    • /
    • 2015
  • 국내에서 출원되는 특허건수는 매년 증가하고 있으나, 이러한 특허들 중 상당수는 활용되지 못하고 사장되고 있다. 2012년 국정감사 자료에 따르면, 우리나라 대학 및 공공연구기관이 보유한 특허의 약 73%가 사회적 가치창출로 연결되지 못하는 휴면특허라고 한다. 즉, 대학/연구소 또는 사업화가 어려운 개인이 소유하고 있는 특허가, 이를 필요로 하는 수요기업에 성공적으로 기술 이전되지 못하는 것을 휴면특허 증가의 주요 문제점으로 생각할 수 있다. 본 연구는 급격히 축적되는 방대한 특허 자원들 속에서, 기업의 관심분야에 적합한 지식재산을, 보다 쉽고, 효과적으로 선별할 수 있도록 하는 소셜태깅 기반의 특허 추천플랫폼을 제안한다. 제안된 시스템은 기존 특허들로부터 핵심적인 내용 및 기술 분야를 추출하여 초기 추천을 수행하고, 이후 사용자들의 태그정보가 축적되면, 사회적 지식 (social knowledge)을 추천에 함께 반영하게 된다. 이러한 연구에는 특허청에서 운영하고 있는 KIPRIS(Korea Industrial Property Rights Information Service) 시스템에서 실제 특허자료 총 1638건을 수집한 후, 현재 특허 데이터에는 존재하지 않는 가상의 태그 정보를 추가한 반가상(semi-virtual) 데이터를 구성하여 활용하였다. 제안된 시스템은 프로그래밍 언어 JAVA를 활용하여 핵심 알고리즘을 구현하였으며, 그래픽사용자 인터페이스(Graphic User Interface)에 대한 프로토타입의 설계를 수행하였다. 또한, 시나리오테스트 방식으로 시스템의 운영타당성 및 추천 효과성을 확인하였다.

시뮬라시옹과 포스트-재현 - 알고리즘 아트를 중심으로 (Simulation and Post-representation: a study of Algorithmic Art)

  • 이수진
    • 기호학연구
    • /
    • 제56호
    • /
    • pp.45-70
    • /
    • 2018
  • 르네상스 이후부터 지속되어 온 재현체계에 관한 포스트모던 철학의 비판은 시각주체의 경험과 대상을 분리하고, 환경과 인간을 분리하는 이분법적인 사고체계에 관한 비판으로 궤를 같이 한다. 1960년대 포스트모던한 흐름으로 등장한 일련의 작품에서 강조된 상호작용성은 1990년대 후반 디지털 아트의 인터랙티브한 차원으로 계승되었다. 디지털 아트의 핵심적인 특성은 현장에서 관객의 참여에 따라 예측할 수 없는 결과 혹은 저마다의 미세한 변화를 반영한 무한대의 변이들을 만들어낸다는 점이다. 이 과정에서 컴퓨터 프로그램의 중요성이 부각되고, 기존 프로그램을 그대로 차용하는 것이 아니라, 아티스트가 직접 알고리즘을 작성하고 프로그래밍하는 경우 혹은 프로그래머와 협업을 통해 고유한 알고리즘을 만들어내는 경우가 점점 증가하고 있다. 프로그래밍 자체를 창작 행위로 간주해야 하는 패러다임으로 전환되는 중이라고 말할 수도 있겠다. 현재 주목받고 있는 시뮬레이션과 VR 기술은 현실의 감각과 시공간을 재현해내는 기술로 각광받고 있는데, 시뮬레이션 기술이 예술 분야에 도입되면서, 실험적인 작품들이 창작되는 중이다. 장 보드리야르가 제시한 시뮬라시옹 개념은 '어떤 현실을 본따 매우 사실적으로 만듦'을 대변하는 개념이라기보다는 '실재하는 현실과 어떤 관계를 맺고 있는 전혀 다른 현실'을 주목하게 만드는 개념이다. 이때 시뮬라시옹은 진실과 거짓의 문제를 따질 주제가 아니라, 형이상학적인 의미가 없는, 전통적인 실재와는 전혀 다른 성질의 실재를 지칭한다. 전통적인 질서에서 이미지가 실재 세계의 재현에 대응했다면, 알고리즘 아트의 시뮬레이션 이미지들 그리고 시뮬레이션된 시공간은 '체험을 용이하게 만드는 예술 형식'이라 할 수 있다. 다수의 알고리즘 아트는 상황, 현실, 생태계, 생명체 등의 복합적인 속성을 시스템으로 모델화하여 (특정 혹은 개별) 대상을 구조화하고 활성화하는 데 목표를 두고 있으며, 세계의 시뮬라시옹에 주목한다. 본 논문에서는 세계의 시뮬라시옹을 다루는 이안 쳉의 작품을 통해, 21세기 인공지능 기술의 등장과 함께 변화하고 있는 문화예술의 패러다임을 살펴보고자 한다. 또한 이안 쳉의 라이브 시뮬레이션과 같은 새로운 형식의 콘텐츠 앞에서 우리가 취해야 하는 태도 역시 논의하게 될 것이다. 사실 새로운 형식의 작품을 대면하는 순간은 전통적인 형식의 작품보다 훨씬 더 능동적인 입장을 요구한다. 본 논문이 제시하는 포스트-재현 형식의 문화예술 작품은 개인적인 경험의 순간에 이루어지는 감각과 지각 과정이 완성이나 종결로 수렴될 수 없음을 기술로 구현하고 있다. 이때 관객에게 요구되는 것은 바로 능동적 인식과 상황적 지식임을 이야기하고자 한다.

웹검색 트래픽 정보를 활용한 유커 인바운드 여행 수요 예측 모형 및 유커마이닝 시스템 개발 (Development of Yóukè Mining System with Yóukè's Travel Demand and Insight Based on Web Search Traffic Information)

  • 최유지;박도형
    • 지능정보연구
    • /
    • 제23권3호
    • /
    • pp.155-175
    • /
    • 2017
  • 최근 독감 예측이나 당선인 예측, 구매 패턴, 투자 등 다방면에서 웹검색 트래픽 정보. 소셜 네트워크 내용 등 거대한 데이터를 통해 사회적 현상, 소비 패턴을 분석하는 시도가 이전보다 늘어났다. 구글, 네이버, 바이두 등 인터넷 포털 업체들의 웹검색 트래픽 정보 공개 서비스와 함께 웹검색 트래픽 정보를 활용하여 소비자나 사용자와 관련된 연구가 실시되기 시작했다. 웹검색 트래픽 정보를 활용한 사회 현상, 소비 패턴 분석을 연구는 많이 수행되었으나, 그에 비해서 도출된 여행 수요 모델을 토대로 의사결정을 위한 실질적 대책 수립으로 이어지는 연구는 많이 진행되지 않은 실정이다. 관광산업은 상대적으로 많은 고용을 가능하게 하고 외자를 유치하는 등 고부가가치를 창출하여 경제 전체에 선순환 효과를 일으키는 중요한 산업이다. 그 중에서도 국내 입국외래객중 수년간 2위와의 큰 차이로 1위를 차지해왔던 중국 국적의 관광객 '유커' 및 그들이 지출하는 1인당 평균 관광 수지는 한국 경제에 매우 중요한 한 부분이다. 관광 수요의 예측은 효율적인 자원 배분과 합리적인 의사 결정에 있어서 공공부문 및 민간부문 모두 중요하다. 적절한 관광 수요 예측을 통해서 한정된 자원을 더욱 효과적으로 활용하여 더욱 많은 부가가치를 창출하기 위한 것이다. 본 연구는 중국인 인바운드를 예측하는 방법에 있어, 이전보다 더 최신의 트렌드를 즉각적으로 반영하고 개인들의 집합의 관심도가 포함되어 예측 성능이 개선된 방법을 제안한다. 해외여행은 고관여 소비이기 때문에 잠재적 여행객들이 입국하기 전 웹검색을 통해 적극적으로 자신의 여정과 관련된 정보를 취득하기 위한 활동을 한다. 따라서 웹검색 트래픽 수치가 중국인 여행객의 관심정도를 대표할 수 있다고 보았다. 중국인 여행객들이 한국 여행을 준비하는 단계에서 검색할만한 키워드를 선정해 실제 중국인 입국자 수와 상관관계가 있음을 검증하고자 하였다. 중국 웹검색 엔진 시장에서 80%의 점유율을 가지는 중국 최대 웹검색 엔진 '바이두'에서 공개한 웹검색 데이터를 활용하여 그 관심 정도를 대표할 수 있을 것이라 추정했다. 수집에 필요한 키워드의 선정 단계에서는 잠재적 여행객이 여정을 계획하고 구체화하는 단계에서 일반적으로 검색하게 되는 키워드 후보군을 선정하였다. 키워드의 선정에는 중국 국적의 잠재적 여행객 표본과의 인터뷰를 거쳤다. 트래픽 대소 관계 확인 결과에 따라서 최종 선정된 키워드들을 한국여행이라는 주제와 직접적인 연관을 가지는 키워드부터, 간접적인 연관을 가지는 키워드까지 총 세 가지 레벨의 카테고리로 분류하였다. 분류된 카테고리 내의 키워드들은 바이두'가 제공하는 웹검색 트래픽 데이터 제공 서비스 '바이두 인덱스'를 통해 웹검색 트래픽 데이터를 수집했다. 공개된 데이터 페이지 특성을 고려한 웹 크롤러를 직접 설계하여 웹검색 트래픽 데이터를 수집하였고, 분리되어 수집된 변수에는 필요한 변수 변환 과정을 수행했다. 자동화 수집된 웹검색 트래픽 정보들을 투입하여 중국 여행 인바운드에 대한 유의한 영향 관계를 확인하여 중국인 여행객의 한국 인바운드 여행 수요를 예측하는 모형을 개발하고자 하였다. 정책 의사결정 및 관광 경영 의사결정 같은 실무적 활용을 고려하여 각 변수의 영향력을 정량적으로 설명할 수 있고 설득이 명료한 방법인 다중회귀분석방법을 적용해 선형 식을 도출하였다. 수집된 웹검색 트래픽 데이터를 기존 검증된 모형 독립변인들에 추가적으로 투입함으로써 전통적인 독립변인으로만 구성된 연구 모형과 비교하여 가장 뛰어난 성능을 보이는 모형을 확인하였다. 본 연구에서 검증하려는, 웹검색 트래픽으로 대표되는 독립변인을 투입한 최종 도출된 모형을 통해 중국인 관광 수요를 예측할 때 유의한 영향을 끼치는 웹검색 트래픽 변수를 확인할 수 있다. 최적 모형 설명력을 가지는 모형을 기반으로 최종 회귀 식을 만들었고 이를 '유커마이닝' 시스템 내부에 도입하였다. 데이터 분석에서 더 나아가 도출된 모형을 직관적으로 시각화하고, 웹검색 트래픽 정보를 활용하여 도출할 수 있는 인사이트를 함께 보여주는 데이터 분석 기반의 '유커마이닝' 솔루션의 시스템 알고리즘과 UX를 제안하였다. 본 연구가 제안하는 모형과 시스템은 관광수요 예측모형 분야에서 웹검색 트래픽 데이터라는 정보 탐색을 하는 과정에 놓인 개인들의 인터랙티브하고 즉각적인 변수를 활용한 새로운 시도이다. 실무적으로 관련 정책결정자나 관광사, 항공사 등이 활용 가능한 실제적인 가치를 가지고, 정책적으로도 효과적인 관광 정책 수립에 활용될 수 있다.