자기노출 요인이 소셜 네트워크 서비스의 노출행동에 미치는 영향에 관한 연구 (Study on the Effect of Self-Disclosure Factor on Exposure Behavior of Social Network Service)
-
- 경영정보학연구
- /
- 제18권3호
- /
- pp.209-233
- /
- 2016
최근 소셜 네트워크 기반으로 하는 인터넷 기업의 등장은 빠른 성장세에 있으며, 다양한 소셜 미디어 서비스 출현으로 e-비즈니스에 혁신적인 변화를 일으키고 있다. 웹(web) 상에서 지인(知人)과의 인간관계를 강화시키고, 새로운 인간관계를 형성할 수 있도록 지원하는 소셜 네트워크 서비스(Social Network Service, SNS)는 소셜 미디어 영역 중 하나이다. 이러한 소셜 네트워크 서비스 시장의 급속한 성장과 이에 따른 수익창출, 미디어 분야의 새로운 성장 동력으로의 인식으로 많은 글로벌 IT기업들이 소셜 네트워크 서비스를 가장 강력한 소셜 미디어로 인식하고 있으며, 소셜 네트워크 서비스를 이용한 다양한 비즈니스 모델 개발에 힘쓰고 있다. 본 연구는 개인정보에 대한 자기노출을 다룬 중요한 요인인 프라이버시 침해의 미인식, SNS 사용목적, 개인정보의 중요성 인식을 통해 소셜 네트워크 서비스의 노출행동에 대한 영향력을 검증하고자 한다. 또한 개인의 특정 행위, 감정적 반응을 기술하기 위한 이론적 기반을 제공하고 있는 합리적 행위이론 (Theory of Reasoned Action)을 바탕으로 소셜 네트워크 서비스에서의 자기노출에 대한 영향요인이 TRA의 행위에 대한 태도(Attitude Toward Behavior)로서의 부정적 태도(Negatude), 주관적 규범(Subjective Norm), 행위의도(Behavioral intention), 그리고 노출행동의 주요 변수들을 적용한 연구모형을 제시하였다. 위 연구모형을 실증적으로 검증하기 위해 소셜 네트워크 서비스를 이용한 경험이 있는 서울 소재 Y대학의 대학생들을 대상으로 설문조사를 실시하였다. 설문조사를 통해 총 198부의 표본을 수집하였으며, 요인들 간의 관계를 분석하기 위해 경로분석을 실시하였다. 경로분석 결과, 프라이버시 침해 미인식이 부정적 태도. 주관적 규범, 행위의도, 노출행동에 미치는 영향은 모두 유의미하지 않게 나타나 가정된 경로모형에서 프라이버시 침해의 미인식의 영향력은 유의미하지 않는 것으로 나타났다. SNS 사용목적이 부정적 태도, 주관적 규범, 행위의도, 노출행동에 미치는 영향은 모두 유의미하게 나타났으며, 개인정보의 중요성 미인식은 주관적 규범, 행위의도, 노출행동에 미치는 영향력은 유의미하였으나, 부정적 태도에 미치는 영향은 유의미하지 않았다. 그리고 부정적 태도와 주관적 규범이 행위의도에 미치는 영향은 유의미하여, 부정적 태도가 낮을수록 행위의도가 높게 나타났으며, 마지막으로 행위의도가 노출행동에 미치는 영향은 유의미하지 않는 것으로 나타났다. 이를 통해 자기노출 과정을 이론적 논의를 토대로 심리적, 사회적 변인들을 통합하여 살펴보았다는 점에서 의미가 있다고 할 수 있다.
스마트폰 보급이 확대되면서 언제 어디서나 온라인 서비스를 이용할 수 있는 환경이 조성되고 있으며, 최근 유통환경에도 새로운 변화를 가져오고 있다. 이러한 변화의 중심에서 온-오프라인 구분 없이 상품을 구매하고 서비스를 이용할 수 있는 O2O(Online-to-Offline)가 새로운 상거래 형태로 주목받고 있다. O2O 서비스는 온라인의 실용성과 오프라인의 감성적인 만족을 동시에 제공할 수 있다는 장점이 있다. 그러나 비즈니스 모델의 불안정성이나 낮은 서비스 신뢰성으로 인해 1년 내 80% 이상의 서비스가 중단되고 있어 지속성 향상 방안에 대한 연구는 매우 중요하다. 이에 따라, 본 연구에서 O2O 서비스의 지속사용의도에 미치는 영향요인을 도출하고, 인과관계를 실증적으로 분석하였다. 특히, 기존 온라인 특성에 집중된 O2O 서비스 연구를 넘어서 오프라인 특성 및 사회적 영향 특성까지 반영하여 지속사용의도에 영향을 미치는 요인을 알아보았다. 본 연구에서 제시한 가설을 검증하기 위해 결제서비스를 포함한 O2O 서비스를 1회 이상 이용경험이 있는 813명을 대상으로 설문을 실시하여 611개의 유효한 설문을 회수하였다. 구조방정식을 활용한 통계분석결과 17개의 가설 중 12개의 가설이 채택되었다. 온라인 특성에서는 정보품질, 오프라인 특성에서는 서비스품질, 상품품질이 모두 유의한 것으로 나타났다. 또한, 쇼핑경험은 가치에는 영향을 미치지 못하지만 만족도에는 영향을 미치는 것으로 나타났으며, 사회적 영향 특성은 네트워크 효과와 관계품질이 각각 상반되는 결과를 보여 질적 성장과 양적성장 중 하나의 전략 채택 시 중요한 판단 근거를 제시하였다. 본 연구를 통해 정보기기 발전과 어플리케이션 개발 역량이 향상되면서 더 이상 시스템품질은 가치나 만족도에 영향을 미치는 요인이 아니며 기본적으로 갖춰져야 하는 것을 확인하였다. 또한 O2O 서비스는 기존 온라인 서비스와 달리 온-오프라인 특성을 모두 반영해야 하는 것을 확인하였다. 본 연구를 통해 유통의 새로운 패러다임으로 자리 잡기 위한 O2O 서비스의 질적 성장 방향을 제시하였다고 본다.
데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.
We frequently use search engines to find relevant information in the Web but still end up with too much information. In order to solve this problem of information overload, ranking algorithms have been applied to various domains. As more information will be available in the future, effectively and efficiently ranking search results will become more critical. In this paper, we propose a ranking algorithm for the Semantic Web resources, specifically RDF resources. Traditionally, the importance of a particular Web page is estimated based on the number of key words found in the page, which is subject to manipulation. In contrast, link analysis methods such as Google's PageRank capitalize on the information which is inherent in the link structure of the Web graph. PageRank considers a certain page highly important if it is referred to by many other pages. The degree of the importance also increases if the importance of the referring pages is high. Kleinberg's algorithm is another link-structure based ranking algorithm for Web pages. Unlike PageRank, Kleinberg's algorithm utilizes two kinds of scores: the authority score and the hub score. If a page has a high authority score, it is an authority on a given topic and many pages refer to it. A page with a high hub score links to many authoritative pages. As mentioned above, the link-structure based ranking method has been playing an essential role in World Wide Web(WWW), and nowadays, many people recognize the effectiveness and efficiency of it. On the other hand, as Resource Description Framework(RDF) data model forms the foundation of the Semantic Web, any information in the Semantic Web can be expressed with RDF graph, making the ranking algorithm for RDF knowledge bases greatly important. The RDF graph consists of nodes and directional links similar to the Web graph. As a result, the link-structure based ranking method seems to be highly applicable to ranking the Semantic Web resources. However, the information space of the Semantic Web is more complex than that of WWW. For instance, WWW can be considered as one huge class, i.e., a collection of Web pages, which has only a recursive property, i.e., a 'refers to' property corresponding to the hyperlinks. However, the Semantic Web encompasses various kinds of classes and properties, and consequently, ranking methods used in WWW should be modified to reflect the complexity of the information space in the Semantic Web. Previous research addressed the ranking problem of query results retrieved from RDF knowledge bases. Mukherjea and Bamba modified Kleinberg's algorithm in order to apply their algorithm to rank the Semantic Web resources. They defined the objectivity score and the subjectivity score of a resource, which correspond to the authority score and the hub score of Kleinberg's, respectively. They concentrated on the diversity of properties and introduced property weights to control the influence of a resource on another resource depending on the characteristic of the property linking the two resources. A node with a high objectivity score becomes the object of many RDF triples, and a node with a high subjectivity score becomes the subject of many RDF triples. They developed several kinds of Semantic Web systems in order to validate their technique and showed some experimental results verifying the applicability of their method to the Semantic Web. Despite their efforts, however, there remained some limitations which they reported in their paper. First, their algorithm is useful only when a Semantic Web system represents most of the knowledge pertaining to a certain domain. In other words, the ratio of links to nodes should be high, or overall resources should be described in detail, to a certain degree for their algorithm to properly work. Second, a Tightly-Knit Community(TKC) effect, the phenomenon that pages which are less important but yet densely connected have higher scores than the ones that are more important but sparsely connected, remains as problematic. Third, a resource may have a high score, not because it is actually important, but simply because it is very common and as a consequence it has many links pointing to it. In this paper, we examine such ranking problems from a novel perspective and propose a new algorithm which can solve the problems under the previous studies. Our proposed method is based on a class-oriented approach. In contrast to the predicate-oriented approach entertained by the previous research, a user, under our approach, determines the weights of a property by comparing its relative significance to the other properties when evaluating the importance of resources in a specific class. This approach stems from the idea that most queries are supposed to find resources belonging to the same class in the Semantic Web, which consists of many heterogeneous classes in RDF Schema. This approach closely reflects the way that people, in the real world, evaluate something, and will turn out to be superior to the predicate-oriented approach for the Semantic Web. Our proposed algorithm can resolve the TKC(Tightly Knit Community) effect, and further can shed lights on other limitations posed by the previous research. In addition, we propose two ways to incorporate data-type properties which have not been employed even in the case when they have some significance on the resource importance. We designed an experiment to show the effectiveness of our proposed algorithm and the validity of ranking results, which was not tried ever in previous research. We also conducted a comprehensive mathematical analysis, which was overlooked in previous research. The mathematical analysis enabled us to simplify the calculation procedure. Finally, we summarize our experimental results and discuss further research issues.
최근 인간과 상호작용할 수 있는 '소셜로봇'을 활용하여 복잡하고 다양한 사회문제를 해소하고 개인의 삶의 질을 제고하려는 시도가 주목받고 있다. 과거 로봇은 인간을 대신해서 산업 현장에 투입되고 노동력을 제공해주는 존재로 인식되었다. 그러나 오늘날의 로봇은 각종 산업분야를 관통하는 핵심 키워드인 'Smart'의 등장을 기점으로 인간과 함께 공존하며 사회적 교감이 가능한 '소셜로봇(Social Robot)'으로 그 개념이 확장되고 있다. 구체적으로 고객을 응대하는 서비스 로봇, 에듀테인먼트(Edutainment) 성격의 로봇, 그리고 인간과의 교감, 상호작용에 주목한 감성로봇 등이 출시되고 있다. 그러나 4차 산업혁명을 계기로 ICT 서비스 환경이 급격한 발전을 이룬 현재까지 소셜로봇의 대중화는 체감되지 않고 있다. 소셜로봇의 핵심 기능이 사용자와의 사회적 교감임을 고려하면, 소셜로봇의 대중화를 촉진하기 위해서는 기기에 적용되는 기술 이외의 요소들도 중요하게 고려할 필요가 있다. 본 연구는 로봇의 디자인 요소가 소셜로봇에 대한 소비자들의 구매를 이끌어내는데 중요하게 작용할 것으로 판단한다. 로봇의 외형이 유발하는 감성은 사용자의 인지, 추론, 평가와 기대를 형성하는 과정에서 중요한 영향을 미치며 나아가 로봇에 대한 태도와 호감 그리고 성능 추론 등에도 영향을 줄 수 있다. 그러나 소셜로봇에 대한 기존 연구들은 로봇의 개발방법론을 제안하거나, 소셜로봇이 사용자에게 제공하는 효과를 단편적으로 검증하는 수준에 머무르고 있다. 따라서 본 연구는 소셜로봇의 외형으로부터 사용자가 느끼는 감성이 소셜로봇에 대한 사용자의 태도에 미치는 영향을 검증해보고자 한다. 이때 서로 다른 출처의 이종 데이터 간 결합을 통하여 소셜로봇 디자인평가 모형을 구성한다. 구체적으로 소셜로봇의 외형에 대하여 사전에 구축된 ABOT Database로부터 다수의 소셜로봇에 대한 세 가지 정량적 지표 데이터를 확보하였다. 소셜로봇의 디자인 감성은 (1) 기존의 디자인평가 문헌과 (2) 소셜로봇 제품 후기와 블로그 등의 온라인 구전, (3) 소셜로봇 디자인에 대한 정성적인 인터뷰를 통해 도출하였다. 이후 사용자 설문을 통하여 각각의 소셜로봇에 대해 사용자가 느끼는 감성과 태도에 대한 평가를 수집하였다. 세부적인 감성 평가항목 23개에 대하여, 차원 축소 방법론을 통해 6개의 감성 차원을 도출하였다. 이어서 도출된 감성 차원들이 사용자의 소셜로봇에 대한 태도에 미치는 영향을 검증하기 위해 회귀분석을 수행하여 감성과 태도 간의 관계를 파악해 보았다. 마지막으로 정량적으로 수집된 소셜로봇의 외형에 대한 지표가 감성과 태도 간의 관계에 영향을 줄 수 있음을 검증하기 위해 조절회귀분석을 수행하였다. 기술적인ABOT Database 속성 지표들과 감성 차원들 간의 순수조절효과를 확인하고, 도출된 조절효과에 대한 시각화를 수행하여 외형, 감성, 그리고 태도 간의 관계를 다각적인 관점에서 해석하였다. 본 연구는 이종간 데이터를 연결하여 소셜로봇의 기술적 속성과 소비자 감성, 태도까지 변수 간 관계를 총체적으로 실증 분석했다는 점에서 이론적 공헌을 가지며, 소셜로봇 디자인 개발 전략에 대한 의사결정을 지원하기 위한 기준으로 소비자 감성의 활용 가능성을 제안하였다는 실무적 의의를 가진다.
At the initial stage of Internet advertising, banner advertising came into fashion. As the Internet developed into a central part of daily lives and the competition in the on-line advertising market was getting fierce, there was not enough space for banner advertising, which rushed to portal sites only. All these factors was responsible for an upsurge in advertising prices. Consequently, the high-cost and low-efficiency problems with banner advertising were raised, which led to an emergence of keyword advertising as a new type of Internet advertising to replace its predecessor. In the beginning of 2000s, when Internet advertising came to be activated, display advertisement including banner advertising dominated the Net. However, display advertising showed signs of gradual decline, and registered minus growth in the year 2009, whereas keyword advertising showed rapid growth and started to outdo display advertising as of the year 2005. Keyword advertising refers to the advertising technique that exposes relevant advertisements on the top of research sites when one searches for a keyword. Instead of exposing advertisements to unspecified individuals like banner advertising, keyword advertising, or targeted advertising technique, shows advertisements only when customers search for a desired keyword so that only highly prospective customers are given a chance to see them. In this context, it is also referred to as search advertising. It is regarded as more aggressive advertising with a high hit rate than previous advertising in that, instead of the seller discovering customers and running an advertisement for them like TV, radios or banner advertising, it exposes advertisements to visiting customers. Keyword advertising makes it possible for a company to seek publicity on line simply by making use of a single word and to achieve a maximum of efficiency at a minimum cost. The strong point of keyword advertising is that customers are allowed to directly contact the products in question through its more efficient advertising when compared to the advertisements of mass media such as TV and radio, etc. The weak point of keyword advertising is that a company should have its advertisement registered on each and every portal site and finds it hard to exercise substantial supervision over its advertisement, there being a possibility of its advertising expenses exceeding its profits. Keyword advertising severs as the most appropriate methods of advertising for the sales and publicity of small and medium enterprises which are in need of a maximum of advertising effect at a low advertising cost. At present, keyword advertising is divided into CPC advertising and CPM advertising. The former is known as the most efficient technique, which is also referred to as advertising based on the meter rate system; A company is supposed to pay for the number of clicks on a searched keyword which users have searched. This is representatively adopted by Overture, Google's Adwords, Naver's Clickchoice, and Daum's Clicks, etc. CPM advertising is dependent upon the flat rate payment system, making a company pay for its advertisement on the basis of the number of exposure, not on the basis of the number of clicks. This method fixes a price for advertisement on the basis of 1,000-time exposure, and is mainly adopted by Naver's Timechoice, Daum's Speciallink, and Nate's Speedup, etc, At present, the CPC method is most frequently adopted. The weak point of the CPC method is that advertising cost can rise through constant clicks from the same IP. If a company makes good use of strategies for maximizing the strong points of keyword advertising and complementing its weak points, it is highly likely to turn its visitors into prospective customers. Accordingly, an advertiser should make an analysis of customers' behavior and approach them in a variety of ways, trying hard to find out what they want. With this in mind, her or she has to put multiple keywords into use when running for ads. When he or she first runs an ad, he or she should first give priority to which keyword to select. The advertiser should consider how many individuals using a search engine will click the keyword in question and how much money he or she has to pay for the advertisement. As the popular keywords that the users of search engines are frequently using are expensive in terms of a unit cost per click, the advertisers without much money for advertising at the initial phrase should pay attention to detailed keywords suitable to their budget. Detailed keywords are also referred to as peripheral keywords or extension keywords, which can be called a combination of major keywords. Most keywords are in the form of texts. The biggest strong point of text-based advertising is that it looks like search results, causing little antipathy to it. But it fails to attract much attention because of the fact that most keyword advertising is in the form of texts. Image-embedded advertising is easy to notice due to images, but it is exposed on the lower part of a web page and regarded as an advertisement, which leads to a low click through rate. However, its strong point is that its prices are lower than those of text-based advertising. If a company owns a logo or a product that is easy enough for people to recognize, the company is well advised to make good use of image-embedded advertising so as to attract Internet users' attention. Advertisers should make an analysis of their logos and examine customers' responses based on the events of sites in question and the composition of products as a vehicle for monitoring their behavior in detail. Besides, keyword advertising allows them to analyze the advertising effects of exposed keywords through the analysis of logos. The logo analysis refers to a close analysis of the current situation of a site by making an analysis of information about visitors on the basis of the analysis of the number of visitors and page view, and that of cookie values. It is in the log files generated through each Web server that a user's IP, used pages, the time when he or she uses it, and cookie values are stored. The log files contain a huge amount of data. As it is almost impossible to make a direct analysis of these log files, one is supposed to make an analysis of them by using solutions for a log analysis. The generic information that can be extracted from tools for each logo analysis includes the number of viewing the total pages, the number of average page view per day, the number of basic page view, the number of page view per visit, the total number of hits, the number of average hits per day, the number of hits per visit, the number of visits, the number of average visits per day, the net number of visitors, average visitors per day, one-time visitors, visitors who have come more than twice, and average using hours, etc. These sites are deemed to be useful for utilizing data for the analysis of the situation and current status of rival companies as well as benchmarking. As keyword advertising exposes advertisements exclusively on search-result pages, competition among advertisers attempting to preoccupy popular keywords is very fierce. Some portal sites keep on giving priority to the existing advertisers, whereas others provide chances to purchase keywords in question to all the advertisers after the advertising contract is over. If an advertiser tries to rely on keywords sensitive to seasons and timeliness in case of sites providing priority to the established advertisers, he or she may as well make a purchase of a vacant place for advertising lest he or she should miss appropriate timing for advertising. However, Naver doesn't provide priority to the existing advertisers as far as all the keyword advertisements are concerned. In this case, one can preoccupy keywords if he or she enters into a contract after confirming the contract period for advertising. This study is designed to take a look at marketing for keyword advertising and to present effective strategies for keyword advertising marketing. At present, the Korean CPC advertising market is virtually monopolized by Overture. Its strong points are that Overture is based on the CPC charging model and that advertisements are registered on the top of the most representative portal sites in Korea. These advantages serve as the most appropriate medium for small and medium enterprises to use. However, the CPC method of Overture has its weak points, too. That is, the CPC method is not the only perfect advertising model among the search advertisements in the on-line market. So it is absolutely necessary that small and medium enterprises including independent shopping malls should complement the weaknesses of the CPC method and make good use of strategies for maximizing its strengths so as to increase their sales and to create a point of contact with customers.
2017년 한국소비자원에 접수된 항공여객운송서비스 관련 피해구제 접수건수는 1,252건으로 2016년 1,262건 대비 0.8% 감소하여 2013년 이후 처음으로 감소세를 나타냈다. 그리고 2017년 한국소비자원에 접수된 항공여객운송서비스 분야의 피해구제 접수건 가운데 444건(35.4%)이 합의가 성립되었으며, 합의가 성립되지 않은 건 중에서 정보제공 상담 기타로 종결된 경우가 588건(47.0%)으로 가장 많았고, 소비자분쟁조정위원회에 조정 신청된 경우가 186건(14.9%)이었다. 항공서비스 소비자 피해구제와 분쟁해결을 위한 규정을 두고 있는 주요입법으로는 항공사업법, 소비자기본법 등이 있는데, 항공사업법에서 항공교통사업자의 피해구제절차와 처리계획의 수립 및 이행 그리고 피해구제 신청 접수 및 처리, 항공교통이용자 보호기준의 고시 등에 관하여 규정하고 있으며, 소비자기본법에서 소비자상담기구의 실치 운영, 한국소비자원의 피해구제, 소비자분쟁의 조정, 소비자분쟁해결기준의 제정 등에 관하여 규정하고 있다. 항공서비스 소비자 피해구제 절차로는 항공교통사업자의 피해구제 접수 처리, 소비자상담센터의 상담 및 피해구제 접수 처리, 한국소비자원의 합의권고, 소비자분쟁조정위원회의 분쟁조정제도 등이 있다. 현행 항공서비스 소비자 피해구제 및 분쟁조정 제도에는 항공사업법 상 항공교통사업자의 피해구제계획 수립 및 이행 의무의 면제, 항공부문 소비자분쟁해결기준 상 운송 불이행 및 지연의 경우 면책 등에 대하여 문제점이 있고, 그리고 소비자기본법상 소비자분쟁조정의 절차진행 및 조정성립에 대하여 한계점이 있다. 따라서 항공서비스 소비자에 대한 적절한 피해구제와 원활한 분쟁조정을 위하여 관련 제도의 개선방안을 제시하면 다음과 같다. 첫째 항공서비스 소비자 피해구제 관련 법규의 정비이다. 항공사업법 상 항공교통사업자의 피해구제계획 수립과 이행 의무의 면제규정이 수정되어야 할 것이다. 또한 항공서비스 소비자 보호와 피해구제에 관한 법 규정의 체계화와 전문성 제고를 위해 미국연방규칙 14 CFR 및 EU의 EC 261/2004 규칙과 유사한 별도 입법을 마련할 필요가 있을 것이다. 둘째 항공서비스 소비자 분쟁해결기준의 개선이다. 항공부문 소비자분쟁해결기준 상 항공사업자의 운송 불이행 및 운송지연의 경우 면책사유의 발생 원인이 불가항력이었는지를 규명하여 면책여부를 판별하여야 하고, 상법 항공운송편 및 1999년 몬트리올 협약에 규정된 면책사유와 같이 수정되어야 하며, 대체편이 제공된 운송 불이행의 경우와 운송지연에 대하여 배상기준을 통일하는 것이 필요할 것이다. 셋째 항공서비스 소비자 피해구제를 위한 정보제공의 강화이다. 항공관련 정부기관 및 유관기관들은 항공사 및 공항과 협력하여 항공서비스 소비자 피해구제를 위한 법규와 정책 등 다양한 정보를 항공교통이용자에게 보다 신속 명확하게 제공해야 할 것이다. 넷째 소비자분쟁조정의 효력 등에 관한 보완이다. 분쟁조정에 대한 수락 의사표시가 없을 경우 수락한 것으로 보는 것은 부당하므로 이의신청제도를 추가할 필요가 있을 것이다. 또한 소비자분쟁조정위원회 이외 다른 분쟁조정기구에 중복으로 분쟁해결을 신청한 경우 피해구제 대상에서 제외하고 있으나 당사자가 조정기관을 선택할 수 있도록 해야 할 것이다. 그리고 소비자분쟁이 조정을 통하여 효율적으로 해결될 수 있도록 조정성립률을 높일 수 있는 제도적 방안을 강구할 필요가 있을 것이다. 다섯째 항공서비스 소비자 중재제도의 도입이다. 소비자분쟁 조정제도의 한계점을 보완할 수 있는 방안으로 소비자 중재제도를 도입하되, 소비자기본법 상 중재 도입안과 중재법 상 소비자중재 도입안이 있는데, 후자의 방안이 적합할 것으로 생각된다. 결론적으로, 정책과제로서 항공서비스 소비자의 피해 예방 및 구제를 강화하는 법 제도를 마련하고, 항공서비스 선진화를 위한 소비자 중심의 정책을 수립 추진해야 할 것이다.
The wall shear stress in the vicinity of end-to end anastomoses under steady flow conditions was measured using a flush-mounted hot-film anemometer(FMHFA) probe. The experimental measurements were in good agreement with numerical results except in flow with low Reynolds numbers. The wall shear stress increased proximal to the anastomosis in flow from the Penrose tubing (simulating an artery) to the PTFE: graft. In flow from the PTFE graft to the Penrose tubing, low wall shear stress was observed distal to the anastomosis. Abnormal distributions of wall shear stress in the vicinity of the anastomosis, resulting from the compliance mismatch between the graft and the host artery, might be an important factor of ANFH formation and the graft failure. The present study suggests a correlation between regions of the low wall shear stress and the development of anastomotic neointimal fibrous hyperplasia(ANPH) in end-to-end anastomoses. 30523 T00401030523 ^x Air pressure decay(APD) rate and ultrafiltration rate(UFR) tests were performed on new and saline rinsed dialyzers as well as those roused in patients several times. C-DAK 4000 (Cordis Dow) and CF IS-11 (Baxter Travenol) reused dialyzers obtained from the dialysis clinic were used in the present study. The new dialyzers exhibited a relatively flat APD, whereas saline rinsed and reused dialyzers showed considerable amount of decay. C-DAH dialyzers had a larger APD(11.70
The wall shear stress in the vicinity of end-to end anastomoses under steady flow conditions was measured using a flush-mounted hot-film anemometer(FMHFA) probe. The experimental measurements were in good agreement with numerical results except in flow with low Reynolds numbers. The wall shear stress increased proximal to the anastomosis in flow from the Penrose tubing (simulating an artery) to the PTFE: graft. In flow from the PTFE graft to the Penrose tubing, low wall shear stress was observed distal to the anastomosis. Abnormal distributions of wall shear stress in the vicinity of the anastomosis, resulting from the compliance mismatch between the graft and the host artery, might be an important factor of ANFH formation and the graft failure. The present study suggests a correlation between regions of the low wall shear stress and the development of anastomotic neointimal fibrous hyperplasia(ANPH) in end-to-end anastomoses. 30523 T00401030523 ^x Air pressure decay(APD) rate and ultrafiltration rate(UFR) tests were performed on new and saline rinsed dialyzers as well as those roused in patients several times. C-DAK 4000 (Cordis Dow) and CF IS-11 (Baxter Travenol) reused dialyzers obtained from the dialysis clinic were used in the present study. The new dialyzers exhibited a relatively flat APD, whereas saline rinsed and reused dialyzers showed considerable amount of decay. C-DAH dialyzers had a larger APD(11.70