• 제목/요약/키워드: Thomson

검색결과 213건 처리시간 0.018초

기계학습을 활용한 상품자산 투자모델에 관한 연구 (A Study on Commodity Asset Investment Model Based on Machine Learning Technique)

  • 송진호;최흥식;김선웅
    • 지능정보연구
    • /
    • 제23권4호
    • /
    • pp.127-146
    • /
    • 2017
  • 상품자산(Commodity Asset)은 주식, 채권과 같은 전통자산의 포트폴리오의 안정성을 높이기 위한 대체투자자산으로 자산배분의 형태로 투자되고 있지만 주식이나 채권 자산에 비해 자산배분에 대한 모델이나 투자전략에 대한 연구가 부족한 실정이다. 최근 발전한 기계학습(Machine Learning) 연구는 증권시장의 투자부분에서 적극적으로 활용되고 있는데, 기존 투자모델의 한계점을 개선하는 좋은 성과를 나타내고 있다. 본 연구는 이러한 기계학습의 한 기법인 SVM(Support Vector Machine)을 이용하여 상품자산에 투자하는 모델을 제안하고자 한다. 기계학습을 활용한 상품자산에 관한 기존 연구는 주로 상품가격의 예측을 목적으로 수행되었고 상품을 투자자산으로 자산배분에 관한 연구는 찾기 힘들었다. SVM을 통한 예측대상은 투자 가능한 대표적인 4개의 상품지수(Commodity Index)인 골드만삭스 상품지수, 다우존스 UBS 상품지수, 톰슨로이터 CRB상품지수, 로저스 인터내셔날 상품지수와 대표적인 상품선물(Commodity Futures)로 구성된 포트폴리오 그리고 개별 상품선물이다. 개별상품은 에너지, 농산물, 금속 상품에서 대표적인 상품인 원유와 천연가스, 옥수수와 밀, 금과 은을 이용하였다. 상품자산은 전반적인 경제활동 영역에 영향을 받기 때문에 거시경제지표를 통하여 투자모델을 설정하였다. 주가지수, 무역지표, 고용지표, 경기선행지표 등 19가지의 경제지표를 이용하여 상품지수와 상품선물의 등락을 예측하여 투자성과를 예측하는 연구를 수행한 결과, 투자모델을 활용하여 상품선물을 리밸런싱(Rebalancing)하는 포트폴리오가 가장 우수한 성과를 나타냈다. 또한, 기존의 대표적인 상품지수에 투자하는 것 보다 상품선물로 구성된 포트폴리오에 투자하는 것이 우수한 성과를 얻었으며 상품선물 중에서도 에너지 섹터의 선물을 제외한 포트폴리오의 성과가 더 향상된 성과를 나타남을 증명하였다. 본 연구에서는 포트폴리오 성과 향상을 위해 기존에 널리 알려진 전통적 주식, 채권, 현금 포트폴리오에 상품자산을 배분하고자 할 때 투자대상은 상품지수에 투자하는 것이 아닌 개별 상품선물을 선정하여 자체적 상품선물 포트폴리오를 구성하고 그 방법으로는 기간마다 강세가 예측되는 개별 선물만을 골라서 포트폴리오를 재구성하는 것이 효과적인 투자모델이라는 것을 제안한다.

서비스실패의 심각성과 복구만족이 고객-기업 관계회복에 미치는 영향 : 실패이전과 복구이후 고객애정, 고객신뢰, 충성의도의 이월효과 및 역학관계 비교를 중심으로 (The Roles of Service Failure and Recovery Satisfaction in Customer-Firm Relationship Restoration : Focusing on Carry-over effect and Dynamics among Customer Affection, Customer Trust and Loyalty Intention Before and After the Events)

  • 라선아
    • 한국유통학회지:유통연구
    • /
    • 제17권1호
    • /
    • pp.1-36
    • /
    • 2012
  • 서비스실패는 고객이탈의 주요 원인이다. 오늘날과 같은 공급과잉의 치열한 경쟁시장에서 서비스실패로 인한 결과는 단순한 고객불평에서 끝나지 않고 해당기업에 대한 대중 소비자의 반기업정서를 유발할 만큼 치명적일 수 있다. 따라서 효과적인 복구전략 개발을 위해, 실패와 복구에 대한 고객반응을 심도있게 설명할 수 있는 연구가 필요하다. 이러한 맥락에서 본 연구는 서비스실패와 복구를 '고객-기업 관계의 위기와 회복'이라는 관점에서 조망하여, 복구만족도 수준에 따라 고객애정, 고객신뢰, 충성의도의 이월효과와 심각성의 직접 효과 및 실패 이전과 복구 이후 시점간 관계특질변수들의 역학관계변화도 비교분석하였다. 분석결과, 일단 실패가 발생하면 복구만족수준에 상관없이 충성의도는 미래로 이월되지 않았고, 실패의 심각성은 충성의도에 유의한 부정적 영향을 미쳤다. 다시 말해 실패의 발생으로 그 무엇보다도 고객충성도가 가장 큰 타격을 입었다. 다행히 충성의도의 선행변수인 고객애정과 신뢰는 복구만족이 높은 경우 실패 이전에서 복구 이후로 이월효과를 보였다. 복구만족이 낮은 경우는 이월효과가 전혀 발견되지 않았고, 실패의 심각성이 문제시되어 신뢰와 애정의 회복에 장애물로 작용했으며, 과거에 비해 고객애정의 충성의도에 대한 직접 효과도 감소하였다. 일단 실패가 발생한 후에는 복구수준과 상관없이 충성의도 형성에 있어 고객신뢰의 중요성이 급증했다는 점도 중요한 발견점이었다. 연구결과를 통해, 실패복구상황에서 고객층성도 재구축을 최종 지향점으로 삼되, 그 과정에서 무엇보다도 신뢰의 회복을 최우선 목표로 설정해야 하고, 심각한 실패일수록 반드시 높은 복구 만족도를 달성해야 한다는 교훈을 얻었다. 복구만족의 조절효과 및 실패심각성과의 상호작용 패턴에 대한 흥미로운 발견을 바탕으로 이론적, 관리적 시사점을 도출하였으며 연구의 한계와 향후 연구과제에 대해서도 논의하였다.

  • PDF

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF