• 제목/요약/키워드: Shopbot

검색결과 3건 처리시간 0.018초

강화 학습에서의 탐색과 이용의 균형을 통한 범용적 온라인 Q-학습이 적용된 에이전트의 구현 (Implementation of the Agent using Universal On-line Q-learning by Balancing Exploration and Exploitation in Reinforcement Learning)

  • 박찬건;양성봉
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권7_8호
    • /
    • pp.672-680
    • /
    • 2003
  • shopbot이란 온라인상의 판매자로부터 상품에 대한 가격과 품질에 관한 정보를 자동적으로 수집함으로써 소비자의 만족을 최대화하는 소프트웨어 에이전트이다 이러한 shopbot에 대응해서 인터넷상의 판매자들은 그들에게 최대의 이익을 가져다 줄 수 있는 에이전트인 pricebot을 필요로 할 것이다. 본 논문에서는 pricebot의 가격결정 알고리즘으로 비 모델 강화 학습(model-free reinforcement learning) 방법중의 하나인 Q-학습(Q-learning)을 사용한다. Q-학습된 에이전트는 근시안적인 최적(myopically optimal 또는 myoptimal) 가격 결정 전략을 사용하는 에이전트에 비해 이익을 증가시키고 주기적 가격 전쟁(cyclic price war)을 감소시킬 수 있다. Q-학습 과정 중 Q-학습의 수렴을 위해 일련의 상태-행동(state-action)을 선택하는 것이 필요하다. 이러한 선택을 위해 균일 임의 선택방법 (Uniform Random Selection, URS)이 사용될 경우 최적 값의 수렴을 위해서 Q-테이블을 접근하는 회수가 크게 증가한다. 따라서 URS는 실 세계 환경에서의 범용적인 온라인 학습에는 부적절하다. 이와 같은 현상은 URS가 최적의 정책에 대한 이용(exploitation)의 불확실성을 반영하기 때문에 발생하게 된다. 이에 본 논문에서는 보조 마르코프 프로세스(auxiliary Markov process)와 원형 마르코프 프로세스(original Markov process)로 구성되는 혼합 비정적 정책 (Mixed Nonstationary Policy, MNP)을 제안한다. MNP가 적용된 Q-학습 에이전트는 original controlled process의 실행 시에 Q-학습에 의해 결정되는 stationary greedy 정책을 사용하여 학습함으로써 auxiliary Markov process와 original controlled process에 의해 평가 측정된 최적 정책에 대해 1의 확률로 exploitation이 이루어질 수 있도록 하여, URS에서 발생하는 최적 정책을 위한 exploitation의 불확실성의 문제를 해결하게 된다. 다양한 실험 결과 본 논문에서 제한한 방식이 URS 보다 평균적으로 약 2.6배 빠르게 최적 Q-값에 수렴하여 MNP가 적용된 Q-학습 에이전트가 범용적인 온라인 Q-학습이 가능함을 보였다.

웹 로그 데이터를 이용한 온라인 소비자의 가격민감도 영향 요인에 관한 연구 (Determinants of Online Price Sensitivity Using Web Log Data)

  • 전종근;박철
    • Journal of Information Technology Applications and Management
    • /
    • 제13권1호
    • /
    • pp.1-16
    • /
    • 2006
  • This paper empirically analyzed consumer price search behavior using Web log data of a Korean web site for price comparison. Consumer click-stream data of the site was used to test the effects of price level, product category, third party certification, reputation of retailers on click behavior. According to the descriptive statistics, 67.4% of shopbot users clicked the offer which was the lowest price returned in a search. We found that third party certification and reputation of retailers were significant determinants of clicking the lowest priced offer from legit analysis. We also applied Tobit regression analysis to estimate the price premium of the two determinants, but only reputation of retailers was found to have price premium of 4.9%.

  • PDF

MORPHEUS: 확장성이 있는 비교 쇼핑 에이전트 (MORPHEUS: A More Scalable Comparison-Shopping Agent)

  • 양재영;김태형;최중민
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권2호
    • /
    • pp.179-191
    • /
    • 2001
  • 비교 쇼핑은 웹 상에 존재하는 웹 상점으로부터 구매를 원하는 상품에 대해 저렴한 가격을 찾아주는 일종의 판매자 중개 방법이다. 보다 쉽게 확장 가능한 비교 쇼핑 시스템을 생성하기 위해서 에이전트는 각각의 준 구조화된 상점으로부터 필요한 정보만을 추출할 수 있는 wrapper를 자동으로 생성해낼 수 있어야 한다. 웹 문서를 작성하기 위한 HTML은 포함하고 잇는 정보의 의미가 아닌 브라우저를 통한 정보의 표현에 대해서만 정의하고 있다. 또한 각 웹 상점들은 사용자의 다양한 상품 검색 요구를 수용하기 위해 다양한 상품 검색 방법과 검색 결과의 출력 형태를 가진다. 따라서 자동으로 필요한 정보만을 추출하는 wrapper의 생성은 어려운 작업이다. wrapper의 귀납적인 생성은 이러한 이질적인 환경을 극복하기 위한 기술이다. 그러나 Shopbot과 같은 기존의 확장 가능한 비교 쇼핑 에에전트는 원하는 상품 정도를 추출하기 위해 강한 바이어스에 의존한다. 따라서 Shopbot은 바이어스를 따르지 않는 많은 웹 상점으로부터 wrapper를 생성할 수 없다. 본 논문에서는 강한 바이어스를 사용하지 않고 wrapper를 생성해 낼 수 있는 비교 쇼핑 에이전트 시스템인 모피우스를 제안한다. 모피우스는 간단하면서도 견고한 학습 알고리즘을 바탕으로 wrapper를 생성한다. 제안하는 학습 알고리즘의 핵심은 상품 검색 결과를 논리적 라인으로 나누고 여기서 나타나는 상품 설명 단위의 패턴으로 wrapper를 생성하는 것이다. 모피우스 대부분의 웹 상점에 대한 wrapper를 정확하게 생성해 낸다. 또한 학습하려는 검색 결과에 노이즈가 존재하는 경우에도 wrapper를 정확하게 추출할 수 있다. 모피우스는 헤더나 광고와 같은 불필요한 정보들을 제거하는 별도의 단계를 거치지 않으므로 wrapper를 빠르게 생성한다. 궁극적으로 모피우스는 새로운 웹 상점을 사용자가 자유롭게 추가, 삭제할 수 있는 환경을 제공한다.

  • PDF