Adaptive Strategy Planning Using Goal-oriented Learning

목적 지향적 학습을 이용한 적응적 전술 생성 시스템 설계

  • Park, Jong-An (Department of Digital Contents, Sejong University) ;
  • Hong, Chul-Eui (Department of Computer Science, Sangmyung University) ;
  • Kim, Won-Il (Department of Digital Contents, Sejong University)
  • 박종안 (세종대학교 디지털콘텐츠학과) ;
  • 홍철의 (상명대학교 컴퓨터 과학과) ;
  • 김원일 (세종대학교 디지털콘텐츠학과)
  • Received : 2011.08.16
  • Accepted : 2011.09.06
  • Published : 2011.09.25

Abstract

Agent acts for specification purpose, which is common element of CGF (Computer Generated Forces). When basic agent acts as planned, the advanced intelligence agent can do more than this. It can follow predefined actions along appointed script to achieve purpose or lay another plans when it is difficult to achieve. In other words, it can amend plan again or make new plan in order to achieve goals. When plan fails, agent amends oneself, possibly decreases target level to achieve easily. In doing so, the agent calculates a quantitative value for changing plans in realtime, and choose appropriate alternative plans when the threshold value reaches an limit. In this paper, we propose an military system in which the planned action can be modified according to the level of achievement and alternative plans can be generated accordingly.

에이전트는 특정 목적을 위해 행동을 하는데 이것은 자율지능형 가상군(Computer Generated Forces, CGF)의 공통된 요소이다. 목적을 달성하기 위해 지정된 스크립트를 따라 행위를 하거나 업무 수행의 계획을 세우는 것을 기본적인 에이전트의 지능이라 볼 수 있는데 이보다 더 발전된 지능 에이전트는 계획을 세우는 것뿐만 아니라 계획했던 수행이 어려울 때 계획을 다시 수정하거나 새로운 계획을 적응적으로 만들어내는 것이다. 계획을 수행 할 때 에이전트가 목적을 위한 적응적 행동을 하려면 목표를 달성할 가능성이 적어질 때 스스로 계획을 수정하고 이러한 방식으로 수정되는 방법을 계속적으로 학습하여 차후 같은 경우에는 학습이 반영된 더 좋은 계획 및 전술을 반영하도록 해야 한다. 즉, 목표와 현재의 상태를 실시간으로 분석하고 측정하여 목표 달성도를 정량적으로 계산하고 측정값이 임계값보다 적으면 수정된 계획을 선택하도록 하는 것이다. 본 논문에서는 위와 같이 에이전트가 목표 달성 가능성이 적어질 때 적응적으로 계획을 새롭게 수정하여 적용하는 방법을 연구한 목적 지향적 행위계획 방법을 제안한다.

Keywords

References

  1. Baek J.S., Lee C.J., 2008. "A Study on the Autonomous Navigation Algorithm of the Unmanned Ground Combat Vehicle in Partially Unknown Environment", Defense Science & Technology Vol. 1-2.
  2. Schank, R., Abelson, R., 1977, "Scripts, Plans, Goals and Understanding"
  3. Ceranowicz, A.,1994, "Modular Semi-Automated Forces", Simulation Conference Proceedings, pp.755-761
  4. Ryszard, M., Jaime, C.,Tom, M., "Machine learning: an artificial intelligence approach"
  5. 한창희, 조준호, 이성기, "가상군(Computer-Generated Forces)의 자율지능화 방안 연구", 한국시뮬레이션학회, 한국시뮬레이션학회 논문지, 제20권, 제1호, pp. 69-77, 2011년 3월
  6. Caussanel, Jean, Frydman, Claudia, Giambiasi, Norbert, 2007, "State of Art and Future Trend on CGF", PIOVRA project, www.liophant.org/piovra
  7. Buckland, M. 2005. Programming Game AI by Example. Wordware Publications, 2320 Los Rios Blvd. Suite 200, Plano, Texas 75074 USA.
  8. Jeff, O. 2003. Applying goal-Oriented Action Planning to Games. Monolith Productions.
  9. Newell, A., Shaw, J. C. & Simon, H. A. 1958. Report On A General Problem-Solving Program. Carnegie Institute of Technology, P-1584, Dec.
  10. Hart, PE, Nilsson, NJ, Raphael, B., 1968. "A Formal Basis for the Heuristic Determination of Minimum Cost Paths", IEEE Transactions on SSC, Vol. 4.
  11. 신용우, 2004, "실습예제로 쉽게 설명한 인공지능게임 프로그래밍", 도서출판 대림
  12. Sidran, Ezra D., 2003, "The Current State of Human-level Artificial Intelligence in Computer Simulations and wargames", Univ. of Iowa
  13. 정환식, 이재영, 2008 "한국군 합동지휘통제체계의 전투력 상승효과 측정에 관한 연구" 한국경영과학회지. p.350
  14. Koenig, S. and Likhachev, M. 2001. "Lifelong Planning A*", (Technical Report GIT-COGSCI-2002/2), Georgia Institute of Technology.