• 제목/요약/키워드: Game Agent

검색결과 153건 처리시간 0.021초

심층 큐 신경망을 이용한 게임 에이전트 구현 (Deep Q-Network based Game Agents)

  • 한동기;김명섭;김재윤;김정수
    • 로봇학회논문지
    • /
    • 제14권3호
    • /
    • pp.157-162
    • /
    • 2019
  • The video game Tetris is one of most popular game and it is well known that its game rule can be modelled as MDP (Markov Decision Process). This paper presents a DQN (Deep Q-Network) based game agent for Tetris game. To this end, the state is defined as the captured image of the Tetris game board and the reward is designed as a function of cleared lines by the game agent. The action is defined as left, right, rotate, drop, and their finite number of combinations. In addition to this, PER (Prioritized Experience Replay) is employed in order to enhance learning performance. To train the network more than 500000 episodes are used. The game agent employs the trained network to make a decision. The performance of the developed algorithm is validated via not only simulation but also real Tetris robot agent which is made of a camera, two Arduinos, 4 servo motors, and artificial fingers by 3D printing.

진화계산 기반 인공에이전트를 이용한 교섭게임 (Bargaining Game using Artificial agent based on Evolution Computation)

  • 성명호;이상용
    • 디지털융복합연구
    • /
    • 제14권8호
    • /
    • pp.293-303
    • /
    • 2016
  • 근래에 진화 연산을 활용한 교섭 게임의 분석은 게임 이론 분야에서 중요한 문제로 다루어지고 있다. 본 논문은 교섭 게임에서 진화 연산을 사용하여 이기종 인공 에이전트 간의 상호 작용 및 공진화 과정을 조사하였다. 교섭게임에 참여하는 진화전략 에이전트들로서 유전자 알고리즘(GA), 입자군집최적화(PSO) 및 차분진화알고리즘(DE) 3종류를 사용하였다. GA-agent, PSO-agent 및 DE-agent의 3가지 인공 에이전트들 간의 공진화 실험을 통해 교섭게임에서 가장 성능이 우수한 진화 계산 에이전트가 무엇인지 관찰 실험하였다. 시뮬레이션 실험결과, PSO-agent가 가장 성능이 우수하고 그 다음이 GA-agent이며 DE-agent가 가장 성능이 좋지 않다는 것을 확인하였다. PSO-agent가 교섭 게임에서 성능이 가장 우수한 이유를 이해하기 위해서 게임 완료 후 인공 에이전트 전략들을 관찰하였다. PSO-agent는 거래 실패로 인해 보수를 얻지 못하는 것을 감수하고서라도 가급적 많은 보수를 얻기 위한 방향으로 진화하였다는 것을 확인하였으며, 반면에 GA-agent와 DE-agent는 소량의 보수를 얻더라도 거래를 성공시키는 방향으로 진화하였다는 것을 확인하였다.

Comparison of Reinforcement Learning Activation Functions to Improve the Performance of the Racing Game Learning Agent

  • Lee, Dongcheul
    • Journal of Information Processing Systems
    • /
    • 제16권5호
    • /
    • pp.1074-1082
    • /
    • 2020
  • Recently, research has been actively conducted to create artificial intelligence agents that learn games through reinforcement learning. There are several factors that determine performance when the agent learns a game, but using any of the activation functions is also an important factor. This paper compares and evaluates which activation function gets the best results if the agent learns the game through reinforcement learning in the 2D racing game environment. We built the agent using a reinforcement learning algorithm and a neural network. We evaluated the activation functions in the network by switching them together. We measured the reward, the output of the advantage function, and the output of the loss function while training and testing. As a result of performance evaluation, we found out the best activation function for the agent to learn the game. The difference between the best and the worst was 35.4%.

경영 시뮬레이션 게임에서 PPO 알고리즘을 적용한 강화학습의 유용성에 관한 연구 (A Study about the Usefulness of Reinforcement Learning in Business Simulation Games using PPO Algorithm)

  • 양의홍;강신진;조성현
    • 한국게임학회 논문지
    • /
    • 제19권6호
    • /
    • pp.61-70
    • /
    • 2019
  • 본 논문에서는 경영 시뮬레이션 게임 분야에서 강화학습을 적용하여 게임 에이전트들이 자율적으로 주어진 목표를 달성하는지를 확인하고자 한다. 본 시스템에서는 Unity Machine Learning (ML) Agent 환경에서 PPO (Proximal Policy Optimization) 알고리즘을 적용하여 게임 에이전트가 목표를 달성하기 위해 자동으로 플레이 방법을 찾도록 설계하였다. 그 유용성을 확인하기 위하여 5가지의 게임 시나리오 시뮬레이션 실험을 수행하였다. 그 결과 게임 에이전트가 다양한 게임 내 환경 변수의 변화에도 학습을 통하여 목표를 달성한다는 것을 확인하였다.

RTS 게임에서 에이전트와 상호 의사를 조절하는 조정 에이전트의 설계 (A Design of a Coordination Agent Controlling Decision with Each Other Agents in RTS)

  • 박진영;성연식;조경은;엄기현
    • 한국게임학회 논문지
    • /
    • 제9권5호
    • /
    • pp.117-125
    • /
    • 2009
  • 실시간 전략 시뮬레이션 게임에서 각각의 팀은 다수의 에이전트로 구성하고 상태 팀을 이기기 위한 전략을 수행한다. 전략은 팀에 속한 에이전트들의 협력을 필요로 하며 이를 위해서는 다중 에이전트 시스템이 필요하다. 다중 에이전트 시스템의 의사 결정방법 중에서 중앙 집중적인 의사 결정 방법은 조정 에이전트를 사용해서 팀을 위한 작업을 선택한다. 비 중앙 집중적인 의사 결정 방법은 에이전트가 각각 주체가 되어서 다른 에이전트와 의사소통을 하기 때문에 비용이 많이 든다. 본 논문에서는 조정 에이전트를 사용할 때 다수의 에이전트를 그룹으로 관리하는 방법, 경매 시스템을 사용해서 에이전트에게 작업을 할당하는 방법 그리고 할당한 작업 중에서 수행에 실패한 작업은 다른 에이전트에게 다시 할당방법을 제안한다. 실험에서는 스타크래프트 게임에서 제안한 시스템을 적용할 때 공격력과 방어력이 향상되는 것을 볼 수 있었다. 제안한 방법을 사용한 에이전트의 팀 승리 비율은 8대 2로 높아졌다.

  • PDF

플레이 수준 조절이 가능한 강화학습 기반 카드형 대전 게임 에이전트 (Card Battle Game Agent Based on Reinforcement Learning with Play Level Control)

  • 이용철;이칠우
    • 스마트미디어저널
    • /
    • 제13권2호
    • /
    • pp.32-43
    • /
    • 2024
  • 게임 플레이를 위한 행동 주체인 에이전트는 게임 만족도를 높일 수 있는 중요한 요소이다. 하지만 다양한 게임 난이도와 게임 환경, 여러 플레이어를 위한 게임 에이전트 개발에는 많은 시간과 노력이 필요하다. 또한 캐릭터 추가나 업데이트와 같은 게임 환경 변화가 일어나면 새로운 게임 에이전트의 개발이 필요하고, 개발 난이도는 점차 높아진다는 단점이 존재한다. 이와 함께 다양한 플레이어의 수준에 맞는 세분화된 게임 에이전트 역시 중요하다. 단순히 강한 게임 에이전트보다는 세분화된 수준의 게임 플레이가 가능한 게임 에이전트가 활용성이 높고, 플레이어에 대한 만족도를 높일 수 있기 때문이다. 본 논문에서는 카드형 대전 게임을 대상으로 빠른 게임 에이전트 학습과 세분화된 플레이 수준 조절이 가능한 방법을 제안한다. 제안된 방법은 먼저 행동 구성에 대한 높은 자유도와 멀티 에이전트 환경에서의 빠른 학습을 위해 정책(Policy) 기반 분산형 강화학습 방법 중 하나인 IMPALA를 적용한다. 세분화된 플레이 수준 조절은 Temperature-Softmax를 통해 얻은 행동별 확률 값의 샘플링을 통해 수행한다. 논문에서는 Temperature 값의 증가에 따라 게임 에이전트의 플레이 수준이 낮아지는 결과와 이 수치를 다변화하여 손쉽게 다양한 플레이 수준 조절이 가능함을 확인하였다.

온라인 게임 사용자의 게임 아이템 거래 행동 특성 분석을 위한 퍼지논리 에이전트 기반 모델링 시뮬레이션 (Analyzing the Online Game User's Game Item Transacting Behaviors by Using Fuzzy Logic Agent-Based Modeling Simulation)

  • 김민경;이건창
    • 경영정보학연구
    • /
    • 제23권1호
    • /
    • pp.1-22
    • /
    • 2021
  • 본 연구에서는 퍼지논리 에이전트 기반 모델링(ABM: Agent-Based Modeling)을 이용한 시뮬레이션 기법을 이용하여 대표적 온라인 게임 장르인 MMORPG게임과 스포츠게임별로 게임 사용자들의 아이템 거래 행동특성을 분석하고자 한다. 온라인 게임 시장에서 아이템 거래는 게임회사의 수익성을 좌우하는 핵심변수이다. 그럼에도 불구하고, 기존 온라인 게임 연구에서는 게임 장르별로 게임 사용자들의 아이템 거래 행동특성을 면밀하게 분석하는 연구가 부족하였다. 이는 온라인 게임시장의 특성상 실증분석이 어렵기 때문이다. 이 같은 기존 연구의 한계를 극복하기 위한 방법으로 본 연구에서는 ABM을 이용한다. 한편, 게임 사용자들의 행동 특성은 게임 장르별로 달라지며 주어진 게임의 특성에 따라서 많은 편차를 보이기 때문에 그만큼 모호성과 불확실성이 수반된다. 이러한 상황을 고려하여 본 연구에서는 ABM과 퍼지 논리를 결합한 방법을 적용한다. 본 연구에서 고려한 온라인 게임 장르는 MMORPG와 스포츠게임이다. ABM과 퍼지 논리를 결합한 시뮬레이션 결과 MMORPG 게임장르에서는 사용자들이 고성능 아이템에 값비싼 가격을 지불할 동기가 있음이 확인되었다. 반면, 스포츠게임 장르의 경우 게임 사용자들은 아이템 성능 자체에는 민감하게 반응하지 않으며, 상대적으로 합리적인 가격대에서 게임 아이템 거래를 하고자 함을 알 수 있었다. 이 같은 본 연구의 분석결과로 미루어 볼 때 본 연구에서 제안하는 퍼지논리 기반의 ABM 시뮬레이션 기법은 온라인 게임사가 게임 아이템 관리 및 고객 이탈방지전략 수립 시 유용하게 사용될 가능성이 충분한 도구임을 알 수 있었다.

교육용 모바일 증강현실 게임을 위한 지능형 어휘 추천 에이전트 (Intelligent Vocabulary Recommendation Agent for Educational Mobile Augmented Reality Games)

  • 김진일
    • 융합정보논문지
    • /
    • 제9권2호
    • /
    • pp.108-114
    • /
    • 2019
  • 본 논문에서는 모바일 교육 증강현실 게임 환경에서 게임 학습 참여자의 학습 필요와 요구에 부응하는 어휘를 자동으로 제공해주는 지능형 어휘 추천 에이전트를 제안한다. 제안된 에이전트는 모바일 기술의 특성과 증강 현실 기술의 특성을 최대한 반영하여 설계하도록 하고 상황 어휘 추론 모듈, 싱글 게임 어휘 추천 모듈, 배틀 게임 어휘 추천 모듈, 학습 어휘 목록 모듈, 유의어 모듈로 구성한다. 연구 결과, 게임 학습 참여자들은 대체적으로 만족함을 알 수 있다. 상황 어휘 추론과 유의어의 정확도는 각각 4.01점, 4.11점으로 게임 학습 참여자가 처한 상황과 관련이 깊은 어휘가 추출되는 것을 보여준다. 하지만 만족도의 경우에는 배틀 게임 어휘(3.86)는 개인별 학습자의 추천 어휘 중에서 공동으로 사용할 수 있는 어휘를 추천하기 때문에 싱글 게임 어휘(3.94)보다는 상대적으로 낮은 결과가 나타났다.

조정 에이전트를 이용한 작업 할당 최적화 기법 (An Optimization Strategy of Task Allocation using Coordination Agent)

  • 백재현;엄기현;조경은
    • 한국게임학회 논문지
    • /
    • 제7권4호
    • /
    • pp.93-104
    • /
    • 2007
  • 게임과 같은 실시간이며 복잡한 다중 에이전트 환경에서는 시스템의 효율성을 극대화하기 위해 반복적으로 작업 할당이 수행된다. 본 논문에서는 실시간 다중 에이전트 구조에 적합하며 최적화된 작업 할당이 가능한 방안으로 $A^*$ 알고리즘을 적용한 조정 에이전트를 제안한다. 제안하는 조정 에이전트는 수행 가능한 에이전트와 할당 가능한 작업으로 정제된 모든 에이전트와 작업의 조합으로 상태 그래프를 생성하고, $A^*$ 알고리즘을 이용한 평가함수를 적용하여 최적화된 작업 할당을 수행한다. 또한 실시간 재 할당에 따른 지연을 방지하기 위해 그리디 방식을 선택적으로 사용함으로써 재할당 요구에 대한 빠른 처리가 가능하다. 마지막으로 모의실험을 통해 조정 에이전트를 통한 최적화된 작업 할당 결과가 그리디 방식의 작업 할당보다 성능이 25%향상되었음을 입증한다.

  • PDF

게임환경에서 AB 와 CA 수학모델을 이용한 보행자들의 집단행동 구현 (Implementation of Crowd Behavior of Pedestrain based AB and CA mathematical model in Intelligent Game Environment)

  • 김성동;김종현
    • 한국게임학회 논문지
    • /
    • 제19권6호
    • /
    • pp.5-14
    • /
    • 2019
  • 본 논문에서는 게임 환경에서 Agent Based 와 Cellular Automata 모델 시스템을 이용한 보행자들의 집단행동 움직임에 대한 모델링과 그 시뮬레이션을 제안한다. 군중들의 사회적 행동은 복잡하고 중요하며, 이를 근거로 게임 환경에서 AB와 CA모델 시스템을 바탕으로 어떤 목적을 가진 군중 상호작용을 나타나는 모습을 게임 프로토타입 모델로 구현하였다. 본 실험은 실제 보행자들이 있는 위험상황에서 군중행동을 연구하기 위하여 효율적이고 정확한 플랫폼으로서 집단 움직임의 가능성을 보여주었다.