• 제목/요약/키워드: Intelligent Game Agent

검색결과 29건 처리시간 0.027초

교육용 모바일 증강현실 게임을 위한 지능형 어휘 추천 에이전트 (Intelligent Vocabulary Recommendation Agent for Educational Mobile Augmented Reality Games)

  • 김진일
    • 융합정보논문지
    • /
    • 제9권2호
    • /
    • pp.108-114
    • /
    • 2019
  • 본 논문에서는 모바일 교육 증강현실 게임 환경에서 게임 학습 참여자의 학습 필요와 요구에 부응하는 어휘를 자동으로 제공해주는 지능형 어휘 추천 에이전트를 제안한다. 제안된 에이전트는 모바일 기술의 특성과 증강 현실 기술의 특성을 최대한 반영하여 설계하도록 하고 상황 어휘 추론 모듈, 싱글 게임 어휘 추천 모듈, 배틀 게임 어휘 추천 모듈, 학습 어휘 목록 모듈, 유의어 모듈로 구성한다. 연구 결과, 게임 학습 참여자들은 대체적으로 만족함을 알 수 있다. 상황 어휘 추론과 유의어의 정확도는 각각 4.01점, 4.11점으로 게임 학습 참여자가 처한 상황과 관련이 깊은 어휘가 추출되는 것을 보여준다. 하지만 만족도의 경우에는 배틀 게임 어휘(3.86)는 개인별 학습자의 추천 어휘 중에서 공동으로 사용할 수 있는 어휘를 추천하기 때문에 싱글 게임 어휘(3.94)보다는 상대적으로 낮은 결과가 나타났다.

상황인지를 위한 지능형 NPC 프레임워크 (An Intelligent NPC Framework for Context Awareness)

  • 이봉근;정재두;류근호
    • 한국산학기술학회논문지
    • /
    • 제10권9호
    • /
    • pp.2361-2368
    • /
    • 2009
  • 최근 게임에서의 인공지능에 대한 관심이 높아지고 있으며 인공지능 기술을 이용하여 게임 캐릭터를 좀 더 사실적이고 현실감 있게 하는 연구가 진행되고 있다. 특히 게임에서 NPC(Non Player Character)는 게임인공지능 관련 연구 대상의 중요한 부분으로 게임을 제작하거나 플레이하는 사람들 모두의 대상이 되고 있다. 본 논문에서는 PC(Player Character)에 능동적으로 반응하는 지능형 상황인지(Context Awareness) NPC 기술에 대하여 분석하고 이의 구현을 위한 지능형 NPC 프레임워크를 제안하였다. 제안된 상황인지 NPC 지능형 프레임워크는 다양한 상황인지 지능형 에이전트 구현에 적용될 수 있으며 또한 부가적인 에이전트의 추가와 삭제가 용이하기 때문에 점진적 개발과 다양한 응용에 적응적으로 개발이 가능하다.

게임환경에서 AB 와 CA 수학모델을 이용한 보행자들의 집단행동 구현 (Implementation of Crowd Behavior of Pedestrain based AB and CA mathematical model in Intelligent Game Environment)

  • 김성동;김종현
    • 한국게임학회 논문지
    • /
    • 제19권6호
    • /
    • pp.5-14
    • /
    • 2019
  • 본 논문에서는 게임 환경에서 Agent Based 와 Cellular Automata 모델 시스템을 이용한 보행자들의 집단행동 움직임에 대한 모델링과 그 시뮬레이션을 제안한다. 군중들의 사회적 행동은 복잡하고 중요하며, 이를 근거로 게임 환경에서 AB와 CA모델 시스템을 바탕으로 어떤 목적을 가진 군중 상호작용을 나타나는 모습을 게임 프로토타입 모델로 구현하였다. 본 실험은 실제 보행자들이 있는 위험상황에서 군중행동을 연구하기 위하여 효율적이고 정확한 플랫폼으로서 집단 움직임의 가능성을 보여주었다.

Generating Cooperative Behavior by Multi-Agent Profit Sharing on the Soccer Game

  • Miyazaki, Kazuteru;Terada, Takashi;Kobayashi, Hiroaki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.166-169
    • /
    • 2003
  • Reinforcement learning if a kind of machine learning. It aims to adapt an agent to a given environment with a clue to a reward and a penalty. Q-learning [8] that is a representative reinforcement learning system treats a reward and a penalty at the same time. There is a problem how to decide an appropriate reward and penalty values. We know the Penalty Avoiding Rational Policy Making algorithm (PARP) [4] and the Penalty Avoiding Profit Sharing (PAPS) [2] as reinforcement learning systems to treat a reward and a penalty independently. though PAPS is a descendant algorithm of PARP, both PARP and PAPS tend to learn a local optimal policy. To overcome it, ion this paper, we propose the Multi Best method (MB) that is PAPS with the multi-start method[5]. MB selects the best policy in several policies that are learned by PAPS agents. By applying PS, PAPS and MB to a soccer game environment based on the SoccerBots[9], we show that MB is the best solution for the soccer game environment.

  • PDF

게임 환경에서의 지능형 다중 에이전트 개발 (Development of Intelligent Multi-Agent in the Game Environment)

  • 김동민;최진우;우종우
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.69-78
    • /
    • 2015
  • 다중 에이전트 시스템에 대한 연구는 최근 다양한 분야에서 활성화 되고 있으며, 복잡한 시스템의 제어 및 최적화에 관한 연구가 진행되어 왔다. 본 논문에서는 게임 환경에서의 NPC(Non-Player Character) 시뮬레이션을 위한 다중 에이전트 시스템을 개발한다. 시스템 개발의 목적은 동적 이산사건 영역의 상황을 추론하여 신속하고 정확한 판단을 제공하고 에이전트 시스템의 최적화 과정을 보다 손쉽게 도와주는데 있다. 이를 위한 에이전트 시스템의 기본 모델은 페트리넷을 활용하여 구조를 단순화 하고 퍼지 추론엔진을 사용하여 다양한 상황을 결정할 수 있도록 하였다. 본 연구 시스템의 실험은 NPC간의 가상 전장 상황을 묘사하며, 퍼지 규칙이 적용된 에이전트와 유한 상태 기계로 구현된 NPC를 시뮬레이션 하여 에이전트의 승률과 생존율을 산출하였다. 실험 결과 퍼지 규칙 기반 에이전트의 승률과 생존율이 유한 상태 기계로 구현된 NPC보다 더 높은 것으로 나타났다.

An Acquisition of Strategy in Two Player Game by Coevolutionary Agents

  • Kushida, Jun-ichi;Noriyuki Taniguchi;Yukinobu Hoshino;Katsuari Kamei
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.690-693
    • /
    • 2003
  • The purpose of two player game is that a player beats an enemy. In order to win to various enemies, a learning of various strategies is indispensable. However, the optimal action to overcome the enemies will change when the game done over and again because the enemy's actions also change dynamically. Sol it is din-cult that the player aquires the optimal action and that the specific player keeps winning to various enemies. Species who have a competition relation and affect other's existence is called a coevolution. Coevolution has recently attracred considerable interest in the community of Artificial Life and Evolutionary Computation(1). In this paper, we apply Classifier System for agent team to two player game. A reward and a penalty are given to the used rules when the agent achieve specific action in the game and each team's rulebase are evaluated based on the ranking in the league. We show that all teams can acquire the optimal actions by coevolution.

  • PDF

3차원 가상환경에서 동작하는 지능형 에이전트의 구조와 경로 찾기 행위 (Architecture and Path-Finding Behavior of An Intelligent Agent Deploying within 3D Virtual Environment)

  • 김인철;이재호
    • 정보처리학회논문지B
    • /
    • 제10B권1호
    • /
    • pp.1-12
    • /
    • 2003
  • 본 논문에서는 대표적인 3차원 일인칭 액션 게임인 Unreal Tournament 게임과 이것에 기초한 지능형 에이전트 연구용 테스트베드인 Gamebots 시스템을 소개한다. 그리고 이들이 제공하는 3차원 가상환경에서 동작하는 지능형 NPC인 KGBot의 설계와 구현에 대해 설명한다. KGBot는 Gamebots 시스템 내의 하나의 보트 클라이언트이다. KGBot는 3차원 가상환경 안에 숨겨진 목표점들을 찾아 효과적으로 점령하는 임무를 수행한다. KGBot는 범용의 BDI 에이전트 구조인 UM-PRS를 제어엔진으로 채용하고 있으며, 복잡한 행위들을 여러 계층으로 표현한 계층화된 지식베이스를 가지고 있다. 본 논문에서는 미지의 월드를 효과적으로 탐색함으로써 숨겨진 목표점들의 위치를 빨리 파악하고, 흩어져 있는 이동점들과 경로들을 찾아내어 경로 그래프를 작성하며, 이것에 기초하여 특정 목적지까지 지적의 이동 경로를 계획하는 KGBot의 지능 행위들에 대해 자세히 설명한다. 그리고 끝으로 다양한 3차원 지도를 이용한 실험을 통해 KGBot의 월드 탐색 전략과 제어엔진의 성능을 분석해본다.

플레이 수준 조절이 가능한 강화학습 기반 카드형 대전 게임 에이전트 (Card Battle Game Agent Based on Reinforcement Learning with Play Level Control)

  • 이용철;이칠우
    • 스마트미디어저널
    • /
    • 제13권2호
    • /
    • pp.32-43
    • /
    • 2024
  • 게임 플레이를 위한 행동 주체인 에이전트는 게임 만족도를 높일 수 있는 중요한 요소이다. 하지만 다양한 게임 난이도와 게임 환경, 여러 플레이어를 위한 게임 에이전트 개발에는 많은 시간과 노력이 필요하다. 또한 캐릭터 추가나 업데이트와 같은 게임 환경 변화가 일어나면 새로운 게임 에이전트의 개발이 필요하고, 개발 난이도는 점차 높아진다는 단점이 존재한다. 이와 함께 다양한 플레이어의 수준에 맞는 세분화된 게임 에이전트 역시 중요하다. 단순히 강한 게임 에이전트보다는 세분화된 수준의 게임 플레이가 가능한 게임 에이전트가 활용성이 높고, 플레이어에 대한 만족도를 높일 수 있기 때문이다. 본 논문에서는 카드형 대전 게임을 대상으로 빠른 게임 에이전트 학습과 세분화된 플레이 수준 조절이 가능한 방법을 제안한다. 제안된 방법은 먼저 행동 구성에 대한 높은 자유도와 멀티 에이전트 환경에서의 빠른 학습을 위해 정책(Policy) 기반 분산형 강화학습 방법 중 하나인 IMPALA를 적용한다. 세분화된 플레이 수준 조절은 Temperature-Softmax를 통해 얻은 행동별 확률 값의 샘플링을 통해 수행한다. 논문에서는 Temperature 값의 증가에 따라 게임 에이전트의 플레이 수준이 낮아지는 결과와 이 수치를 다변화하여 손쉽게 다양한 플레이 수준 조절이 가능함을 확인하였다.

단계적 퍼지 시스템 전략모듈을 지원하는 에이전트기반 게임 플랫폼 (Agent-Based Game Platform with Cascade-Fuzzy System Strategy Module)

  • 이원희;김원섭;김태용
    • 한국멀티미디어학회논문지
    • /
    • 제11권1호
    • /
    • pp.76-87
    • /
    • 2008
  • 하드웨어의 성능이 높아질수록 게임 유저들은 높은 수준의 컴퓨터 그래픽, 편리한 유저 인터페이스, 빠른 속도를 가진 네트워크 그리고 영리한 게임 인공지능을 요구하고 있다. 하지만 현재 게임 인공지능 개발은 개발자 혼자 하거나 한 회사의 개발팀에서만 이루어질 뿐이다. 그래서 자신이 혹은 회사에서 개발한 게임 인공지능의 성능이 어느 정도인지 검증을 하기 힘들고 높은 수준의 게임 인공지능을 개발하기 위해 필요한 기본 게임 인공지능기술들이 부족하다. 본 논문에서는 기존의 게임인공지능 플랫폼들의 장, 단점을 알아보고 게임인공지능 플랫폼의 설계 시 고려해야 할 점을 고찰한다. 이것을 바탕으로 전략적 위치를 찾아주는 모듈이 있어 개발자 들이 손쉽게 게임 인공지능을 구현 하고 인공지능 테스트가 가능한 에이전트기반 게임 플랫폼인 Darwin을 제안한다. 그리고 Darwin에서 제공하는 전략적 모듈을 사용하여 제작한 에이전트를 만들어 수행결과를 평가한다.

  • PDF

실시간 동적인 환경에서 다중 에이전트의 협동 기법 (A Cooperation Strategy of Multi-agents in Real-Time Dynamic Environments)

  • 유한하;조경은;엄기현
    • 한국게임학회 논문지
    • /
    • 제6권3호
    • /
    • pp.13-22
    • /
    • 2006
  • 오늘날 스포츠, RTS, RPG 게임과 같이 멀티 플레이어가 한 팀을 이루는 집단형 방식의 게임은 팀 인공지능 기술이 더욱 필요하다. 기존의 독립적인 지능형 에이전트는 스스로 문제를 해결하는 자율성 향상 연구에 치중하였으나, 이는 다른 에이전트간의 협동 및 상호작용 능력이 부족하다. 이를 위해 본 논문은 다중에이전트 시스템에서 효과적인 역할 분담과 자율성을 갖는 레벨통합 접근방식을 소개한다. 복잡한 목표를 성취하기 위해 에이전트의 역할 정보를 이용하여 각자의 목표를 할당하고 각 에이전트는 맡은 역할을 동적인 환경에서 스스로 판단하고 행동한다. 팀 전체의 목표는 상호 보완된 역할 분담의 전략적인 측면에서 조정한다. 각 에이전트는 데이터보드를 이용하여 서로의 상태 정보를 공유하여 상호 협동을 유도한다. 역할이 할당된 각 에이전트는 스스로 계획기능을 갖고 있어 동적인 환경에서 적합한 행동을 취한다. 이 협동과 상호작용 과정에서 충돌의 문제점이 발생하는데 이를 제어하는 조정 에이전트의 역할을 전략적 측면에서 접근한다. 본 논문에서 제시하는 레벨통합 접근방식이 기존의 중앙 집권적 접근방식, 분권적 접근방식과 비교 실험하여 기존 방식보다 성능이 향상됨을 보인다.

  • PDF