• 제목/요약/키워드: Game Agent

검색결과 154건 처리시간 0.023초

Cognitive and Emotional Structure of a Robotic Game Player in Turn-based Interaction

  • Yang, Jeong-Yean
    • International journal of advanced smart convergence
    • /
    • 제4권2호
    • /
    • pp.154-162
    • /
    • 2015
  • This paper focuses on how cognitive and emotional structures affect humans during long-term interaction. We design an interaction with a turn-based game, the Chopstick Game, in which two agents play with numbers using their fingers. While a human and a robot agent alternate turn, the human user applies herself to play the game and to learn new winning skills from the robot agent. Conventional valence and arousal space is applied to design emotional interaction. For the robotic system, we implement finger gesture recognition and emotional behaviors that are designed for three-dimensional virtual robot. In the experimental tests, the properness of the proposed schemes is verified and the effect of the emotional interaction is discussed.

네비메쉬를 이용한 3D모바일 레이싱 게임 개발 (Devleopment of Racing Game using NevMesh Agent)

  • 이병철;안성옥;김수균
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.73-74
    • /
    • 2019
  • 증가하는 모바일 시장 규모에 맞추어 게임 엔진의 기능이 발전하고 있다. 대형 개발사를 위한 간편한 협업 기능부터 1인 개발자를 위한 간단한 기능들까지 다양한 기능들의 게임 엔진이 사용되고 있으며 그 중 유니티 엔진은 소규모 인디 개발자들을 위한 기능들을 많이 추가하고 또한 발전시켜 많은 개발자들에게 도움을 주고 있다. 본 논문 에서 소개하는 게임은 유니티의 여러 기능을 적극적으로 이용하고, 특히 네비메쉬 에이전트를 사용하여 사용자가 길 찾기 문제를 쉽게 하도록 만든 것이 특징이다.

  • PDF

Agent 기반 모델링에 의한 근접전투 손실예측 방법론 (Agent-Based Modeling Methodology for Close-Combat Attrition Estimates)

  • 김희수;이재호;신현주
    • 한국국방경영분석학회지
    • /
    • 제32권2호
    • /
    • pp.56-77
    • /
    • 2006
  • 본 연구는 근접전투 손실 모델링 분야에서 좀 더 개선된 워게임 모델링 방법론을 제시한다. 지금까지 군사 운영분석가들은 랜체스터형 미분 방정식과 같은 방정식 기반 모델링 방법론을 사용해서 전투손실 평가를 하고 있다. 방정식 기반 모델링 방법론은 워게임 모의결과를 분석 및 평가하기는 용이하나 동적인 전장환경을 모의하기에는 다수의 제한사항을 포함하고 있다. 이러한 방정식 기반 모델링 방법론의 결점을 극복하기 위해서 본 연구에서는 에이전트 기반 모델링 방법론을 제시한다. 에이전트 기반 모델링 방법론은 전투손실계수 대신에 전투손실 행위에 기반하여 근접전투를 모델링한다. 2가지 모델링 방법론에 의해서 유사한 근접전투 상황 하에서 모델링 된 자료를 모의하여 비교분석 및 평가한다.

게임 환경에서의 지능형 다중 에이전트 개발 (Development of Intelligent Multi-Agent in the Game Environment)

  • 김동민;최진우;우종우
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.69-78
    • /
    • 2015
  • 다중 에이전트 시스템에 대한 연구는 최근 다양한 분야에서 활성화 되고 있으며, 복잡한 시스템의 제어 및 최적화에 관한 연구가 진행되어 왔다. 본 논문에서는 게임 환경에서의 NPC(Non-Player Character) 시뮬레이션을 위한 다중 에이전트 시스템을 개발한다. 시스템 개발의 목적은 동적 이산사건 영역의 상황을 추론하여 신속하고 정확한 판단을 제공하고 에이전트 시스템의 최적화 과정을 보다 손쉽게 도와주는데 있다. 이를 위한 에이전트 시스템의 기본 모델은 페트리넷을 활용하여 구조를 단순화 하고 퍼지 추론엔진을 사용하여 다양한 상황을 결정할 수 있도록 하였다. 본 연구 시스템의 실험은 NPC간의 가상 전장 상황을 묘사하며, 퍼지 규칙이 적용된 에이전트와 유한 상태 기계로 구현된 NPC를 시뮬레이션 하여 에이전트의 승률과 생존율을 산출하였다. 실험 결과 퍼지 규칙 기반 에이전트의 승률과 생존율이 유한 상태 기계로 구현된 NPC보다 더 높은 것으로 나타났다.

CNN 기반 기보학습 및 강화학습을 이용한 인공지능 게임 에이전트 (An Artificial Intelligence Game Agent Using CNN Based Records Learning and Reinforcement Learning)

  • 전영진;조영완
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1187-1194
    • /
    • 2019
  • 본 논문에서는 인공지능 오델로 게임 에이전트를 구현하기 위해 실제 프로기사들의 기보를 CNN으로 학습시키고 이를 상태의 형세 판단을 위한 근거로 삼아 최소최대탐색을 이용해 현 상태에서 최적의 수를 찾는 의사결정구조를 사용하고 이를 발전시키고자 강화학습 이론을 이용한 자가대국 학습방법을 제안하여 적용하였다. 본 논문에서 제안하는 구현 방법은 기보학습의 성능 평가 차원에서 가치평가를 위한 네트워크로서 기존의 ANN을 사용한 방법과 대국을 통한 방법으로 비교하였으며, 대국 결과 흑일 때 69.7%, 백일 때 72.1%의 승률을 나타내었다. 또한 본 논문에서 제안하는 강화학습 적용 결과 네크워크의 성능을 강화학습을 적용하지 않은 ANN 및 CNN 가치평가 네트워크 기반 에이전트와 비교한 결과 각각 100%, 78% 승률을 나타내어 성능이 개선됨을 확인할 수 있었다.

실시간 동적인 환경에서 다중 에이전트의 협동 기법 (A Cooperation Strategy of Multi-agents in Real-Time Dynamic Environments)

  • 유한하;조경은;엄기현
    • 한국게임학회 논문지
    • /
    • 제6권3호
    • /
    • pp.13-22
    • /
    • 2006
  • 오늘날 스포츠, RTS, RPG 게임과 같이 멀티 플레이어가 한 팀을 이루는 집단형 방식의 게임은 팀 인공지능 기술이 더욱 필요하다. 기존의 독립적인 지능형 에이전트는 스스로 문제를 해결하는 자율성 향상 연구에 치중하였으나, 이는 다른 에이전트간의 협동 및 상호작용 능력이 부족하다. 이를 위해 본 논문은 다중에이전트 시스템에서 효과적인 역할 분담과 자율성을 갖는 레벨통합 접근방식을 소개한다. 복잡한 목표를 성취하기 위해 에이전트의 역할 정보를 이용하여 각자의 목표를 할당하고 각 에이전트는 맡은 역할을 동적인 환경에서 스스로 판단하고 행동한다. 팀 전체의 목표는 상호 보완된 역할 분담의 전략적인 측면에서 조정한다. 각 에이전트는 데이터보드를 이용하여 서로의 상태 정보를 공유하여 상호 협동을 유도한다. 역할이 할당된 각 에이전트는 스스로 계획기능을 갖고 있어 동적인 환경에서 적합한 행동을 취한다. 이 협동과 상호작용 과정에서 충돌의 문제점이 발생하는데 이를 제어하는 조정 에이전트의 역할을 전략적 측면에서 접근한다. 본 논문에서 제시하는 레벨통합 접근방식이 기존의 중앙 집권적 접근방식, 분권적 접근방식과 비교 실험하여 기존 방식보다 성능이 향상됨을 보인다.

  • PDF

3D 스포츠 게임에서 Agent와 광고의 활용에 관한 연구 (The Application of Agent and Advertising in 3D Sports Game)

  • 이용재;이영재
    • 한국정보통신학회논문지
    • /
    • 제14권10호
    • /
    • pp.2269-2276
    • /
    • 2010
  • 3D 스포츠 게임에서 게이머로부터 직접제어를 받지 않고 스스로 동작하는 자율 캐릭터 에이전트들의 역할과 이를 활용한 광고기법에 대해 분석하였다. 이러한 접근은 게임과 광고를 접목한 학제 간 연구로써, 향후 광고가 게임업계의 수익모델로 생산적으로 활용될 수 있음을 의미한다. 분석을 위해 에이전트가 음성과 텍스트로 반응하는 3D 탁구게임과 게임 내 브랜드가 노출되는 간접광고를 직접 제작하였다. 제작 후 에이전트의 역할과 광고의 활용에 대한 게이머들의 태도를 측정하기 위해 설문조사를 실시하였다. 그 결과 유의미한 내용이 발견되었다. 첫째, 3D 탁구게임에서 에이전트의 역할과 표현이 게임에 유용하게 작용한다는 것을 확인 할 수 있었다. 둘째, 게임에 등장하는 광고에 대해 긍정적 태도를 갖고 있다는 것을 발견할 수 있었다. 이는 게임 아이템을 광고적 요소로도 적용할 수도 있다는 가능성을 나탄 낸 것이다. 이러한 결과는, 기능성 게임과 여성향(woman-oriented) 게임에서의 도우미와 파트너 역할 연구를 위한 기초자료로 활용될 수 있다.

로봇 축구 대회를 위한 마이크로 로봇 시스템의 개발 (The development of a micro robot system for robot soccer game)

  • 이수호;김경훈;김주곤;조형석
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 한국자동제어학술회의논문집(국내학술편); 포항공과대학교, 포항; 24-26 Oct. 1996
    • /
    • pp.507-510
    • /
    • 1996
  • In this paper we present the multi-agent robot system developed for participating in micro robot soccer tournament. The multi-agent robot system consists of micro robot, a vision system, a host computer and a communication module. Mcro robot are equipped with two mini DC motors with encoders and gearboxes, a R/F receiver, a CPU and infrared sensors for obstacle detection. A vision system is used to recognize the position of the ball and opponent robots, position and orientation of our robots. The vision system is composed of a color CCD camera and a vision processing unit. Host computer is a Pentium PC, and it receives information from the vision system, generates commands for each robot using a robot management algorithm and transmits commands to the robots by the R/F communication module. And in order to achieve a given mission in micro robot soccer game, cooperative behaviors by robots are essential. Cooperative work between individual agents is achieved by the command of host computer.

  • PDF

교섭 단계에서 발생하는 비용을 고려한 인공 에이전트 기반 교섭 게임 (Artificial Agent-based Bargaining Game considering the Cost incurred in the Bargaining Stage)

  • 이상욱
    • 한국콘텐츠학회논문지
    • /
    • 제20권11호
    • /
    • pp.292-300
    • /
    • 2020
  • 인공지능 기술이 발전함에 따라 경제, 사회, 과학 분야 등 실세계 다양한 분야의 현상을 가상의 인공 에이전트를 활용한 컴퓨터 시뮬레이션을 통해 해석하려는 시도가 이어져 왔다. 기존의 인공 에이전트 기반 교섭 게임 해석에서는 실세계의 교섭 게임에서 단계가 진행될 때 발생하는 비용 및 시간이 지남에 따라 교섭 대상이 감가상각 되는 것을 반영하지 않은 문제가 있었다. 본 연구에서는 기존의 인공 에이전트 기반 교섭 게임 모델에 교섭 단계에서 발생하는 비용 및 교섭 대상 감가상각을 (교섭 비용)을 반영하여 그 효과를 관찰하였다. 실험 결과 교섭 단계에서 발생하는 비용이 커질수록 게임에 참여하는 두 인공 에이전트는 반반 비율에 가까운 몫을 가졌으며 이른 단계에서 협상을 타결하는 현상을 관찰하였다.

2D 레이싱 게임 학습 에이전트를 위한 강화 학습 알고리즘 비교 분석 (Comparison of Reinforcement Learning Algorithms for a 2D Racing Game Learning Agent)

  • 이동철
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권1호
    • /
    • pp.171-176
    • /
    • 2020
  • 강화 학습은 인공지능 에이전트가 비디오 게임을 학습할 때 가장 효과적으로 사용되는 방법이다. 강화 학습을 위해 여지껏 많은 알고리즘들이 제시되어 왔지만 알고리즘마다 적용되는 분야에 따라 다른 성능을 보여주었다. 본 논문은 최근 강화 학습에서 주로 사용되는 알고리즘들의 성능이 2D 레이싱 게임에서 어떻게 달라지는지 비교 평가한다. 이를 위해 평가에서 사용할 성능 메트릭을 정의하고 각 알고리즘에 따른 메트릭의 값을 그래프로 비교하였다. 그 결과 ACER (Actor Critic with Experience Replay)를 사용할 경우 게임의 보상이 다른 알고리즘보다 평균적으로 높은 것을 알 수 있었고, 보상 값이 가장 낮은 알고리즘과의 차이는 157%였다.