• Title/Summary/Keyword: 학습강화

Search Result 1,581, Processing Time 0.028 seconds

Implementation of Reinforcement Learning Agent to Avoid Blocks in Block Avoidance Game (블록 피하기 게임에서 강화 학습을 이용한 블록 피하기 에이전트 구현)

  • Lee, Kyong-Ho;Kang, Byong-Seop
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.01a
    • /
    • pp.243-246
    • /
    • 2018
  • 본 논문에서는 2차원 공간상에서 상부에서 하부로 떨어지는 블록을 하부에서 피하는 게임에서 강화 학습에 사용되는 DQN 알고리즘을 이용하여 블록 피하기 에이전트를 구현하고 학습 통해 점점 더 높은 점수를 받는 모습을 확인하였다. 파이썬을 이용하여 게임을 구현한 후 텐서플로우를 이용하여 DQN를 이용한 에이전트를 구현하였다. 에이전트는 보상을 통한 학습을 통하여 점점 강화되도록 하였는데, 초기에는 무작위로 움직였으나, 환경으로부터 받는 보상으로 점점 더 능숙하게 피하는 모습을 관찰할 수 있었다. 본 구현에서는 4000번 정도의 게임 시행에서 아주 능숙하게 피하는 결과를 얻을 수 있었다.

  • PDF

Continual Multiagent Reinforcement Learning in Dynamic Environments (동적 환경에서의 지속적인 다중 에이전트 강화 학습)

  • Jung, Kyuyeol;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.988-991
    • /
    • 2020
  • 다양한 실세계 응용 분야들에서 공동의 목표를 위해 여러 에이전트들이 상호 유기적으로 협력할 수 있는 행동 정책을 배우는 것은 매우 중요하다. 이러한 다중 에이전트 강화 학습(MARL) 환경에서 기존의 연구들은 대부분 중앙-집중형 훈련과 분산형 실행(CTDE) 방식을 사실상 표준 프레임워크로 채택해왔다. 하지만 이러한 다중 에이전트 강화 학습 방식은 훈련 시간 동안에는 경험하지 못한 새로운 환경 변화가 실전 상황에서 끊임없이 발생할 수 있는 동적 환경에서는 효과적으로 대처하기 어렵다. 이러한 동적 환경에 효과적으로 대응하기 위해, 본 논문에서는 새로운 다중 에이전트 강화 학습 체계인 C-COMA를 제안한다. C-COMA는 에이전트들의 훈련 시간과 실행 시간을 따로 나누지 않고, 처음부터 실전 상황을 가정하고 지속적으로 에이전트들의 협력적 행동 정책을 학습해나가는 지속 학습 모델이다. 본 논문에서는 대표적인 실시간 전략게임인 StarcraftII를 토대로 동적 미니게임을 구현하고 이 환경을 이용한 다양한 실험들을 수행함으로써, 제안 모델인 C-COMA의 효과와 우수성을 입증한다.

Implementation Fighting Game AI using Reinforcement Learning (강화학습을 이용한 대전 격투 게임 AI 구현)

  • Shin, Hee-Sang;Park, Seung-Bo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.333-334
    • /
    • 2022
  • 본 논문에서는 대전 격투 게임에서의 AI 개발을 위한 강화학습 사용 방법을 제안한다. 이 방법은 학습 모델에 상대방의 다양한 패턴을 학습시켜 적은 코드로 효율적인 AI 개발을 할 수 있어 개발 시간을 최소화 할 수 있다. 또한, 이 방법은 복잡한 코드를 추가 또는 제거할 필요 없이 보상과 액션을 조정하여 다양한 종류의 AI를 원하는 만큼 생성할 수 있다는 장점이 있다. 본 논문에서는 Unity 사에서 제공하는 머신러닝 툴인 ML-Agents를 활용하여 강화학습을 통한 대전 격투 게임 AI의 가능성을 보인다.

  • PDF

An Effective Adaptive Dialogue Strategy Using Reinforcement Loaming (강화 학습법을 이용한 효과적인 적응형 대화 전략)

  • Kim, Won-Il;Ko, Young-Joong;Seo, Jung-Yun
    • Journal of KIISE:Software and Applications
    • /
    • v.35 no.1
    • /
    • pp.33-40
    • /
    • 2008
  • In this paper, we propose a method to enhance adaptability in a dialogue system using the reinforcement learning that reduces response errors by trials and error-search similar to a human dialogue process. The adaptive dialogue strategy means that the dialogue system improves users' satisfaction and dialogue efficiency by loaming users' dialogue styles. To apply the reinforcement learning to the dialogue system, we use a main-dialogue span and sub-dialogue spans as the mathematic application units, and evaluate system usability by using features; success or failure, completion time, and error rate in sub-dialogue and the satisfaction in main-dialogue. In addition, we classify users' groups into beginners and experts to increase users' convenience in training steps. Then, we apply reinforcement learning policies according to users' groups. In the experiments, we evaluated the performance of the proposed method on the individual reinforcement learning policy and group's reinforcement learning policy.

Improvement of Sequential Prediction Algorithm for Player's Action Prediction (플레이어 행동예측을 위한 순차예측 알고리즘의 개선)

  • Shin, Yong-Woo;Chung, Tae-Choong
    • Journal of Internet Computing and Services
    • /
    • v.11 no.3
    • /
    • pp.25-32
    • /
    • 2010
  • It takes quite amount of time to study a game because there are many game characters and different stages are exist for games. This paper used reinforcement learning algorithm for characters to learn, and so they can move intelligently. On learning early, the learning speed becomes slow. Improved sequential prediction method was used to improve the speed of learning. To compare a normal learning to an improved one, a game was created. As a result, improved character‘s ability was improved 30% on learning speed.

Combining Imitation Learning and Reinforcement Learning for Visual-Language Navigation Agents (시각-언어 이동 에이전트를 위한 모방 학습과 강화 학습의 결합)

  • Oh, Suntaek;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.05a
    • /
    • pp.559-562
    • /
    • 2020
  • 시각-언어 이동 문제는 시각 이해와 언어 이해 능력을 함께 요구하는 복합 지능 문제이다. 본 논문에서는 시각-언어 이동 에이전트를 위한 새로운 학습 모델을 제안한다. 이 모델은 데모 데이터에 기초한 모방 학습과 행동 보상에 기초한 강화 학습을 함께 결합한 복합 학습을 채택하고 있다. 따라서 이 모델은 데모 데이타에 편향될 수 있는 모방 학습의 문제와 상대적으로 낮은 데이터 효율성을 갖는 강화 학습의 문제를 상호 보완적으로 해소할 수 있다. 또한, 제안 모델은 서로 다른 두 학습 간에 발생 가능한 학습 불균형도 고려하여 손실 정규화를 포함하고 있다. 또, 제안 모델에서는 기존 연구들에서 사용되어온 목적지 기반 보상 함수의 문제점을 발견하고, 이를 해결하기 위해 설계된 새로은 최적 경로 기반 보상 함수를 이용한다. 본 논문에서는 Matterport3D 시뮬레이션 환경과 R2R 벤치마크 데이터 집합을 이용한 다양한 실들을 통해, 제안 모델의 높은 성능을 입증하였다.

Reinforcement Learning Algorithm using Domain Knowledge for MAV (초소형 비행체 운항방법에 대한 환경 지식을 이용한 강화학습 방법)

  • Kim, Bong-Oh;Kong, Sung-Hak;Jang, Si-Young;Suh, Il-Hong;Oh, Sang-Rok
    • Proceedings of the KIEE Conference
    • /
    • 2002.07d
    • /
    • pp.2407-2409
    • /
    • 2002
  • 강화학습이란 에이전트가 알려지지 않은 미지의 환경에서 행위와 보답을 주고받으며, 임의의 상태에서 가장 적절한 행위를 학습하는 방법이다. 만약 강화학습 중에 에이전트가 과거 문제들을 해결하면서 학습한 환경에 대한 지식을 이용할 수 있는 능력이 있다면 새로운 문제를 빠르게 해결할 수 있다. 이런 문제를 풀기 위한 방법으로 에이전트가 과거에 학습한 여러 문제들에 대한 환경 지식(Domain Knowledge)을 Local state feature라는 기억공간에 학습한 후 행위함수론 학습할 때 지식을 활용하는 방법이 연구되었다. 그러나 기존의 연구들은 주로 2차원 공간에 대한 연구가 진행되어 왔다. 본 논문에서는 환경 지식을 이용한 강화학습 알고리즘을 3차원 공간에 대해서도 수행 할 수 있도록하는 개선된 알고리즘을 제안하였으며, 제안된 알고리즘의 유효성을 검증하기 위해 초소형 비행체의 항공운항 학습에 대해 모의실험을 수행하였다.

  • PDF

Locomotion of Crawling Robots Based on Reinforcement Learning and Meta-Learning (강화학습 기법과 메타학습을 이용한 기는 로봇의 이동)

  • Mun, Yeong-Jun;Jeong, Gyu-Baek;Park, Ju-Yeong
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.395-398
    • /
    • 2007
  • 최근 인공지능 분야에서는 강화학습(Reinforcement Learning)에 대한 관심이 크게 증폭되고 있으며, 여러 관련 분야에 적용되고 있다. 본 논문에서는 강화학습 기법 중 액터-크리틱 계열에 속하는 RLS-NAC 알고리즘을 활용하여 Kimura의 기는 로봇의 이동을 다룰 때에 중요 파라미터의 결정을 위하여 meta-learning 기법을 활용하는 방안에 고려한다.

  • PDF

News Article Recommender System By Relevance and Reinforcement Learning (관련성과 강화학습을 이용한 신문기사 추천시스템)

  • 상태종;손기준;박미성;이상조
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.229-231
    • /
    • 2004
  • 추천 시스템은 양질의 정보를 추천하기 위해서 사용자의 관심도를 반영해야 한다. 이를 위해 본 연구에서는 강화학습과 관련 정보, 비관련 정보를 모두 이용하는 피드백 방법을 결합하였다. 사용자의 문서에 대한 평가를 평가 값으로 사용하여 사용자가 선호하는 용어와 선호하지 않는 용어를 추출하고, 이를 이용해 사용자 프로파일을 강화학습으로 학습하게 된다. 제안된 방법으로 신문기사 추천시스템에 적용하여 실험한 결과, 관련 정보와 비관련 정보를 함께 사용한 방범이 기존의 관련 정보안물 사용한 방법보다 더 나은 성능을 보였다.

  • PDF

DQN Reinforcement Learning for Acrobot in OpenAI Gym Environment (OpenAI Gym 환경의 Acrobot에 대한 DQN 강화학습)

  • Myung-Ju Kang
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.35-36
    • /
    • 2023
  • 본 논문에서는 OpenAI Gym 환경에서 제공하는 Acrobot-v1에 대해 DQN(Deep Q-Networks) 강화학습으로 학습시키고, 이 때 적용되는 활성화함수의 성능을 비교분석하였다. DQN 강화학습에 적용한 활성화함수는 ReLU, ReakyReLU, ELU, SELU 그리고 softplus 함수이다. 실험 결과 평균적으로 Leaky_ReLU 활성화함수를 적용했을 때의 보상 값이 높았고, 최대 보상 값은 SELU 활성화 함수를 적용할 때로 나타났다.

  • PDF