• Title/Summary/Keyword: 학습강화

Search Result 1,581, Processing Time 0.125 seconds

Deep Reinforcement Learning for Visual Dialogue Agents (영상 기반 대화 에이전트를 위한 심층 강화 학습)

  • Cho, Yeongsu;Hwang, Jisu;Kim, Incheol
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.05a
    • /
    • pp.412-415
    • /
    • 2018
  • 본 논문에서는 영상 기반 대화 연구를 위한 기존 GuessWhat?! 게임 환경의 한계성을 보완한 새로운 GuessWbat+ 게임 환경을 소개한다. 또 이 환경에서 동작하는 대화 에이전트를 위한 정책 기울기 기반의 심층 강화 학습 알고리즘인 MRRB의 설계와 구현에 대해서도 설명한다. 다양한 실험을 통해, 본 논문에서 제안한 GuessWbat+ 환경과 심층 강화 학습 알고리즘의 긍정적 효과를 입증해 보인다.

Performance Comparison of Reinforcement Learning for Cost Savings in Smart Grid (스마트 그리드 환경에서 비용 절감을 위한 강화학습 기법 성능 비교)

  • Hajin Noh;Yujin Lim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.662-665
    • /
    • 2024
  • IT 기술이 발전하며 실시간 전력 수요량 및 가격 등을 파악할 수 있는 스마트 그리드가 주목을 받고 있다. 스마트 그리드 환경에서는 에너지 저장 장치를 이용하여 소비자의 경제적 부담을 덜어낼 뿐만 아니라 에너지를 효율적으로 사용할 수 있다. 본 연구에서는 이러한 목표를 위해 과거 2시간 동안의 부하량 및 가격을 바탕으로 에너지 저장 장치의 충전 및 방전량을 결정하는 강화학습 알고리즘을 제안한다. 또한, 여러 강화학습 기법의 성능을 비교 분석한다.

  • PDF

Multi Behavior Learning of Lamp Robot based on Q-learning (강화학습 Q-learning 기반 복수 행위 학습 램프 로봇)

  • Kwon, Ki-Hyeon;Lee, Hyung-Bong
    • Journal of Digital Contents Society
    • /
    • v.19 no.1
    • /
    • pp.35-41
    • /
    • 2018
  • The Q-learning algorithm based on reinforcement learning is useful for learning the goal for one behavior at a time, using a combination of discrete states and actions. In order to learn multiple actions, applying a behavior-based architecture and using an appropriate behavior adjustment method can make a robot perform fast and reliable actions. Q-learning is a popular reinforcement learning method, and is used much for robot learning for its characteristics which are simple, convergent and little affected by the training environment (off-policy). In this paper, Q-learning algorithm is applied to a lamp robot to learn multiple behaviors (human recognition, desk object recognition). As the learning rate of Q-learning may affect the performance of the robot at the learning stage of multiple behaviors, we present the optimal multiple behaviors learning model by changing learning rate.

An improvement of the learning speed through Influence Map on Reinforcement Learning (영향력분포도를 이용한 강화학습의 학습속도개선)

  • Shin, Yong-Woo
    • Journal of Korea Game Society
    • /
    • v.17 no.4
    • /
    • pp.109-116
    • /
    • 2017
  • It takes quite amount of time to study a board game because there are many game characters and many state spaces are exist for board games. Therefore, game must do learning long. But, there is weakness with reinforcement learning. On Learning early, the learning speed becomes slow. If there were equal result that both are considered to be best ones during the course of learning stage, Heuristic which utilizes learning of problem area of Jul-Gonu was used to improve the speed of learning. To compare a normal character to an improved one, a board game was created, and then they fought against each other. As a result, improved character's ability was improved on learning speed.

Prey-predator Problem in the Reinforcement Learning of Autonomous Mobile Robots for Cooperative Behavior (협조행동을 위한 자율이동로봇의 강화학습에서의 먹이와 포식자 문제)

  • Kim, Seo-Kwang;Kim, Min-Soo;Yoon, Yong-Seock;Kong, Seong-Gon
    • Proceedings of the KIEE Conference
    • /
    • 2000.11d
    • /
    • pp.809-811
    • /
    • 2000
  • 협조행동이 요구되는 다수의 자율이동로봇 시스템에서 각 개체는 주변환경의 인식뿐만 아니라 지속적인 환경변화에 적응할 수 있는 고도의 추론능력을 요구하고 있다. 이에 본 논문에서는 강화학습을 이용하여 동적으로 변화하는 환경에서 스스로 학습하여 대처할 수 있는 협조행동 방법을 제시하였다. 강화학습은 동물의 학습방법 연구에서 비롯되었으며, 주어진 목표를 수행하는 과정에서 개체의 행동이 목표를 성취하도록 하였을 때는 그 행동에 보상을 주어 환경의 상태에 따른 최적의 행동방법을 찾아내도록 학습하는 방법이다. 따라서 본 논문에서는 포식자들이 협조행동을 통하여 능동적으로 움직이는 먹이를 잡는 까다로운 문제에 제안한 방법을 적용하여 그 성능을 검증하였다.

  • PDF

Neuro-Fuzzy Controller Based on Reinforcement Learning (강화 학습에 기반한 뉴로-퍼지 제어기)

  • 박영철;심귀보
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.10 no.5
    • /
    • pp.395-400
    • /
    • 2000
  • In this paper, we propose a new neuro-fuzzy controller based on reinforcement learning. The proposed system is composed of neuro-fuzzy controller which decides the behaviors of an agent, and dynamic recurrent neural networks(DRNNs) which criticise the result of the behaviors. Neuro-fuzzy controller is learned by reinforcement learning. Also, DRNNs are evolved by genetic algorithms and make internal reinforcement signal based on external reinforcement signal from environments and internal states. This output(internal reinforcement signal) is used as a teaching signal of neuro-fuzzy controller and keeps the controller on learning. The proposed system will be applied to controller optimization and adaptation with unknown environment. In order to verifY the effectiveness of the proposed system, it is applied to collision avoidance of an autonomous mobile robot on computer simulation.

  • PDF

Web Information Search Using Reinforcement Learning (강화학습을 이용한 웹 정보 검색)

  • 정태진;장병탁
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10b
    • /
    • pp.94-96
    • /
    • 2001
  • 현재 인터넷상에서 제공되고 있는 대부분의 서치엔진들은 정보소스에 접근해서 이를 가져오는 웹 로봇(webbot)이라고 불리우는 에이전트를 이용한다. 그런데 이런 웹 로봇들이 웹 문서를 검색하는 방법은 극히 단순하다. 물론 많은 정보를 가지고 오는 것에 초점이 맞추어져 있어서 정확도를 중시하지 않는 것에도 한 원인이 있다. 범용 검색엔진과는 달리 검색하는 영역을 축소하여 특정 주제에 관련된 정보만을 더 정확히 찾아주는 검색엔진의 필요성이 증가하고 있다. 이에 본 논문에서는 강화 학습 방법을 이용하여 웹 상에 존재하는 정보 중에서 특정 주제의 웹 페이지를 보다 더 정확히 찾는 방법을 제시한다. 강화 학습은 웹 상의 하이퍼링크를 따라가는 문제에 있어서 미래에 이로움을 주는 행동의 효용성을 측정하는데 있어서 이점을 보인다. 강화 학습을 이용하여 제시된 방법을 통한 실험에서는 일반적인 방법보다 더 적은 링크를 따라가고도 더 정확한 결과를 보였다.

  • PDF

Hybrid of Reinforcement Learning and Bayesian Inference for Effective Target Tracking of Reactive Agents (반응형 에이전트의 효과적인 물체 추적을 위한 베이지 안 추론과 강화학습의 결합)

  • 민현정;조성배
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.94-96
    • /
    • 2004
  • 에이전트의 '물체 따라가기'는 전통적으로 자동운전이나 가이드 등의 다양한 서비스를 제공할 수 있는 기본적인 기능이다. 여러 가지 물체가 있는 환경에서 '물체 따라가기'를 하기 위해서는 목적하는 대상이 어디에 있는지 찾을 수 있어야 하며, 실제 환경에는 사람이나 차와 같이 움직이는 물체들이 존재하기 때문에 다른 물체들을 피할 수 있어야 한다. 그런데 에이전트의 최적화된 피하기 행동은 장애물의 모양과 크기에 따라 다르게 생성될 수 있다. 본 논문에서는 다양한 모양과 크기의 장애물이 있는 환경에서 최적의 피하기 행동을 생성하면서 물체를 추적하기 위해 반응형 에이전트의 행동선택을 강화학습 한다. 여기에서 정확하게 상태를 인식하기 위하여 상태를 추론하고 목표물과 일정거리를 유지하기 위해 베이지안 추론을 이용한다 베이지안 추론은 센서정보를 이용해 확률 테이블을 생성하고 가장 유력한 상황을 추론하는데 적합한 방법이고, 강화학습은 실시간으로 장애물 종류에 따른 상태에서 최적화된 행동을 생성하도록 평가함수를 제공하기 때문에 베이지안 추론과 강화학습의 결합모델로 장애물에 따른 최적의 피하기 행동을 생성할 수 있다. Webot을 이용한 시뮬레이션을 통하여 다양한 물체가 존재하는 환경에서 목적하는 대상을 따라가면서 이종의 움직이는 장애물을 최적화된 방법으로 피할 수 있음을 확인하였다.

  • PDF

Local Path Planning and Obstacle Avoidance System based on Reinforcement Learning (강화학습 기반의 지역 경로 탐색 및 장애물 회피 시스템)

  • Lee, Se-Hoon;Yeom, Dae-Hoon;Kim, Pung-Il
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.59-60
    • /
    • 2019
  • WCS에서 AGV의 스케줄링과 동적, 정적 장애물 인식 및 충돌 회피문제는 오래전부터 다뤄져 온 중요한 문제이다. 본 논문에서는 위의 문제를 해결하기 위해 Lidar 센서를 중심으로 다양한 데이터를 기반으로 한 강화학습 시스템을 제안한다. 제안하는 시스템은 기본의 명시적인 알고리즘에 비해 다양하고 유동적인 환경에서 경로 계획과 동적 정적 장애물을 인식하고 안정적으로 회피하는 것을 확인하였으며 산업 현장에 도입 가능성을 확인하였다. 또한 강화학습의 적용 범위, 적용 방안과 한계에 대해서 시사한다.

  • PDF

On the Reward Function of Latent SAC Reinforcement Learning to Improve Longitudinal Driving Performance (종방향 주행성능향상을 위한 Latent SAC 강화학습 보상함수 설계)

  • Jo, Sung-Bean;Jeong, Han-You
    • Journal of IKEEE
    • /
    • v.25 no.4
    • /
    • pp.728-734
    • /
    • 2021
  • In recent years, there has been a strong interest in the end-to-end autonomous driving based on deep reinforcement learning. In this paper, we present a reward function of latent SAC deep reinforcement learning to improve the longitudinal driving performance of an agent vehicle. While the existing reward function significantly degrades the driving safety and efficiency, the proposed reward function is shown to maintain an appropriate headway distance while avoiding the front vehicle collision.