• Title/Summary/Keyword: 행동 선택/학습

Search Result 137, Processing Time 0.022 seconds

다중 에이전트 강화 학습을 위한 상태 공간 타일링과 확률적 행동 선택 (State Space Tiling and Probabilistic Action Selection for Multi-Agent Reinforcement Learning)

  • 권기덕;김인철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.106-108
    • /
    • 2006
  • 강화 학습은 누적 보상 값을 최대화할 수 있는 행동 선택 전략을 학습하는 온라인 학습의 한 형태이다. 효과적인 강화학습을 위해 학습 에이전트가 매 순간 고민해야 하는 문제가 탐험(exploitation)과 탐색(exploration)의 문제이다. 경험과 학습이 충분치 않은 상태의 에이전트는 어느 정도의 보상 값을 보장하는 과거에 경험한 행동을 선택하느냐 아니면 보상 값을 예측할 수 없는 새로운 행동을 시도해봄으로써 학습의 폭을 넓힐 것이냐를 고민하게 된다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 더욱 커지는 다중 에이전트 시스템의 경우, 효과적인 강화학습을 위해서는 상태 공간 축소방법과 더불어 탐색의 기회가 많은 행동 선택 전략이 마련되어야 한다. 본 논문에서는 로봇축구 Keepaway를 위한 효율적인 다중 에이전트 강화학습 방법을 설명한다. 이 방법의 특징은 상태 공간 축소를 위해 함수근사방법의 하나인 타일 코딩을 적용하였고, 다양한 행동 선택을 위해 룰렛 휠 선택 전략을 적용한 것이다. 본 논문에서는 이 방법의 효과를 입증하기 위한 실험결과를 소개한다.

  • PDF

Learning Classifier System을 이용한 행동 선택 네트워크의 학습 (Learning Action Selection ,Network Using Learning Classifier System)

  • 윤은경;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.404-406
    • /
    • 2003
  • 행동 기반 인공지능은 기본 행동들의 집합으로부터 적절한 행동을 선택함으로써 복잡한 행동을 하도록 하는 방식이다. 행동 기반 시스템은 1980년대에 시작되어 이제는 많은 에이전트 시스템에 사용되고 있다. 본 논문에서는 기존의 P. Maes가 제안한 행동 선택 네트워크에 Learning Classifier System을 이용한 학습 기능을 부가하여, 변하는 환경에 적절히 적응하여 행동의 시퀀스를 생성할 수 있는 방법을 제안하다. 행동 선택 네트워크는 주어진 문제에 따라 노드 간 연결을 설계자가 미리 설정하도록 하는데, 해결해야 할 문제가 변함에 따라 네트워크에서의 연결 형태가 변형될 필요가 있다. Khepera 로봇을 이용한 시뮬레이션 결과, 행동 선택 네트워크에서의 학습이 유용함을 확인할 수 있었다.

  • PDF

교통상황에 따른 운전자의 경로선택과 학습행동에 관한 연구 (Drivers' Learning Mechanism and Route Choice Behavior for Different Traffic Conditions)

  • 도명식;석종수;김명수;최병국
    • 대한교통학회지
    • /
    • 제21권3호
    • /
    • pp.97-106
    • /
    • 2003
  • 본 연구에서는 운전자의 경로선택과 각 경로에 대한 학습행동이 교통상황에 따라 어떻게 달라지는 가를 살펴보기로 한다. 즉, 주어진 환경 하에서 자신의 효용을 최대화(소요시간의 최소, 비용의 최소)하는 경로를 선택하는 운전자를 가정하여 교통상황에 따른 운전자의 행동을 모델화하고자 한다. 경로선택에 직면한 운전자는 자신이 획득 가능한 정보와 과거의 경험에 근거하여 각 경로의 주행시간 등의 교통조건을 예측하고 반복적인 경로선택 행동을 통해 각 경로의 주행조건 등에 대한 학습을 하게 된다. 이 때, 운전자의 경로선택과 학습 메커니즘은 각 경로의 교통상황에 따라 다르게 형성된다. 즉, 교통류 상황이 정상성(stationarity)을 띄고 있는지 혹은 비정상성(nonstationarity)을 띄고 있는지에 따라 운전자의 경로선택과 학습 메커니즘이 다르게 됨을 확인하였으며, 이 경우 사후적인(ex-post) 정보의 획득가능성이 운전자 학습행동의 수렴에 큰 영향을 미치고 있음도 알 수 있었다. 또한, 랜덤워크와 같은 비정상성을 따르는 교통환경에서 운전자는 경로의 조건에 대한 그들의 학습과정에서 학습계수(적응계수)는 각 경로의 특성에 따라 서로 다른 값으로 수렴함을 확인하였다. 나아가 시뮬레이션을 통해 운전자의 경로 환경에 대한 학습과정과 경로선택 행동을 구현하였으며, 향후 연구방향에 대해 고찰한다.

지능형 에이전트의 환경 적응성 및 확장성에 대한 연구 (The study on environmental adaptation and expansion of the intelligent agent)

  • 백혜정;박영택
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 가을 학술발표논문집 Vol.30 No.2 (1)
    • /
    • pp.136-138
    • /
    • 2003
  • 로봇이나 가상 캐릭터와 같은 지능형 에이전트가 자율적으로 살아가기 위해서는 주어진 환경을 인식하고, 그에 맞는 최적의 행동을 선택하는 능력을 가지고 있어야 한다. 본 논문은 이러한 지능형 에이전트를 구현하기 위하여, 외부 환경에 적응하면서 최적의 행동을 배우고 선택하는 방법을 연구하였다. 본 논문에서 제안한 방식은 강화 학습을 이용한 행동기반 학습 방법과 기호 학습을 이용한 인지 학습 방법을 통합한 방식으로 다음과 같은 특징을 가진다. 첫째, 외부 환경의 적응성을 수행하기 위하여 강화 학습을 이용하였으며. 이는 지능형 에이전트가 변화하는 환경에 대한 유연성을 가지도록 하였다. 둘째. 경험들에서 귀납적 기계학습과 연관 규칙을 이용하여 규칙을 추출하여 에이전트의 목적에 맞는 환경 요인을 학습함으로 주어진 환경에서 보다 빠르게, 확장된 환경에서 보다 효율적으로 행동을 선택을 하도록 하였다. 제안한 통합방식은 기존의 강화 학습만을 고려한 학습 알고리즘에 비하여 학습 속도를 향상 시킬수 있으며, 기호 학습만을 고려한 학습 알고리즘에 비하여 환경에 유연성을 가지고 행동을 적용할 수 있는 장점을 가진다.

  • PDF

동적 환경에서의 적응을 위한 로봇 에이전트 제어: 조건별 개체 유지를 이용한 LCS기반 행동 선택 네트워크 학습 (Robot agent control for the adaptation to dynamic environment : Learning behavior network based on LCS with keeping population by conditions)

  • 박문희;박한샘;조성배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.335-338
    • /
    • 2005
  • 로봇 에이전트는 변화하는 환경에서 센서정보를 바탕으로 적절한 행동을 선택하며 동작하는 것이 중요하다. 행동 선택 네트워크는 이러한 환경에서 변화하는 센서정보에 따라 실시간으로 행동을 선택할 수 있다는 점에서, 장시간에 걸친 최적화보다 단시간 내 개선된 효율성에 초점을 맞추어 사용되어 왔다. 하지만 행동 선택 네트워크는 초기 문제에 의존적으로 설계되어 변화하는 환경에 유연하게 대처하지 못한다는 맹점을 가지고 있다. 본 논문에서는 행동 선택 네트워크의 연결을 LCS를 기반으로 진화 학습시켰다. LCS는 유전자 알고리즘을 통해 만들어진 규칙들을 강화학습을 통해 평가하며, 이를 통해 변화하는 환경에 적합한 규칙을 생성한다. 제안하는 모델에서는 LCS의 규칙이 센서정보를 포함한다. 진화가 진행되는 도중 이 규칙들이 모든 센서 정보를 포함하지 못하기 때문에 현재의 센서 정보를 반영하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이를 해결하기 위해 센서정보 별로 개체를 따로 유지하는 방법을 제안한다. 제안하는 방법의 검증을 위해 Webots 시뮬레이터에서 케페라 로봇을 이용해 실험을 하여, 변화하는 환경에서 로봇 에이전트가 학습을 통해 올바른 행동을 선택함을 보였고, 일반LCS를 사용한 것보다 조건별 개체 유지를 통해 더 나은 결과를 보이는 것 또한 확인하였다.

  • PDF

퍼지 추론 기반의 멀티에이전트 강화학습 모델 (Multi-Agent Reinforcement Learning Model based on Fuzzy Inference)

  • 이봉근;정재두;류근호
    • 한국콘텐츠학회논문지
    • /
    • 제9권10호
    • /
    • pp.51-58
    • /
    • 2009
  • 강화학습은 최적의 행동정책을 구하는 최적화 문제로 주어진 환경과의 상호작용을 통해 받는 보상 값을 최대화하는 것이 목표이다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 매우 커지는 다중 에이전트 시스템인 경우 효과적인 강화학습을 위해서는 적절한 행동 선택 전략이 마련되어야 한다. 본 논문에서는 멀티에이전트의 효과적인 행동 선택과 학습의 수렴속도를 개선하기 위하여 퍼지 추론 기반의 멀티에이전트 강화학습 모델을 제안하였다. 멀티 에이전트 강화학습의 대표적인 환경인 로보컵 Keepaway를 테스트 베드로 삼아 다양한 비교 실험을 전개하여 에이전트의 효율적인 행동 선택 전략을 확인하였다. 제안된 퍼지 추론 기반의 멀티에이전트 강화학습모델은 다양한 지능형 멀티 에이전트의 학습에서 행동 선택의 효율성 평가와 로봇축구 시스템의 전략 및 전술에 적용이 가능하다.

지능형 에이전트의 환경 적응성 및 확장성 (A study on environmental adaptation and expansion of intelligent agent)

  • 백혜정;박영택
    • 정보처리학회논문지B
    • /
    • 제10B권7호
    • /
    • pp.795-802
    • /
    • 2003
  • 로봇이나 가상 캐릭터와 같은 지능형 에이전트가 자율적으로 살아가기 위해서는 주어진 환경을 인식하고, 그에 맞는 최적의 행동을 선택하는 능력을 가지고 있어야 한다. 본 논문은 이러한 지능형 에이전트를 구현하기 위하여, 외부 환경에 적응하면서 최적의 행동을 배우고 선택하는 방법을 연구하였다. 본 논문에서 제안한 방식은 강화 학습을 이용한 행동기반 학습 방법과 기호 학습을 이용한 인지 학습 방법을 통합한 방식으로 다음과 같은 특징을 가진다. 첫째, 강화 학습을 이용하여 환경에 대한 적응성을 학습함으로 지능형 에이전트가 변화하는 환경에 대한 유연성을 가지도록 하였다. 둘째, 귀납적 기계학습과 연관 규칙을 이용하여 규칙을 추출하여 에이전트의 목적에 맞는 환경 요인을 학습함으로 주어진 환경에서 보다 빠르게, 확장된 환경에서 보다 효율적으로 행동을 선택을 하도록 하였다. 셋째, 본 논문은 지능형 에이전트를 구현하는데 있어서 처음부터 모든 상태를 고려하기 보다 상태 탐지기를 이용하여 새로운 상태가 입력될 때마다 상태를 확장시키는 방식을 이용하였다. 이러한 방식은 필요한 상태에 대하여서만 고려함으로 메모리를 획기적으로 축소 할 수 있으며, 새로운 상태를 동적으로 처리 할 수 있어, 환경에 대한 변화에 능동적으로 대처 할 수 있다.

다층신경회로망을 이용한 축구 로봇시스템의 행동선택기 설계 (Design of an Action Selector for Soccer Robot Systems Using Multilayer Neural Networks)

  • 손창우;김도현;안현식
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1999년도 추계학술대회 논문집 학회본부 B
    • /
    • pp.658-660
    • /
    • 1999
  • 본 논문에서는 축구로봇 시스템에서 상위 레벨 제어기에 해당하는 행동선택기를 다층신경회로망을 이용하여 설계한다. 축구로봇 시스템에서 로봇의 속도가 빠른 상태에서 제어가 가능하도록 로봇의 행동레벨을 설정하고 주어진 동적 상황에 대해 여러 가지 상황변수를 정의하여, 각 상황에 가장 효율적이며 최적의 행동을 선택하도록 한다. 각 로봇이 목표점으로 이동할 때 어떠한 행동을 선택하여 어떻게 움직이느냐에 따라 로봇은 같은 위치에서 목표점을 이동하더라도 이동경로가 달라진다. 따라서, 로봇축구 경기 상황을 나타내는 상황 변수들을 입력으로 하는 다층신경회로망을 사용하여 출력으로 행동을 판단하여 실행하는 알고리즘을 제안하고 그를 위한 하드웨어와 시뮬레이터 도구를 제작한다. 역전파 알고리즘을 통해 신경망을 학습하고 학습된 데이터를 실험에 적용한다.

  • PDF

로보컵 공 뺏기 테스트베드를 이용한 적대적 학습 에이전트들에 대한 실험적 분석 (Empirical Analysis of Adversarial Learning Agents Using the RoboCup Keepaway Test-bed)

  • 권기덕;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 추계학술발표대회
    • /
    • pp.15-18
    • /
    • 2006
  • 강화 학습은 시행착오를 통해 동적 환경과 상호작용하면서 학습을 수행하는 학습 방법으로 본 논문에서 테스트 환경으로 사용하는 Keepaway와 같은 동적인 환경에서 주로 사용하는 학습 방법이다. 본 논문에서는 학습을 통한 에이전트가 다른 정책을 사용하는 에이전트보다 성능이 더 높다는 것을 보이고자 한다. 학습 초기에는 다양한 전략을 평가하기 위해 최적이 아닌 행동을 선택하지만 시간이 지남에 따라 최적의 행동 선택에 수렴해 가는 것을 보이기 위한 실험을 수행한다. 이 실험을 통해 고정된 행동 양식을 가지는 정책보다 강화 학습을 이용한 에이전트들의 성능이 더 효과적인 것을 알 수 있었다.

  • PDF

지능로봇: 지능 에이전트를 기초로 한 접근방법 (Intelligent Robot Design: Intelligent Agent Based Approach)

  • 강진식
    • 한국지능시스템학회논문지
    • /
    • 제14권4호
    • /
    • pp.457-467
    • /
    • 2004
  • 본 논문에서는 로봇을 하나의 에이전트로 보고 로봇에 필요한 기능-환경인지, 지능, 행동-등을 부-에이전트로 하는 로봇 구조를 제안하였다. 각각의 부 에이전트들은 로봇 기능의 기초단위를 구성하는 마이크로 에이전트로 구성된다. 로봇의 제어 구조는 행위기반 반사행동 제어 형태와 행동 선택 에이전트로 구성되며, 행동 선택 에이전트에서의 행동 선택은 행동 우선순위, 수행성능, 강화학습에 의한 학습기능을 부가하였다. 제시된 로봇 구조는 다중 부-에이전트 구조로 각각의 기능에 대하여 지능을 부여하기 쉬우며 다중 로봇 제어를 위한 새로운 접근 방법이다. 제시된 로봇을 장애물을 회피와 chaotic한 탐색을 목표로 하여 모의실험을 수행하였으며 8bit 마이크로 콘트롤러를 이용하여 제작 실험하였다.