• 제목/요약/키워드: 학습강화

검색결과 1,581건 처리시간 0.024초

강화 학습을 이용한 퍼지 최소-최대 신경망의 학습 방법 (the Novel Learning Method of Fuzzy Min-Max Neural Network by Using the Reinforcement Learning)

  • 곽병동;박광현;변증남
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 Ⅲ
    • /
    • pp.1259-1262
    • /
    • 2003
  • 퍼지 최소 최대 신경망(Fuzzy Max Neural Network)은 많은 장점을 가진 분류기로 널리 사용되고 있다. 그러나 최초의 퍼지 최소 최대 신경망은 몇 가지 단점을 가지고 있으며 그 중에 학습 결과가 학습 파라 미터에 민감한 점을 들 수 있다. 본 논문에서는 퍼지 최소 최대 신경망의 학습에 영향을 주는 학습 파라 미터를 사용하지 않고 강화 학습을 이용하여 신경망을 학습하는 방법을 제안한다. 이 방법에서는 학습 파라 미터 없이 하이퍼 박스의 수와 잘못 분류된 결과에 따라 보답(reward)을 주는 강화 학습을 이용하여 퍼지 최소 최대 신경망을 학습시킨다 결과로는 학습 데이터에 대해 오분류가 없고 최초의 학습 방법의 결과 보다 작은 하이퍼 박스 수를 갖는 퍼지 최소 최대 신경망이 얻어졌다. 이는 학습 파라미터를 이용한 학습 방법으로 생긴 많은 수의 하이퍼 박스로 인한 일반화 능력의 감소를 막고 하드웨어 구현 시 많은 하이퍼 박스로 인한 어려움을 덜어 줄 수 있다.

  • PDF

불확실성이 높은 의사결정 환경에서 SR 기반 강화학습 알고리즘의 성능 분석 (Evaluating SR-Based Reinforcement Learning Algorithm Under the Highly Uncertain Decision Task)

  • 김소현;이지항
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권8호
    • /
    • pp.331-338
    • /
    • 2022
  • 차기 상태 천이 표상(Successor representation, SR) 기반 강화학습 알고리즘은 두뇌에서 발현되는 신경과학적 기전을 바탕으로 발전해온 강화학습 모델이다. 해마에서 형성되는 인지맵 기반의 환경 구조 정보를 활용하여, 변화하는 환경에서도 빠르고 유연하게 학습하고 의사결정 가능한 자연 지능 모사형 강화학습 방법으로, 불확실한 보상 구조 변화에 대해 빠르게 학습하고 적응하는 강인한 성능을 보이는 것으로 잘 알려져 있다. 본 논문에서는 표면적인 보상 구조가 변화하는 환경뿐만 아니라, 상태 천이 확률과 같은 환경 구조 내 잠재 변수가 보상 구조 변화를 유발하는 상황에서도 SR-기반 강화학습 알고리즘이 강인하게 반응하고 학습할 수 있는지 확인하고자 한다. 성능 확인을 위해, 상태 천이에 대한 불확실성과 이로 인한 보상 구조 변화가 동시에 나타나는 2단계 마르코프 의사결정 환경에서, 목적 기반 강화학습 알고리즘에 SR을 융합한 SR-다이나 강화학습 에이전트 시뮬레이션을 수행하였다. 더불어, SR의 특성을 보다 잘 관찰하기 위해 환경을 변화시키는 잠재 변수들을 순차적으로 제어하면서 기존의 환경과 비교하여 추가적인 실험을 실시하였다. 실험 결과, SR-다이나는 환경 내 상태 천이 확률 변화에 따른 보상 변화를 제한적으로 학습하는 행동을 보였다. 다만 기존 환경에서의 실험 결과와 비교했을 때, SR-다이나는 잠재 변수 변화로 인한 보상 구조 변화를 빠르게 학습하지는 못하는 것으로 확인 되었다. 본 결과를 통해 환경 구조가 빠르게 변화하는 환경에서도 강인하게 동작할 수 있는 SR-기반 강화학습 에이전트 설계를 기대한다.

상태 조직화 강화학습을 사용한 POMDP 문제 해결 (Solving POMDP problem using Self-organizing state RL)

  • 이승준;장병탁
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2001년도 춘계학술대회 학술발표 논문집
    • /
    • pp.73-77
    • /
    • 2001
  • 본 논문에서는 부분적으로 관측 가능한 환경에서 사전의 모델 정보 없이 확률적인 행동 정책을 학습하는 상태 조직화 강화 학습 모델을 제안한다. 기존의 강화학습은 환경 모델을 사전에 필요로 하고 상태 전체의 관측이 필요하기 때문에 학습 이전에 문제에 대해 알아야 한다는 제약이 있다. 또한 작은 문제에 대해서는 잘 적용되지만 상태의 수가 매우 많고 부분적으로만 관측한 경우가 많은 실제 문제에는 그대로 적용하기가 불가능하다. 이러한 두 가지 단점을 해결하기 위해 본 논문에서는 사전의 모델 정보 없이 부분적인 관측값으로부터 상태와 행동 정책을 동시에 학습해 나가는 강화 학습 모델을 제안하고, 제안된 방법을 부분적으로만 관측이 가능한 미로 탐색 문제에 적용하였다.

  • PDF

다중 에이전트 강화학습을 위한 SOM 기반의 일반화 (SOM_Based Generalization for Multiagent Reinforcement Learning)

  • 임문택;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 춘계학술발표논문집 (상)
    • /
    • pp.565-568
    • /
    • 2002
  • 본 논문에서는 에이전트간의 통신이 불가능한 다중 에이전트 환경에서 각 에이전트들이 독립적이면서 대표적인 강화학습법인 Q-학습을 전개함으로써 서로 효과적으로 협조할 수 있는 행동전략을 학습하려고 한다. 하지만 단일 에이전트 경우에 비해 보다 큰 상태-행동공간을 갖는 다중 에이전트환경에서는 강화학습을 통해 효과적으로 최적의 행동 전략에 도달하기 어렵다는 문제점이 있다. 이 문제에 대한 기존의 접근방법은 크게 모듈화 방법과 일반화 방법이 제안되었으나 모두 나름의 제한을 가지고 있다. 본 논문에서는 대표적인 다중 에이전트 학습 문제의 예로서 the Prey and Hunters Problem를 소개하고 이 문제영역을 통해 이와 같은 강화학습의 문제점을 살펴보고, 해결책으로 신경망 SOM 을 이용한 일반화 방법을 제안한다. 이 방법은 다층 퍼셉트론 신경망과 역전파 알고리즘을 이용한 기존의 일반화 방법과는 달리 군집화 기능을 제공하는 신경망 SOM 을 이용함으로써 명확한 다수의 훈련 예가 없어도 효과적으로 채 경험하지 못한 상태-행동들에 대한 Q 값을 예측하고 이용할 수 있다는 장점이 있다.

  • PDF

심층강화학습에 은닉 상태 정보 활용을 통한 학습 성능 개선에 대한 고찰 (A Study on Learning Performance Improvement by Using Hidden States in Deep Reinforcement Learning)

  • 최요한;석영준;김주봉;한연희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.528-530
    • /
    • 2022
  • 심층강화학습에 완전 연결 신경망과 합성곱 신경망은 잘 활용되는 것에 반해 순환 신경망은 잘 활용되지 않는다. 이는 강화학습이 마르코프 속성을 전제로 하기 때문이다. 지금까지의 강화학습은 환경이 마르코프 속성을 만족하도록 사전 작업이 필요했다, 본 논문에서는 마르코프 속성을 따르지 않는 환경에서 이러한 사전 작업 없이도 순환 신경망의 은닉 상태를 통해 마르코프 속성을 학습함으로써 학습 성능을 개선할 수 있다는 것을 소개한다.

산업용 로봇 팔 최적 경로 계획을 위한 심층강화학습 프레임워크 (A Deep Reinforcement Learning Framework for Optimal Path Planning of Industrial Robotic Arm)

  • 권준형;조든솔;김원태
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.75-76
    • /
    • 2022
  • 현재 산업용 로봇 팔의 경로 계획을 생성할 때, 로봇 팔 경로 계획은 로봇 엔지니어가 수동으로 로봇을 제어하며 최적 경로 계획을 탐색한다. 미래에 고객의 다양한 요구에 따라 공정을 유연하게 변경하는 대량 맞춤 시대에는 기존의 경로 계획 수립 방식은 부적합하다. 심층강화학습 프레임워크는 가상 환경에서 로봇 팔 경로 계획 수립을 학습해 새로운 공정으로 변경될 때, 최적 경로 계획을 자동으로 수립해 로봇 팔에 전달하여 빠르고 유연한 공정 변경을 지원한다. 본 논문에서는 심층강화학습 에이전트를 위한 학습 환경 구축과 인공지능 모델과 학습 환경의 연동을 중심으로, 로봇 팔 경로 계획 수립을 위한 심층강화학습 프레임워크 구조를 설계한다.

강화학습을 사용한 적응적 진화연산 (Adaptive Genetic Algorithm with Reinforcement Learning)

  • 이승준;장병탁
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2002년도 추계학술대회 및 정기총회
    • /
    • pp.391-394
    • /
    • 2002
  • 진화 연산(Genetic Algorithm)은 최적화 분야에서 사용되는 강력하면서도 일반적인 방법이다. 이러한 진화 연산의 일반성은 진화 연산에서 사용되는 기본 연산자들이 문제에 대한 정보를 필요로 하지 않는 것에 기인하고 있기에, 실제 구현시에는 여러 파라미터들을 문제에 맞게 정해 줌으로써 성능 향상을 죄할 수 있다. 이러한 파라미터의 조절은 보통 시행착오를 거쳐 행해지나, 실행시에 동적으로 파라미터를 학습하는 적응적 진화 연산도 연구되어 왔다. 본 논문에서는 진화 연산에서의 파라미터 학습 과정을 강화 학습 과정으로 공식화하고 강화 학습을 사용한 적응적 진화 연산 구현을 제안한다.

관찰학습에서의 반두라 대리강화에 대한 기독교교육적 함의 (The Implication of Bandura's Vicarious Reinforcement in Observational Learning for Christian Education)

  • 이종민
    • 기독교교육논총
    • /
    • 제61권
    • /
    • pp.81-107
    • /
    • 2020
  • 이 논문은 관찰학습에서 나타나고 있는 반두라의 대리강화에 대한 이론과 효과들을 살펴보고, 그 개념을 기독교교육에서 행해지고 있는 영적 롤 모델링 전략에 적용한 연구이다. 이를 위해 먼저 반두라가 소개하고 있는 대리강화란 무엇이며, 관찰학습에서 대리강화가 어떻게 발생하는가 그리고 대리강화가 관찰자의 행동 변화에 어떠한 영향을 미치는가에 대하여 살펴보았다. 특별히 반두라는 관찰학습과 모방 혹은 반모방 행동 안에서 일어나는 학습과정에 대하여 개념화하였다. 이를 바탕으로 하여 반두라는 관찰학습에서 일어나는 대리강화의 과정을 4단계(집중, 기억, 행동재생, 그리고 동기화)로 분류하여 설명한다. 그뿐만이 아니라. 대리강화의 효과에 대해 3가지(관찰학습효과, 억제-탈억제효과, 유발효과)를 제시하였다. 이러한 반두라의 대리강화 이론과 그 효과를 바탕으로 하여 기독교교육에서 논의되고 있는 예수님 닮아가기 혹은 제자훈련 안에서의 영적 롤 모델링 전략을 재평가했다. 특별히 성경에서 사용하고 있는 모방에 대한 개념을 반두라의 대리강화 이론과 비교하면서 재해석하였고, 사도 바울이 제시하고 있는 영적 롤 모델의 역할을 대리강화의 효과라는 차원에서 재점검했다. 그 결과 2가지 차원에서의 영적 롤 모델 전략을 발견하였다. 즉 바울의 영적 롤 모델 역할은 긍정적인 차원에서 대리강화로써 신자로 하여금 기대되는 행동을 실행할 수 있도록 도와주는 하나의 본보기가 된다. 반면에 바울의 명령은 신자들에게 명확한 탈억제 효과를 불러일으키는 부정적인 차원에서의 대리강화로 사용되고 있음을 발견하였다. 그리고 마지막으로 관찰학습에 대한 연구들과 성경적 영적 롤 모델링 전략을 서로 연관시킴으로써 반두라의 대리강화가 기독교교육에 미칠 가능성을 함의하였다.

강화 학습에 기초한 로봇 축구 에이전트의 설계 및 구현 (Design and implementation of Robot Soccer Agent Based on Reinforcement Learning)

  • 김인철
    • 정보처리학회논문지B
    • /
    • 제9B권2호
    • /
    • pp.139-146
    • /
    • 2002
  • 로봇 축구 시뮬레이션 게임은 하나의 동적 다중 에이전트 환경이다. 본 논문에서는 그러한 환경 하에서 각 에이전트의 동적 위치 결정을 위한 새로운 강화학습 방법을 제안한다. 강화학습은 한 에이전트가 환경으로부터 받는 간접적 지연 보상을 기초로 누적 보상값을 최대화할 수 있는 최적의 행동 전략을 학습하는 기계학습 방법이다. 따라서 강화학습은 입력-출력 쌍들이 훈련 예로 직접 제공되지 않는 다는 점에서 교사학습과 크게 다르다. 더욱이 Q-학습과 같은 비-모델 기반의 강화학습 알고리즘들은 주변 환경에 대한 어떤 모델도 학습하거나 미리 정의하는 것을 요구하지 않는다. 그럼에도 불구하고 이 알고리즘들은 에이전트가 모든 상태-행동 쌍들을 충분히 반복 경험할 수 있다면 최적의 행동전략에 수렴할 수 있다. 하지만 단순한 강화학습 방법들의 가장 큰 문제점은 너무 큰 상태 공간 때문에 보다 복잡한 환경들에 그대로 적용하기 어렵다는 것이다. 이런 문제점을 해결하기 위해 본 연구에서는 기존의 모듈화 Q-학습방법(MQL)을 개선한 적응적 중재에 기초한 모듈화 Q-학습 방법(AMMQL)을 제안한다. 종래의 단순한 모듈화 Q-학습 방법에서는 각 학습 모듈들의 결과를 결합하는 방식이 매우 단순하고 고정적이었으나 AMMQL학습 방법에서는 보상에 끼친 각 모듈의 기여도에 따라 모듈들에 서로 다른 가중치를 부여함으로써 보다 유연한 방식으로 각 모듈의 학습결과를 결합한다. 따라서 AMMQL 학습 방법은 큰 상태공간의 문제를 해결할 수 있을 뿐 아니라 동적인 환경변화에 보다 높은 적응성을 제공할 수 있다. 본 논문에서는 로봇 축구 에이전트의 동적 위치 결정을 위한 학습 방법으로 AMMQL 학습 방법을 사용하였고 이를 기초로 Cogitoniks 축구 에이전트 시스템을 구현하였다.

퍼지 추론 기반의 멀티에이전트 강화학습 모델 (Multi-Agent Reinforcement Learning Model based on Fuzzy Inference)

  • 이봉근;정재두;류근호
    • 한국콘텐츠학회논문지
    • /
    • 제9권10호
    • /
    • pp.51-58
    • /
    • 2009
  • 강화학습은 최적의 행동정책을 구하는 최적화 문제로 주어진 환경과의 상호작용을 통해 받는 보상 값을 최대화하는 것이 목표이다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 매우 커지는 다중 에이전트 시스템인 경우 효과적인 강화학습을 위해서는 적절한 행동 선택 전략이 마련되어야 한다. 본 논문에서는 멀티에이전트의 효과적인 행동 선택과 학습의 수렴속도를 개선하기 위하여 퍼지 추론 기반의 멀티에이전트 강화학습 모델을 제안하였다. 멀티 에이전트 강화학습의 대표적인 환경인 로보컵 Keepaway를 테스트 베드로 삼아 다양한 비교 실험을 전개하여 에이전트의 효율적인 행동 선택 전략을 확인하였다. 제안된 퍼지 추론 기반의 멀티에이전트 강화학습모델은 다양한 지능형 멀티 에이전트의 학습에서 행동 선택의 효율성 평가와 로봇축구 시스템의 전략 및 전술에 적용이 가능하다.