• 제목/요약/키워드: 모델 기반 강화 학습

검색결과 168건 처리시간 0.027초

적대적 멀티 에이전트 환경에서 효율적인 강화 학습을 위한 정책 모델링 (Policy Modeling for Efficient Reinforcement Learning in Adversarial Multi-Agent Environments)

  • 권기덕;김인철
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권3호
    • /
    • pp.179-188
    • /
    • 2008
  • 멀티 에이전트 강화 학습에서 해결해야 할 중요한 문제는 자신의 작업 성능에 영향을 미칠 수 있는 다른 에이전트들이 존재하는 동적 환경에서 한 에이전트가 시행착오적 상호작용을 통해 어떻게 자신의 최적 행동 정책을 학습할 수 있느냐 하는 것이다. 멀티 에이전트 강화 학습을 위한 기존 연구들은 대부분 단일 에이전트 MDP 기반의 강화 학습기법들을 큰 변화 없이 그대로 적용하거나 비록 다른 에이전트에 관한 별도의 모델을 이용하더라도 다른 에이전트에 관해 요구되는 정보나 가정이 현실적이지 못하다는 한계점을 가지고 있다. 본 논문에서는 멀티 에이전트 강화 학습기술에 기초가 되는 기본 개념들을 정형화하고 이들을 기초로 기존 연구들의 특징과 한계점을 비교한다. 그리고 새로운 행동 정책 모델을 소개한 뒤, 이것을 이용한 강화 학습 방법을 설명한다. 본 논문에서 제안하는 멀티 에이전트 강화학습 방법은 상대 모델을 이용하는 기존의 멀티 에이전트 강화 학습 연구들에서 주로 시도되었던 상대 에이전트의 Q 평가 함수 모델 대신 상대 에이전트의 행동 정책 모델을 학습하며, 표현력은 풍부하나 학습에 시간과 노력이 많이 요구되는 유한 상태 오토마타나 마코프 체인과 같은 행동 정책 모델들에 비해 비교적 간단한 형태의 행동 정책 모델을 이용함으로써 학습의 효율성을 높였다. 또한, 본 논문에서는 대표적인 적대적 멀티 에이전트 환경인 고양이와 쥐게임을 소개하고, 이 게임을 테스베드삼아 비교 실험들을 수행하고 그 결과를 설명함으로써 본 논문에서 제안하는 정책 모델 기반의 멀티 에이전트 강화 학습의 효과를 분석해본다.

XH-DQN: 사실 검증을 위한 그래프 Transformer와 DQN 결합 모델 (XH-DQN: Fact verification using a combined model of graph transformer and DQN)

  • 서민택;나승훈;신동욱;김선훈;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.227-232
    • /
    • 2021
  • 사실 검증(Fact verification) 문제는 문서 검색(Document retrieval), 증거 선택(Evidence selection), 증거 검증(Claim verification) 3가지 단계로 구성되어있다. 사실 검증 모델들의 주요 관심사인 증거 검증 단계에서 많은 모델이 제안되는 가운데 증거 선택 단계에 집중하여 강화 학습을 통해 해결한 모델이 제안되었다. 그래프 기반의 모델과 강화 학습 기반의 사실 검증 모델을 소개하고 각 모델을 한국어 사실 검증에 적용해본다. 또한, 두 모델을 같이 사용하여 각 모델의 장점을 가지는 부분을 병렬적으로 결합한 모델의 성능과 증거의 구성 단위에 따른 성능도 비교한다.

  • PDF

강화학습 기반 클러스티-엣지 자원 할당 연구 (Study on Reinforcement Leaning based Resource Allocation of Cluster-edge Environments)

  • 윤주상
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.317-318
    • /
    • 2022
  • 본 논문에서는 클러스터 기반 엣지 모델에서 자원을 효율적으로 사용할 수 있는 지능형 엣지 자원 할당 정책 모델을 제안한다. 최근 쿠버네틱스 기반 클러스터 엣지 시스템 개발 연구 다양한 방향에서 진행 중이다. 따라서, 본 논문에서는 클러스터-엣지 모델 구조를 소개하고 이 모델에서 컴퓨팅 자원을 가진 워커에 컴퓨팅 오프로딩 서비스를 효율적으로 사용할 수 있는 최적의 지능형 클러스터-엣지 컴퓨팅 자원 정책을 생성하는 구조 및 알고리즘을 제안한다.

  • PDF

도시 화재 시뮬레이션에서의 효과적인 화재 대응을 위한 강화학습 적용 솔루션의 설계 및 구현 (Adopting Reinforcement Learning for Efficient Fire Disaster Response in City Fire Simulation)

  • 여상호;오상윤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.104-106
    • /
    • 2021
  • 도시의 인구 밀집도가 증가함에 따라 도시의 단위 면적당 건물 밀집도 역시 증가하고 있으며, 이에 도시 화재는 대규모 화재로 발전할 가능성이 높다. 도시 내 대규모 화재로 인한 인명 및 경제적인 피해를 최소화하기 위해 시뮬레이션 기반의 화재 대응 방안들이 널리 연구되고 있으며, 최근에는 시뮬레이션에서 효과적인 화재 대응 방안을 탐색하기 위해 강화학습 기술을 활용하는 연구들이 소개되고 있다. 그러나, 시뮬레이션의 규모가 커지는 경우, 상태 정보 및 화재 대응을 위한 행위 공간의 크기가 증가함으로 인해 강화학습의 복잡도가 증가하며, 이에 따라 학습 확장성이 저하되는 문제가 발생한다. 본 논문에서는 시뮬레이션 규모 증가 시 강화학습의 학습 확장성을 유지하기 위해, 화재 상황 정보와 재난 대응을 위한 행위 공간을 변환하는 기법을 제안한다. 실험 결과를 통해 기존에 강화학습 모델의 학습이 어려웠던 대규모 도시 재난시뮬레이션에서 본 기법을 적용한 강화학습 모델은 학습 수행이 가능하였으며, 화재 피해가 없는 상황의 적합도를 100%로 하고, 이것 대비 99.2%의 화재 대응 적합도를 달성했다.

퍼지 추론 기반의 멀티에이전트 강화학습 모델 (Multi-Agent Reinforcement Learning Model based on Fuzzy Inference)

  • 이봉근;정재두;류근호
    • 한국콘텐츠학회논문지
    • /
    • 제9권10호
    • /
    • pp.51-58
    • /
    • 2009
  • 강화학습은 최적의 행동정책을 구하는 최적화 문제로 주어진 환경과의 상호작용을 통해 받는 보상 값을 최대화하는 것이 목표이다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 매우 커지는 다중 에이전트 시스템인 경우 효과적인 강화학습을 위해서는 적절한 행동 선택 전략이 마련되어야 한다. 본 논문에서는 멀티에이전트의 효과적인 행동 선택과 학습의 수렴속도를 개선하기 위하여 퍼지 추론 기반의 멀티에이전트 강화학습 모델을 제안하였다. 멀티 에이전트 강화학습의 대표적인 환경인 로보컵 Keepaway를 테스트 베드로 삼아 다양한 비교 실험을 전개하여 에이전트의 효율적인 행동 선택 전략을 확인하였다. 제안된 퍼지 추론 기반의 멀티에이전트 강화학습모델은 다양한 지능형 멀티 에이전트의 학습에서 행동 선택의 효율성 평가와 로봇축구 시스템의 전략 및 전술에 적용이 가능하다.

농구 게임에서 상태 정규화 및 Dense 보상 기반 강화 학습 기법 (State Normalization and Dense Reward Based Reinforcement Learning Method in Basketball Game.)

  • 최태혁;조경은
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.475-477
    • /
    • 2022
  • 최근 강화 학습을 적용한 게임 AI 에 대한 연구가 활발히 진행되고 있다. 하지만 대부분 상용게임은 유한 상태 머신(Finite State Machine, FSM)을 이용한 스크립트 기반 AI 를 사용하기 때문에 복잡한 환경의 게임에서 불안정한 상태로 인해 적절한 강화 학습의 수행이 어렵다. 따라서 본 논문에서는 상용 게임 강화 학습 적용을 위하여 상태 정규화 및 Dense 보상 기반 강화 학습 기법을 제안한다. 제안한 기법을 상용 농구 게임에 적용하고 학습된 모델의 성능을 기존 FSM 기반 AI 와 비교를 통해 성능이 약 80% 증가한 결과를 확인하였다.

강화학습 기반 수평적 파드 오토스케일링 정책의 학습 가속화를 위한 전이학습 기법 (Transfer Learning Technique for Accelerating Learning of Reinforcement Learning-Based Horizontal Pod Autoscaling Policy)

  • 장용현;유헌창;김성석
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권4호
    • /
    • pp.105-112
    • /
    • 2022
  • 최근 환경의 변화에 적응적이고 특정 목적에 부합하는 오토스케일링 정책을 만들기 위해 강화학습 기반 오토스케일링을 사용하는 연구가 많이 이루어지고 있다. 하지만 실제 환경에서 강화학습 기반 수평적 파드 오토스케일러(HPA, Horizontal Pod Autoscaler)의 정책을 학습하기 위해서는 많은 비용과 시간이 요구되며, 서비스를 배포할 때마다 실제 환경에서 강화학습 기반 HPA 정책을 처음부터 다시 학습하는 것은 실용적이지 않다. 본 논문에서는 쿠버네티스에서 강화학습 기반 HPA를 구현하고, 강화학습 기반 HPA 정책에 대한 학습을 가속화하기 위해 대기행렬 모델 기반 시뮬레이션을 활용한 전이 학습 기법을 제안한다. 시뮬레이션을 활용한 사전 학습을 수행함으로써 실제 환경에서 시간과 자원을 소모하며 학습을 수행하지 않아도 시뮬레이션 경험을 통해 정책 학습이 이루어질 수 있도록 하였고, 전이 학습 기법을 사용함으로써 전이 학습 기법을 사용하지 않았을 때보다 약 42.6%의 비용을 절감할 수 있었다.

적대적 학습 개념을 도입한 경계 강화 SAR 수체탐지 딥러닝 모델 (Boundary-enhanced SAR Water Segmentation using Adversarial Learning of Deep Neural Networks)

  • 김휘송;김덕진;김준우;이승우
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.2-2
    • /
    • 2023
  • 기후변화가 가속화로 인해 수재해의 빈도와 강도 예측이 어려워짐에 따라 실시간 홍수 모니터링에 대한 수요가 증가하고 있다. 합성개구레이다는 광원과 날씨에 무관하게 촬영이 가능하여 수재해 발생시에도 영상을 확보할 수 있다. 합성개구레이다를 활용한 수체 탐지 알고리즘 개발이 활발히 연구되어 왔고, 딥러닝의 발달로 CNN을 활용하여 높은 정확도로 수체 탐지가 기능해졌다. 하지만, CNN 기반 수체 탐지 모델은 훈련시 높은 정량적 정확성 지표를 달성하여도 추론 후 정성적 평가시 경계와 소하천에 대한 탐지 정확성이 떨어진다. 홍수 모니터링에서 특히 중요한 정보인 경계와 좁은 하천에 대해서 정확성이 떨어짐에 따라 실생활 적용이 어렵다. 이에 경계를 강화한 적대적 학습 기반의 수체 탐지 모델을 개발하여 더 세밀하고 정확하게 탐지하고자 한다. 적대적 학습은 생성적 적대 신경망(GAN)의 두 개의 모델인 생성자와 판별자가 서로 관여하며 더 높은 정확도를 달성할 수 있도록 학습이다. 이러한 적대적 학습 개념을 수체 탐지 모델에 처음으로 도입하여, 생성자는 실제 라벨 데이터와 유사하게 수체 경계와 소하천까지 탐지하고자 학습한다. 반면 판별자는 경계 거리 변환 맵과 합성개구레이다 영상을 기반으로 라벨데이터와 수체 탐지 결과를 구분한다. 경계가 강화될 수 있도록, 면적과 경계를 모두 고려할 수 있는 손실함수 조합을 구성하였다. 제안 모델이 경계와 소하천을 정확히 탐지하는지 판단하기 위해, 정량적 지표로 F1-score를 사용하였으며, 육안 판독을 통해 정성적 평가도 진행하였다. 기존 U-Net 모델이 탐지하지 못하던 영역에 대해 제안한 경계 강화 적대적 수체 탐지 모델이 수체의 세밀한 부분까지 탐지할 수 있음을 증명하였다.

  • PDF

강화학습 기반의 차량 경로 문제 일반화 방안 연구 (A Study of Solving the Generalized Vehicle Routing Problem Using Reinforcement Learning)

  • 정철환;김광수;김한솔
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.705-707
    • /
    • 2022
  • 본 연구에서는 기존 차량 경로 문제(Vehicle Routing Problem)의 범위를 확장시켜 일반화된 차량 경로문제(Generalized Vehicle Routing Problem)를 제시하고, 이 문제를 해결하기 위한 강화학습 모델을 제안한다. 기존의 차량 경로 문제는 depot에서 각 node(또는 각 node에서 depot)의 단방향만 존재해 제한된 문제만을 해결할 수 있었다. 이 한계점을 극복하기 위해 depot을 제외한 모든 node가 서로 연결된 형태의 일반화된 차량 경로 문제를 정의하고 이를 해결하고자 한다. 차량 경로 문제는 NP-hard 문제로 최근에는 강화학습을 이용해 이를 해결하고자 하는 모델이 연구되고 있다. 본 연구에서는 새로 정의한 일반화된 차량 경로 문제를 해결하기 위한 강화학습 모델을 제안한다.

  • PDF

산업용 사물 인터넷을 위한 프라이버시 보존 연합학습 기반 심층 강화학습 모델 (Federated Deep Reinforcement Learning Based on Privacy Preserving for Industrial Internet of Things)

  • 한채림;이선진;이일구
    • 정보보호학회논문지
    • /
    • 제33권6호
    • /
    • pp.1055-1065
    • /
    • 2023
  • 최근 사물 인터넷을 활용한 산업 현장에서 수집되는 빅데이터를 활용해 복잡한 문제들을 해결하기 위하여 심층 강화학습 기술을 적용한 다양한 연구들이 이루어지고 있다. 심층 강화학습은 강화 학습의 시행 착오 알고리즘과 보상의 누적값을 이용해 자체 데이터를 생성하여 학습하고 신경망 구조와 파라미터 결정을 빠르게 탐색한다. 그러나 종래 방법은 학습 데이터의 크기가 커질수록 메모리 사용량과 탐색 시간이 기하급수적으로 높아지며 정확도가 떨어진다. 본 연구에서는 메타 학습을 적용한 연합학습 기반의 심층 강화학습 모델을 활용하여 55.9%만큼 보안성을 개선함으로써 프라이버시 침해 문제를 해결하고, 종래 최적화 기반 메타 학습 모델 대비 5.5% 향상된 97.8%의 분류 정확도를 달성하면서 평균 28.9%의 지연시간을 단축하였다.