• 제목/요약/키워드: 행동 선택/학습

검색결과 137건 처리시간 0.026초

베이지안 행동유발성 모델을 이용한 행동동기 기반 행동 선택 메커니즘 (Behavioral motivation-based Action Selection Mechanism with Bayesian Affordance Models)

  • 이상형;서일홍
    • 전자공학회논문지SC
    • /
    • 제46권4호
    • /
    • pp.7-16
    • /
    • 2009
  • 로봇이 지능적이고 합리적으로 임무를 수행하기 위해서는 다양한 솜씨(skill)가 필요하다. 우리는 솜씨를 생성하기 위해 우선 행동유발성(affordance)을 학습한다. 행동유발성은 행동을 유발하게 하는 물체 또는 환경의 성질로써 솜씨를 생성하는데 유용하게 사용될 수 있다. 로봇이 수행하는 대부분의 임무는 순차적이고 목표 지향적인 행동을 필요로 한다. 그러나 행동유발성만을 이용하여 이러한 임무를 수행하는 것은 쉽지 않다. 이를 위해 우리는 행동유발성과 목표 지향적 요소를 반영하기 위한 소프트 행동동기 스위치(soft behavioral motivation switch)를 이용하여 솜씨를 생성한다. 솜씨는 현재 인지된 정보와 목표 지향적 요소를 결합하여 행동동기를 생성한다. 여기서 행동동기는 목표 지향적인 행동을 활성화시키기 위한 내부 상태를 말한다. 또한, 로봇은 임무 수행을 위해 순차적인 행동 선택을 필요로 한다. 우리는 목표 지향적이고 순차적인 행동 선택이 가능하도록 솜씨를 이용하여 솜씨 네트워크(skill network)를 생성한다. 로봇은 솜씨 네트워크를 이용하여 목표 지향적이고 순차적인 행동을 선택할 수 있다. 본 논문에서는 베이지안 네트워크를 이용한 행동유발성 모델링 및 학습 방법, 행동유발성과 소프트 행동동기 스위치를 이용한 솜씨 및 솜씨 네트워크 생성 방법, 마지막으로 솜씨 네트워크를 이용한 목표 지향적 행동 선택 방법을 제안한다. 우리의 방법을 증명하기 위해 제니보(애완 로봇)를 이용한 교시 기반 학습 방법을 통해 "물체 찾기", "물체에 접근하기", "물체의 냄새 맡기", 그리고 "물체를 발로 차기" 행동유발성들을 학습하였다. 또한, 이들을 이용하여 솜씨 및 솜씨 네트워크를 생성하여 제니보에 적용하고 실험하였다.

교통정보 수신율 변화에 따른 운전자의 경로선택과 학습과정 (Effect of Guidance Information Receiving Ratio on Driver's Route Choice Behavior and Learming Process)

  • 도명식;석종수;채정환
    • 대한교통학회지
    • /
    • 제22권5호
    • /
    • pp.111-122
    • /
    • 2004
  • 본 연구에서는 운전자들의 경로선택 행태에서 교통정보 수신율이 네트워크 전반에 미치는 영향과 각 경로의 주행조건에 대한 운전자의 학습과정에 대해서 살펴보았으며, 교통상황이 정상성 및 비정상성을 따르는 경우, 공공기관의 유입교통량의 대소에 의해 유도되는 정보의 수신율이 증가함으로써 운전자의 경로선택행동이 네트워크에 미치는 영향을 분석하고 정보의 역효과가 나타남을 밝혔다. 또한, 정보수신율이 최적비율 이하인 경우에는 총통행시간이 정보가 없이 오직 자신의 경험에만 의존하는 경우보다 감소하여 정보제공의 효과가 있었지만, 최적비율 이상으로 유동정보에 따라 경로선택을 하는 운전자가 많아지면 정보의 역효과가 발생함도 증명하였다. 나아가, 교통환경이 정상성을 /따르는 경우에는 모든 운전자의 경로조건에 대한 학습과정과 이 경험을 축적함에 따라 어느 일정한 값으로 수렴해감을 알 수 있었다. 교통환경이 비정상성을 따르는 경우에는 주행조건에 대해 돌발적인 진동과 혼란상태가 발생하고 이 경우에도 무정보 환경보다는 어느정도의 비율로 유도정보가 주어지는 것이 네트워크 전체의 통행시간을 감소시킴으로써 정보의 효과가 있음도 확인하였다. 향후, 다양한 교통류 환경을 적용한 대규모 네트워크를 대상으로 한 운전자의 경로선택과 학습행동에 대한 연구와 정보의 정도에 따른 운전자의 행동을 고려한 정보의 제공방안에 대한 연구도 필요할 것으로 판단된다.

동기와 계층화된 감정에 기반한 로봇의 행동결정 (Model Behavior selection based on the motivation and hierarchicalized emotions.)

  • 안형철;박명수;최진영
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.29-33
    • /
    • 2004
  • 본 논문에서는 인간과 엔터테인먼트 로봇의 상호작용을 위해, 동기(motivation)와 계층화된 감정(hierarchical emotion)에 기반한 행동결정 모델을 설계하였다. 감정모델은 계층화되고 학습 가능하도록 하여, 인간의 행동결정과 유사하게 동작하도록 하였다. 감정모델을 통해 로봇의 행동에 대한 인간의 반응이 학습되는데, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 감정모델과 함께 동기가 행동결정에 영향을 주는데, 초기에는 외부에서 주어지는 동기가 주로 행동을 결정하고, 감정모델이 학습될수록 점차 감정의 영향이 증가하여 동기와 계층화된 감정을 함께 고려하여 행동을 결정하도록 하였다. 그럼으로써, 인간과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나갈 수 있게 하였다

  • PDF

매크로 행동을 이용한 내시 Q-학습의 성능 향상 기법 (A Performance Improvement Technique for Nash Q-learning using Macro-Actions)

  • 성연식;조경은;엄기현
    • 한국멀티미디어학회논문지
    • /
    • 제11권3호
    • /
    • pp.353-363
    • /
    • 2008
  • 단일 에이전트 환경에서는 Q-학습의 학습 시간을 줄이기 위해서 학습결과를 전파시키거나 일렬의 행동을 패턴으로 만들어 학습한다. 다중 에이전트 환경에서는 동적인 환경과 다수의 에이전트 상태를 고려해야하기 때문에 학습에 필요한 시간이 단일 에이전트 환경보다 길어지게 된다. 이 논문에서는 단일 에이전트 환경에서 시간 단축을 위해서 유한개의 행동으로 정책을 만들어 학습하는 매크로 행동을 다중 에이전트 환경에 적합한 내시 Q-학습에 적용함으로써 다중 에이전트 환경에서 Q-학습 시간을 줄이고 성능을 높이는 방법을 제안한다. 실험에서는 다중 에이전트 환경에서 매크로 행동을 이용한 에이전트와 기본 행동만 이용한 에이전트의 내시 Q-학습 성능을 비교했다. 이 실험에서 네 개의 매크로 행동을 이용한 에이전트가 목표를 수행할 성공률이 기본 행동만 이용한 에이전트 보다 9.46% 높은 결과를 얻을 수 있었다. 매크로 행동은 기본 행동만을 이용해서 적합한 이동 행동을 찾아도 매크로 행동을 이용한 더 낳은 방법을 찾기 때문에 더 많은 Q-값의 변화가 발생되었고 전체 Q-값 합이 2.6배 높은 수치를 보였다. 마지막으로 매크로 행동을 이용한 에이전트는 약 절반의 행동 선택으로도 시작위치에서 목표위치까지 이동함을 보였다. 결국 에이전트는 다중 에이전트 환경에서 매크로 행동을 사용함으로써 성능을 향상시키고 목표위치까지 이동하는 거리를 단축해서 학습 속도를 향상시킨다.

  • PDF

지능형 소프트웨어 로봇을 위한 행동학습구조 (Behavior Learning Architecture for Intelligent Software Robot)

  • 권우영;민현석;장국현;이상훈;서일홍
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2002년도 하계학술대회 논문집 D
    • /
    • pp.2404-2406
    • /
    • 2002
  • 기존의 로봇은 주로 예측 가능한 환경 하에서 동작해왔다. 그러나 로봇의 적용분야가 확대되면서 예측하기 힘든 복잡한 자극에 대해 반응하도록 요구되고 있다. 복잡한 자극은 동일시간에 여러 가지 자극이 존재하는 공간적 복잡성과, 각기 다른 시간에 자극이 연속적으로 배열된 시간적 복잡성을 가진다. 기존의 로봇은 복잡한 자극에 대한 대처능력이 취약하다. 이러한 환경에서 적응할 수 있도록 여러 방면의 연구가 진행되어 왔으며, 그 중에서 동물이 환경의 변화에 대처하는 방법에 관한 많은 연구들이 진행되고 있다. 본 논문에서는 시간적 복잡성을 가진 자극에 반응하고 이를 학습하기 위해 HMM(Hidden Markov Model)을 이용한 시계열 학습구조를 제안한다. 또한 기본적인 행동선택 및 학습을 위해 동물의 행동선택을 모델링한 구조를 구현하였다.

  • PDF

인공 면역 시스템과 분산 유전자 알고리즘에 기반한 자율 분산 로봇 시스템 (Distributed Autonomous Robotic System based on Artificial Immune system and Distributed Genetic Algorithm)

  • 심귀보;황철민
    • 한국지능시스템학회논문지
    • /
    • 제14권2호
    • /
    • pp.164-170
    • /
    • 2004
  • 본 논문에서는 인공 면역 시스템과 분산 유전자 알고리즘에 기반하여 동작하는 자율분산로봇 시스템을 제안한다. 시스템에서 로봇들의 행동은 전역행동과 지역행동으로 분류된다. 전역행동은 환경에서 작업을 탐색하는데 이를 빠르게 수행하기 위하여 집합과 분산의 두 가지 행동으로 이루어져 있다. 이때 인공 면역 시스템은 로봇이 어떤 행동을 선택하여 행동할 것인가를 결정한다. 지역행동은 탐색된 작업을 수행하는 부분으로서 어떤 로봇들이 협조행동을 할지를 학습하고, 학습한 결과에 따라 작업을 수행하는 행동을 한다. 이를 위해 분산 유전자 알고리즘을 이용하여 각 로봇들은 주어진 작업에 대하여 학습을 한다. 제안된 시스템에서 학습 알고리즘은 주어지는 작업의 변화로봇들은 주어진 작업을 수행하기 위해 학습을 하고, 주어진 작업이 변할 경우 스스로 대처한다는 면에서 기존의 자율 분산 시스템보다 적응성에서 향상된 시스템이다.

분류자 시스템과 인공면역네트워크를 이용한 자율 분산 로봇시스템 개발 (Development of Distributed Autonomous Robotic Systerrt Based on Classifier System and Artificial Immune Network)

  • 심귀보;황철민
    • 한국지능시스템학회논문지
    • /
    • 제14권6호
    • /
    • pp.699-704
    • /
    • 2004
  • 본 논문에서는 인공 면역 시스템과 분류자 시스템에 기반하여 동작하는 자율분산로봇 시스템을 제안한다. 시스템에서 로봇들의 행동은 전역행동과 지역행동으로 분류된다. 전역행동은 환경에서 작업을 탐색하는데 이를 빠르게 수행하기 위하여 집합과 분산의 두 가지 행동으로 이루어져 있다 이때 인공 면역 시스템은 로봇이 어떤 행동을 선택하여 행동할 것인가를 결정한다. 지역행동은 탐색된 작업을 수행하는 부분으로서 어떤 로봇들이 협조행동을 할지를 학습하고, 학습한 결과에 따라 작업을 수행하는 행동을 한다. 이를 위해 분류자 시스템을 이용하여 각 로봇들은 주어진 작업에 대하여 학습을 한다. 제안된 시스템에서 학습 알고리즘은 주어지는 작업의 변화로봇들은 주어진 작업을 수행하기 위해 학습을 하고, 주어진 작업이 변할 경우 스스로 대처한다는 면에서 기존의 자율 분산 시스템보다 적응성에서 향상된 시스템이다.

반응형 에이전트의 효과적인 물체 추적을 위한 베이지 안 추론과 강화학습의 결합 (Hybrid of Reinforcement Learning and Bayesian Inference for Effective Target Tracking of Reactive Agents)

  • 민현정;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 가을 학술발표논문집 Vol.31 No.2 (1)
    • /
    • pp.94-96
    • /
    • 2004
  • 에이전트의 '물체 따라가기'는 전통적으로 자동운전이나 가이드 등의 다양한 서비스를 제공할 수 있는 기본적인 기능이다. 여러 가지 물체가 있는 환경에서 '물체 따라가기'를 하기 위해서는 목적하는 대상이 어디에 있는지 찾을 수 있어야 하며, 실제 환경에는 사람이나 차와 같이 움직이는 물체들이 존재하기 때문에 다른 물체들을 피할 수 있어야 한다. 그런데 에이전트의 최적화된 피하기 행동은 장애물의 모양과 크기에 따라 다르게 생성될 수 있다. 본 논문에서는 다양한 모양과 크기의 장애물이 있는 환경에서 최적의 피하기 행동을 생성하면서 물체를 추적하기 위해 반응형 에이전트의 행동선택을 강화학습 한다. 여기에서 정확하게 상태를 인식하기 위하여 상태를 추론하고 목표물과 일정거리를 유지하기 위해 베이지안 추론을 이용한다 베이지안 추론은 센서정보를 이용해 확률 테이블을 생성하고 가장 유력한 상황을 추론하는데 적합한 방법이고, 강화학습은 실시간으로 장애물 종류에 따른 상태에서 최적화된 행동을 생성하도록 평가함수를 제공하기 때문에 베이지안 추론과 강화학습의 결합모델로 장애물에 따른 최적의 피하기 행동을 생성할 수 있다. Webot을 이용한 시뮬레이션을 통하여 다양한 물체가 존재하는 환경에서 목적하는 대상을 따라가면서 이종의 움직이는 장애물을 최적화된 방법으로 피할 수 있음을 확인하였다.

  • PDF

사용자의 행동과 점진적 기계학습을 이용한 쓰레기 편지 여과 시스템의 설계 (Designing a Spam Mail Filtering System Using User Reaction and Incremental Machine Learning)

  • 김강민;박은진;김재훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.775-778
    • /
    • 2005
  • 본 논문은 쓰레기 편지를 여과하기 위해 대상 편지에 따른 사용자들의 행동(reaction)을 묵시적(implicitly)으로 수집한 후 이를 점진적(incrementally) 기계학습기의 자질(feature)로 사용하여 편지 여과 작업의 증거가 되는 단어들을 지속적으로 학습하면서 최적의 편지 여과 결과를 제공하는 기법과 시스템 구조를 제안한다. 사용자 개인의 컴퓨터에 행동 정보와 학습 데이터를 저장하도록 설계하여 묵시적 정보 수집에서 자주 제기되는 개인 프라이버시 문제를 해결하였으며, 점진적 기계학습 기법을 사용하여 개인 정보를 포함하는 대량의 편지 학습 데이터를 모으기 힘들다는 문제를 해결하였다. 또 향후 제안하는 시스템을 이용하여 여러 종류의 기계학습 기법 중 쓰레기 편지 여과 작업을 가장 효과적으로 수행할 수 있는 기법을 선택하는 작업을 수행할 계획이다.

  • PDF

에이전트의 움직이는 물체 인지와 행동 생성을 위한 행동 네트워크의 베이지안 추론 (Bayesian Inference of Behavior Network for Perceiving Moving Objects and Generating Behaviors of Agent)

  • 민현정;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 가을 학술발표논문집 Vol.30 No.2 (1)
    • /
    • pp.46-48
    • /
    • 2003
  • 본 논문에서는 실제환경에서와 같이 예측할 수 없는 상황에서 에이전트의 인지와 자동 행동 생성 방법을 제안한다. 전통적인 에이전트의 지능제어 방법은 환경에 대해 알고 있는 정보를 이용한다는 제약 때문에 다양하고 복잡한 환경에 적응할 수 없었다. 최근, 미리 알려지지 않은 환경에서 자동으로 행동을 생성할 수 있는 센서와 행동을 연결하는 행동 기반의 방법과 추론, 학습 및 계획 기능의 부여를 위한 하이브리드 방법이 연구되고 있다. 본 논문에서는 다양한 환경조건으로 움직이는 장애물을 인지하고 피할 수 있는 행동을 생성하기 위해 행동 네트워크에 Bayesian 네트워크를 결합한 방법을 제안한다. 행동 네트워크는 입력된 센서 정보와 미리 정의된 목적 정보를 가지고 다음에 수행할 가장 높은 우선순위의 행동을 선택한다. 그리고 Bayesian 네트워크는 센서 정보들로부터 상황을 미리 추론하고 이 확률 값을 행동 네트워크의 가중치로 주어 행동 선택을 조정하도록 한다. 로봇 시뮬레이터를 이용한 실험을 통해 제안한 행동 네트워크와 Bayesian 네트워크의 결합 방법으로 움직이는 장애물을 피하고 목적지를 찾아가는 것을 확인할 수 있었다.

  • PDF