• 제목/요약/키워드: 로봇 행동선택

검색결과 48건 처리시간 0.025초

다층신경회로망을 이용한 축구 로봇시스템의 행동선택기 설계 (Design of an Action Selector for Soccer Robot Systems Using Multilayer Neural Networks)

  • 손창우;김도현;안현식
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1999년도 추계학술대회 논문집 학회본부 B
    • /
    • pp.658-660
    • /
    • 1999
  • 본 논문에서는 축구로봇 시스템에서 상위 레벨 제어기에 해당하는 행동선택기를 다층신경회로망을 이용하여 설계한다. 축구로봇 시스템에서 로봇의 속도가 빠른 상태에서 제어가 가능하도록 로봇의 행동레벨을 설정하고 주어진 동적 상황에 대해 여러 가지 상황변수를 정의하여, 각 상황에 가장 효율적이며 최적의 행동을 선택하도록 한다. 각 로봇이 목표점으로 이동할 때 어떠한 행동을 선택하여 어떻게 움직이느냐에 따라 로봇은 같은 위치에서 목표점을 이동하더라도 이동경로가 달라진다. 따라서, 로봇축구 경기 상황을 나타내는 상황 변수들을 입력으로 하는 다층신경회로망을 사용하여 출력으로 행동을 판단하여 실행하는 알고리즘을 제안하고 그를 위한 하드웨어와 시뮬레이터 도구를 제작한다. 역전파 알고리즘을 통해 신경망을 학습하고 학습된 데이터를 실험에 적용한다.

  • PDF

동적 환경에서의 적응을 위한 로봇 에이전트 제어: 조건별 개체 유지를 이용한 LCS기반 행동 선택 네트워크 학습 (Robot agent control for the adaptation to dynamic environment : Learning behavior network based on LCS with keeping population by conditions)

  • 박문희;박한샘;조성배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.335-338
    • /
    • 2005
  • 로봇 에이전트는 변화하는 환경에서 센서정보를 바탕으로 적절한 행동을 선택하며 동작하는 것이 중요하다. 행동 선택 네트워크는 이러한 환경에서 변화하는 센서정보에 따라 실시간으로 행동을 선택할 수 있다는 점에서, 장시간에 걸친 최적화보다 단시간 내 개선된 효율성에 초점을 맞추어 사용되어 왔다. 하지만 행동 선택 네트워크는 초기 문제에 의존적으로 설계되어 변화하는 환경에 유연하게 대처하지 못한다는 맹점을 가지고 있다. 본 논문에서는 행동 선택 네트워크의 연결을 LCS를 기반으로 진화 학습시켰다. LCS는 유전자 알고리즘을 통해 만들어진 규칙들을 강화학습을 통해 평가하며, 이를 통해 변화하는 환경에 적합한 규칙을 생성한다. 제안하는 모델에서는 LCS의 규칙이 센서정보를 포함한다. 진화가 진행되는 도중 이 규칙들이 모든 센서 정보를 포함하지 못하기 때문에 현재의 센서 정보를 반영하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이를 해결하기 위해 센서정보 별로 개체를 따로 유지하는 방법을 제안한다. 제안하는 방법의 검증을 위해 Webots 시뮬레이터에서 케페라 로봇을 이용해 실험을 하여, 변화하는 환경에서 로봇 에이전트가 학습을 통해 올바른 행동을 선택함을 보였고, 일반LCS를 사용한 것보다 조건별 개체 유지를 통해 더 나은 결과를 보이는 것 또한 확인하였다.

  • PDF

지능로봇: 지능 에이전트를 기초로 한 접근방법 (Intelligent Robot Design: Intelligent Agent Based Approach)

  • 강진식
    • 한국지능시스템학회논문지
    • /
    • 제14권4호
    • /
    • pp.457-467
    • /
    • 2004
  • 본 논문에서는 로봇을 하나의 에이전트로 보고 로봇에 필요한 기능-환경인지, 지능, 행동-등을 부-에이전트로 하는 로봇 구조를 제안하였다. 각각의 부 에이전트들은 로봇 기능의 기초단위를 구성하는 마이크로 에이전트로 구성된다. 로봇의 제어 구조는 행위기반 반사행동 제어 형태와 행동 선택 에이전트로 구성되며, 행동 선택 에이전트에서의 행동 선택은 행동 우선순위, 수행성능, 강화학습에 의한 학습기능을 부가하였다. 제시된 로봇 구조는 다중 부-에이전트 구조로 각각의 기능에 대하여 지능을 부여하기 쉬우며 다중 로봇 제어를 위한 새로운 접근 방법이다. 제시된 로봇을 장애물을 회피와 chaotic한 탐색을 목표로 하여 모의실험을 수행하였으며 8bit 마이크로 콘트롤러를 이용하여 제작 실험하였다.

퍼지 로직을 적용한 로봇축구 전략 및 전술 (The Robot Soccer Strategy and Tactic Using Fuzzy Logic)

  • 이정준;지동민;주문갑;이원창;강근택
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 추계학술대회 학술발표 논문집 제14권 제2호
    • /
    • pp.3-6
    • /
    • 2004
  • 본 논문에서는 퍼지 로직을 이용하여 로봇과 공의 상태에 따른 로봇 행동의 선택 알고리즘을 제시한다. 전략 및 전술 알고리즘으로 많이 알려진 Modular Q-학습 알고리즘은 개체의 수에 따른 상태수를 지수 함수적으로 증가시킬 뿐만 아니라, 로봇이 협력하기 위해 중재자 모듈이라는 별도의 알고리즘을 필요로 한다. 그러나 앞으로 제시하는 퍼지 로직을 적용한 로봇축구 전략 및 전술 알고리즘은 퍼지 로직을 이용하여 로봇의 주행 알고리즘을 선택하는 과정과 로봇의 행동을 협력하는 과정을 동시에 구현함으로써, 계산 양을 줄여 로봇 축구에 보다 적합하게 해준다.

  • PDF

Learning Classifier System을 이용한 행동 선택 네트워크의 학습 (Learning Action Selection ,Network Using Learning Classifier System)

  • 윤은경;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.404-406
    • /
    • 2003
  • 행동 기반 인공지능은 기본 행동들의 집합으로부터 적절한 행동을 선택함으로써 복잡한 행동을 하도록 하는 방식이다. 행동 기반 시스템은 1980년대에 시작되어 이제는 많은 에이전트 시스템에 사용되고 있다. 본 논문에서는 기존의 P. Maes가 제안한 행동 선택 네트워크에 Learning Classifier System을 이용한 학습 기능을 부가하여, 변하는 환경에 적절히 적응하여 행동의 시퀀스를 생성할 수 있는 방법을 제안하다. 행동 선택 네트워크는 주어진 문제에 따라 노드 간 연결을 설계자가 미리 설정하도록 하는데, 해결해야 할 문제가 변함에 따라 네트워크에서의 연결 형태가 변형될 필요가 있다. Khepera 로봇을 이용한 시뮬레이션 결과, 행동 선택 네트워크에서의 학습이 유용함을 확인할 수 있었다.

  • PDF

베이지안 네트워크를 이용한 행동기반 에이전트의 목적추론 (Goal Inference of Behavior-Based Agent Using Bayesian Network)

  • 김경중;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 가을 학술발표논문집 Vol.29 No.2 (2)
    • /
    • pp.349-351
    • /
    • 2002
  • 베이지안 네트워크는 변수들간의 원인-결과 관계를 확률적으로 모델링하기 위한 도구로서 소프트웨어 사용자의 목적을 추론하기 위해 널리 이용된다. 행동기반 로봇 설계는 반응적(reactive) 행동 모듈을 효과적으로 결합하여 복잡한 행동을 생성하기 위한 접근 방법이다. 행동의 결합은 로봇의 목표, 외부환경, 행동들 사이의 관계를 종합적으로 고려하여 동적으로 이루어진다. 그러나 현재의 결합 모델은 사전에 설계자에 의해 구조가 결정되는 고정적인 형태이기 때문에 환경의 변화에 맞게 목표를 변화시키지 못한다. 본 연구에서는 베이지안 네트워크를 이용하여 현재 상황에 가장 적합한 로봇의 목표를 설정하여 유연한 행동선택을 유도한다. Khepera 이동로봇 시뮬레이터를 이용하여 실험을 수행해 본 결과 베이지안 네트워크를 적용한 모델이 상황에 적합하게 목적을 선택하여 문제를 해결하는 것을 알 수 있었다.

  • PDF

베이지안 행동유발성 모델을 이용한 행동동기 기반 행동 선택 메커니즘 (Behavioral motivation-based Action Selection Mechanism with Bayesian Affordance Models)

  • 이상형;서일홍
    • 전자공학회논문지SC
    • /
    • 제46권4호
    • /
    • pp.7-16
    • /
    • 2009
  • 로봇이 지능적이고 합리적으로 임무를 수행하기 위해서는 다양한 솜씨(skill)가 필요하다. 우리는 솜씨를 생성하기 위해 우선 행동유발성(affordance)을 학습한다. 행동유발성은 행동을 유발하게 하는 물체 또는 환경의 성질로써 솜씨를 생성하는데 유용하게 사용될 수 있다. 로봇이 수행하는 대부분의 임무는 순차적이고 목표 지향적인 행동을 필요로 한다. 그러나 행동유발성만을 이용하여 이러한 임무를 수행하는 것은 쉽지 않다. 이를 위해 우리는 행동유발성과 목표 지향적 요소를 반영하기 위한 소프트 행동동기 스위치(soft behavioral motivation switch)를 이용하여 솜씨를 생성한다. 솜씨는 현재 인지된 정보와 목표 지향적 요소를 결합하여 행동동기를 생성한다. 여기서 행동동기는 목표 지향적인 행동을 활성화시키기 위한 내부 상태를 말한다. 또한, 로봇은 임무 수행을 위해 순차적인 행동 선택을 필요로 한다. 우리는 목표 지향적이고 순차적인 행동 선택이 가능하도록 솜씨를 이용하여 솜씨 네트워크(skill network)를 생성한다. 로봇은 솜씨 네트워크를 이용하여 목표 지향적이고 순차적인 행동을 선택할 수 있다. 본 논문에서는 베이지안 네트워크를 이용한 행동유발성 모델링 및 학습 방법, 행동유발성과 소프트 행동동기 스위치를 이용한 솜씨 및 솜씨 네트워크 생성 방법, 마지막으로 솜씨 네트워크를 이용한 목표 지향적 행동 선택 방법을 제안한다. 우리의 방법을 증명하기 위해 제니보(애완 로봇)를 이용한 교시 기반 학습 방법을 통해 "물체 찾기", "물체에 접근하기", "물체의 냄새 맡기", 그리고 "물체를 발로 차기" 행동유발성들을 학습하였다. 또한, 이들을 이용하여 솜씨 및 솜씨 네트워크를 생성하여 제니보에 적용하고 실험하였다.

동기와 계층화된 감정에 기반한 로봇의 행동결정 (Model Behavior selection based on the motivation and hierarchicalized emotions.)

  • 안형철;박명수;최진영
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.29-33
    • /
    • 2004
  • 본 논문에서는 인간과 엔터테인먼트 로봇의 상호작용을 위해, 동기(motivation)와 계층화된 감정(hierarchical emotion)에 기반한 행동결정 모델을 설계하였다. 감정모델은 계층화되고 학습 가능하도록 하여, 인간의 행동결정과 유사하게 동작하도록 하였다. 감정모델을 통해 로봇의 행동에 대한 인간의 반응이 학습되는데, 그 결과가 행동결정에 영향을 주어 로봇의 행동에 반영되도록 하였다. 감정모델과 함께 동기가 행동결정에 영향을 주는데, 초기에는 외부에서 주어지는 동기가 주로 행동을 결정하고, 감정모델이 학습될수록 점차 감정의 영향이 증가하여 동기와 계층화된 감정을 함께 고려하여 행동을 결정하도록 하였다. 그럼으로써, 인간과의 상호작용을 통해 정보를 축적하고 인간의 반응에 적응해나갈 수 있게 하였다

  • PDF

지능형 소프트웨어 로봇을 위한 행동학습구조 (Behavior Learning Architecture for Intelligent Software Robot)

  • 권우영;민현석;장국현;이상훈;서일홍
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2002년도 하계학술대회 논문집 D
    • /
    • pp.2404-2406
    • /
    • 2002
  • 기존의 로봇은 주로 예측 가능한 환경 하에서 동작해왔다. 그러나 로봇의 적용분야가 확대되면서 예측하기 힘든 복잡한 자극에 대해 반응하도록 요구되고 있다. 복잡한 자극은 동일시간에 여러 가지 자극이 존재하는 공간적 복잡성과, 각기 다른 시간에 자극이 연속적으로 배열된 시간적 복잡성을 가진다. 기존의 로봇은 복잡한 자극에 대한 대처능력이 취약하다. 이러한 환경에서 적응할 수 있도록 여러 방면의 연구가 진행되어 왔으며, 그 중에서 동물이 환경의 변화에 대처하는 방법에 관한 많은 연구들이 진행되고 있다. 본 논문에서는 시간적 복잡성을 가진 자극에 반응하고 이를 학습하기 위해 HMM(Hidden Markov Model)을 이용한 시계열 학습구조를 제안한다. 또한 기본적인 행동선택 및 학습을 위해 동물의 행동선택을 모델링한 구조를 구현하였다.

  • PDF

CAM-Brain 모듈결합을 위한 행동선택방법론 (Action Selection Mechanism for Combining of CAM-Brain Modules)

  • 김경중;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (2)
    • /
    • pp.137-139
    • /
    • 2000
  • 이동로봇을 위한 제어기를 개발하려는 폭넓은 연구가 진행되어 왔다. 특히, 몇몇 연구가들은 유전자 알고리즘이나 유전자 프로그래밍과 같은 진화 알고리즘을 사용하여 장애물 피하기, 포식자 피하기, 이동하는 먹이 잡기 등의 기능을 수행하는 이동로봇 제어기를 개발하였다. 이러한 연구 선상에서, 우리는 이동로봇을 제어하기 위해 셀룰라 오토마타 상에서 진화된 CAM-Brain을 적용하는 방법을 보여왔다. 그러나, 이러한 접근방법은 로봇이 복잡한 환경에서 적합한 행동을 수행하도록 만드는데 한계가 있었다. 본 논문에서는, Maes의 행동선택 방법론을 이용하여 간단한 행동을 하도록 진화된 모듈들을 결합함으로써 이러한 문제를 해결하려고 한다. 실험 결과는 이러한 접근방법이 복잡한 환경을 위한 신경망 제어기를 개발하는데 가능성이 있음을 보여주었다.

  • PDF