• 제목/요약/키워드: 행동모듈 결합

검색결과 17건 처리시간 0.032초

고차원 행동구현을 위한 행동 네트워크와 규칙기반 결합방식의 비교 (A Comparison of Behavior Network and Rule-based Integration Method for Higher-level Behavior Implementation)

  • 김경중;조성배
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 추계학술발표논문집 (상)
    • /
    • pp.551-554
    • /
    • 2001
  • 분산 인공지능 분야에서는 여러 개의 기본 객체들이 상호작용을 통해 원하는 작업을 수행하는데, 그 한 예로 행동기반 이동로봇 제어 시스템을 들 수 있다. 이것은 여러 개의 기본 행동 모듈을 개발한 후, 적절한 조정방법을 사용하여 어려운 문제를 해결하며, 행동 네트워크는 행동 모듈들간의 협력과 억제를 모델링 하여 주어진 작업을 달성하도록 행동들의 실행순서를 조정하는 방법중의 하나이다. 정적으로 행동을 선택하는 규칙기반 결합 방법과는 달리 목표에 기반 하여 행동 네트워크는 다양한 행동들의 실행순서를 동적으로 선택한다는 장점이 있다. 본 논문에서는 진화 방식으로 설계된 기본 행동 모듈을 행동 네트워크와 규칙기반 방법으로 선택하는 실험을 수행하며, 그 결과 행동 네트워크가 변화하는 환경에서도 좋은 성능을 보인다는 사실을 확인할 수 있었다.

  • PDF

센서-모터 제어기를 위한 셀룰라 오토마타 기반 신경망 모듈의 규칙기반 결합 (A Rule-based Integration of Neural Network Modules based on Cellular Automata for Sensory-Motor Controller)

  • 김경중;송금범;조성배
    • 한국지능시스템학회논문지
    • /
    • 제12권1호
    • /
    • pp.19-26
    • /
    • 2002
  • 자율이동로봇의 센서-모터 제어기를 구축하는데 있어 로봇의 기계적인 부분과 제어기 부분을 조화시키는 것이나 외부환경과 로봇의 상호작용을 처리하는 것 등이 가장 큰 문제점이다. 이러한 문제점들을 해결하기 위해서 진화적 접근방법이 많이 사용되고 있다. 이전 연구에서는 이러한 연구선상에서 셀룰라 오토마타 기반 신경망인 CAM-Brain을 이동로봇 제어기로 진화시켰다. 그러나, 하나의 모듈로 이루어진 제어기로는 복잡한 행동을 하도록 만들기 어렵기 때문에 본 논문에서는 하위 수준의 간단한 행동을 하도록 진화된 모듈들을 결합하여 보다 상위 수준의 복잡한 행동을 하도록 하는 다중 모듈 결합방법을 제안한다. 실험결과, 간단한 행동들을 하도록 진화된 CAM-Brain 모듈들을 규칙기반 방법으로 결합하여 주어진 좀더 환경에 적응할 수 있는 제어기를 얻을 수 있었다.

강화학습에 기초한 로봇 축구 에이전트의 동적 위치 결정 (Reinforcement Learning based Dynamic Positioning of Robot Soccer Agents)

  • 권기덕;김인철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (2)
    • /
    • pp.55-57
    • /
    • 2001
  • 강화학습은 한 에이전트가 자신이 놓여진 환경으로부터의 보상을 최대화할 수 있는 최적의 행동 전략을 학습하는 것이다. 따라서 강화학습은 입력(상태)과 출력(행동)의 쌍으로 명확한 훈련 예들이 제공되는 교사 학습과는 다르다. 특히 Q-학습과 같은 비 모델 기반(model-free)의 강화학습은 사전에 환경에 대한 별다른 모델을 설정하거나 학습할 필요가 없으며 다양한 상태와 행동들을 충분히 자주 경험할 수만 있으면 최적의 행동전략에 도달할 수 있어 다양한 응용분야에 적용되고 있다. 하지만 실제 응용분야에서 Q-학습과 같은 강화학습이 겪는 최대의 문제는 큰 상태 공간을 갖는 문제의 경우에는 적절한 시간 내에 각 상태와 행동들에 대한 최적의 Q값에 수렴할 수 없어 효과를 거두기 어렵다는 점이다. 이런 문제점을 고려하여 본 논문에서는 로봇 축구 시뮬레이션 환경에서 각 선수 에이전트의 동적 위치 결정을 위해 효과적인 새로운 Q-학습 방법을 제안한다. 이 방법은 원래 문제의 상태공간을 몇 개의 작은 모듈들로 나누고 이들의 개별적인 Q-학습 결과를 단순히 결합하는 종래의 모듈화 Q-학습(Modular Q-Learning)을 개선하여, 보상에 끼친 각 모듈의 기여도에 따라 모듈들의 학습결과를 적응적으로 결합하는 방법이다. 이와 같은 적응적 중재에 기초한 모듈화 Q-학습법(Adaptive Mediation based Modular Q-Learning, AMMQL)은 종래의 모듈화 Q-학습법의 장점과 마찬가지로 큰 상태공간의 문제를 해결할 수 있을 뿐 아니라 보다 동적인 환경변화에 유연하게 적응하여 새로운 행동 전략을 학습할 수 있다는 장점을 추가로 가질 수 있다. 이러한 특성을 지닌 AMMQL 학습법은 로봇축구와 같이 끊임없이 실시간적으로 변화가 일어나는 다중 에이전트 환경에서 특히 높은 효과를 볼 수 있다. 본 논문에서는 AMMQL 학습방법의 개념을 소개하고, 로봇축구 에이전트의 동적 위치 결정을 위한 학습에 어떻게 이 학습방법을 적용할 수 있는지 세부 설계를 제시한다.

  • PDF

CAM-Brain 모듈결합을 위한 행동선택방법론 (Action Selection Mechanism for Combining of CAM-Brain Modules)

  • 김경중;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (2)
    • /
    • pp.137-139
    • /
    • 2000
  • 이동로봇을 위한 제어기를 개발하려는 폭넓은 연구가 진행되어 왔다. 특히, 몇몇 연구가들은 유전자 알고리즘이나 유전자 프로그래밍과 같은 진화 알고리즘을 사용하여 장애물 피하기, 포식자 피하기, 이동하는 먹이 잡기 등의 기능을 수행하는 이동로봇 제어기를 개발하였다. 이러한 연구 선상에서, 우리는 이동로봇을 제어하기 위해 셀룰라 오토마타 상에서 진화된 CAM-Brain을 적용하는 방법을 보여왔다. 그러나, 이러한 접근방법은 로봇이 복잡한 환경에서 적합한 행동을 수행하도록 만드는데 한계가 있었다. 본 논문에서는, Maes의 행동선택 방법론을 이용하여 간단한 행동을 하도록 진화된 모듈들을 결합함으로써 이러한 문제를 해결하려고 한다. 실험 결과는 이러한 접근방법이 복잡한 환경을 위한 신경망 제어기를 개발하는데 가능성이 있음을 보여주었다.

  • PDF

베이지안 네트워크를 이용한 행동기반 에이전트의 목적추론 (Goal Inference of Behavior-Based Agent Using Bayesian Network)

  • 김경중;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 가을 학술발표논문집 Vol.29 No.2 (2)
    • /
    • pp.349-351
    • /
    • 2002
  • 베이지안 네트워크는 변수들간의 원인-결과 관계를 확률적으로 모델링하기 위한 도구로서 소프트웨어 사용자의 목적을 추론하기 위해 널리 이용된다. 행동기반 로봇 설계는 반응적(reactive) 행동 모듈을 효과적으로 결합하여 복잡한 행동을 생성하기 위한 접근 방법이다. 행동의 결합은 로봇의 목표, 외부환경, 행동들 사이의 관계를 종합적으로 고려하여 동적으로 이루어진다. 그러나 현재의 결합 모델은 사전에 설계자에 의해 구조가 결정되는 고정적인 형태이기 때문에 환경의 변화에 맞게 목표를 변화시키지 못한다. 본 연구에서는 베이지안 네트워크를 이용하여 현재 상황에 가장 적합한 로봇의 목표를 설정하여 유연한 행동선택을 유도한다. Khepera 이동로봇 시뮬레이터를 이용하여 실험을 수행해 본 결과 베이지안 네트워크를 적용한 모델이 상황에 적합하게 목적을 선택하여 문제를 해결하는 것을 알 수 있었다.

  • PDF

병렬 태스크의 행동 특성 추출에 관한 연구 (A Study on the Extraction of Behavior Characteristic for Concurrent Task)

  • 유창문;김규년
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.573-575
    • /
    • 2000
  • COncurrent Design Approach for Real-Time System(CODARTS) 방법론은 Gomaa에 의해 제안된 실시간 소프트웨어 설계 방법론으로서 분석 단계에서 CORBA 방법을 사용하여 시스템의 객체와 함수들을 식별하고 행동 모델을 개발한다. 그리고 설계 단계에서는 병렬 태스크 구조화 지침 및 정보 은닉 모듈 구조화 지침을 적용하여 해동 모델의 객체와 함수들을 병렬 태스크와 정보 은닉 모듈들로 구조화한다. 마지막으로 병렬 태스크와 저오 은닉 모듈을 결합하여 소프트웨어 구조를 개발하고 구현 단계를 수행한다. 소프트웨어 구조를 개발하고 구현 단계를 수행하기 위해서는 병렬 태스크의 행동 특성이나 태스크간의 인터페이스가 정확히 명시되어야 한다. 이는 분석 단계에서 식별된 객체와 함수들에서 태스크에 대한 정보를 추출함으로써 이루어질수 있다. 본 논문에서는 행동 모델의 객체와 함수들로부터 병렬 태스크에 대한 행동 특성 정보 추출방법을 제안하고 태스크 사이의 인터페이스를 결정하는 방법을 보인다.

  • PDF

행동패턴 인식기법을 이용한 지능형 감시 시스템 (Intelligent Surveillance System using an Activity Recognition Technique)

  • 박진희;이조셉;김호준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.63-65
    • /
    • 2007
  • 본 연구에서는 비디오 영상데이터로부터 인간의 행동패턴의 인식기술 및 상황인식 기법을 소개하고 이를 활용한 실용적 응용으로서 지능형 감시시스템을 제안한다. 순차적 영상신호에서 형태기반의 정적 특징과 목표물의 움직임 요소를 측정한 동적 특징을 결합한 형태의 특징 표현 및 추출기법과 행동패턴 및 상황패턴에 대한 인식 모델을 제시하고 구현한다. 모듈구조의 시스템에서 영상처리 모듈과 패턴인식 모듈은 특징추출 및 인식과정을 수행하며, 감시영상에 대한 상황판단 기능은 데이터베이스 모듈과 연동하여 효과적인 검색기능과 경보기능 등을 지원한다. 이러한 기능은 기존의 시스템에서 운영자의 지속적인 감시작업과 상황판단 작업을 보조 또는 대행하여 수행할 수 있을 뿐만 아니라 데이터저장 공간을 획기적으로 줄이고 부수적으로 효율적인 영상의 조회기능 및 추적기능 등의 유용한 인터페이스를 지원한다.

복잡한 행동을 위한 셀룰라 오토마타 기반 신경망 모듈의 동적선택 (Dynamic Selection of Neural Network Modules based on Cellular Automata for Complex Behaviors)

  • 김경중;조성배
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제51권4호
    • /
    • pp.160-166
    • /
    • 2002
  • Since conventional mobile robot control with one module has limitation to solve complex problems, there have been a variety of works on combining multiple modules for solving them. Recently, many researchers attempt to develop mobile robot controllers using artificial life techniques. In this paper, we develop a mobile robot controller using cellular automata based neural networks, where complex tasks are divided to simple sub-tasks and optimal neural structure of each sub-task is explored by genetic algorithm. Neural network modules are combined dynamically using the action selection mechanism, where basic behavior modules compete each other by inhibition and cooperation. Khepera mobile robot simulator is used to verify the proposed model. Experimental results show that complex behaviors emerge from the combination of low-level behavior modules.

강화 학습에 기초한 로봇 축구 에이전트의 설계 및 구현 (Design and implementation of Robot Soccer Agent Based on Reinforcement Learning)

  • 김인철
    • 정보처리학회논문지B
    • /
    • 제9B권2호
    • /
    • pp.139-146
    • /
    • 2002
  • 로봇 축구 시뮬레이션 게임은 하나의 동적 다중 에이전트 환경이다. 본 논문에서는 그러한 환경 하에서 각 에이전트의 동적 위치 결정을 위한 새로운 강화학습 방법을 제안한다. 강화학습은 한 에이전트가 환경으로부터 받는 간접적 지연 보상을 기초로 누적 보상값을 최대화할 수 있는 최적의 행동 전략을 학습하는 기계학습 방법이다. 따라서 강화학습은 입력-출력 쌍들이 훈련 예로 직접 제공되지 않는 다는 점에서 교사학습과 크게 다르다. 더욱이 Q-학습과 같은 비-모델 기반의 강화학습 알고리즘들은 주변 환경에 대한 어떤 모델도 학습하거나 미리 정의하는 것을 요구하지 않는다. 그럼에도 불구하고 이 알고리즘들은 에이전트가 모든 상태-행동 쌍들을 충분히 반복 경험할 수 있다면 최적의 행동전략에 수렴할 수 있다. 하지만 단순한 강화학습 방법들의 가장 큰 문제점은 너무 큰 상태 공간 때문에 보다 복잡한 환경들에 그대로 적용하기 어렵다는 것이다. 이런 문제점을 해결하기 위해 본 연구에서는 기존의 모듈화 Q-학습방법(MQL)을 개선한 적응적 중재에 기초한 모듈화 Q-학습 방법(AMMQL)을 제안한다. 종래의 단순한 모듈화 Q-학습 방법에서는 각 학습 모듈들의 결과를 결합하는 방식이 매우 단순하고 고정적이었으나 AMMQL학습 방법에서는 보상에 끼친 각 모듈의 기여도에 따라 모듈들에 서로 다른 가중치를 부여함으로써 보다 유연한 방식으로 각 모듈의 학습결과를 결합한다. 따라서 AMMQL 학습 방법은 큰 상태공간의 문제를 해결할 수 있을 뿐 아니라 동적인 환경변화에 보다 높은 적응성을 제공할 수 있다. 본 논문에서는 로봇 축구 에이전트의 동적 위치 결정을 위한 학습 방법으로 AMMQL 학습 방법을 사용하였고 이를 기초로 Cogitoniks 축구 에이전트 시스템을 구현하였다.

추론 이론과 퍼지 이론 결합에 의한 자율 이동 로봇의 지도 구축 및 안전한 네비게이션에 관한 연구 (A Study on The Automatic Map Building and Reliable Navigation of Combining Fuzzy Logic and Inference Theory)

  • 김영철;조성배;오상록;유범재
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2001년도 하계학술대회 논문집 D
    • /
    • pp.2744-2746
    • /
    • 2001
  • 이 논문에서는 이동 로봇을 위하여 퍼지이론과 Dempster-Shafer 이론을 이용한 불확실한 환경에서의 센서기반 네비게이션 방법을 제안한다. 제안된 제어기는 장애물 회피 동작과 목적지 찾기 동작을 위한 2개의 행동 모듈로 구성되어 있다. 2개의 행동 모듈은 각각 퍼지 이론으로 학습되었고, 적절한 행동 선택 방법으로 선택되게끔 하였다. 견고한 퍼지 제어기를 가진 로봇이 실험 환경내에서 안전하게 움직이기 위하여 자동으로 지도를 구축(Map Building) 하도록 하였다. 이 실험에서 구성된 맵은 평면상의 격자를 중심으로 작성되었고 로봇의 센서에서 읽어들인 센서 값은 D-S 추론 이론을 이용하여 기존의 맵과 혼합되어진다. 즉, 로봇이 움직일때 마다 실험 환경내에서 새로운 정보를 읽어 들이고, 그 정보로 인하여 기존의 지도가 새로운 지도로 갱신되는 것이다. 이러한 작업을 거치면서 로봇은 장애물과 충돌없이 배회하는 것 뿐 아니라 설정된 목적지까지도 쉽게 찾아갈 수가 있다. 실험에 대한 안정성과 확신을 검증 받기 위하여 실제 로봇에 적용하기보다는 먼저 이동 로봇의 시뮬레이션으로 실험 해 보고자 한다.

  • PDF