• 제목/요약/키워드: 로봇에이전트

검색결과 107건 처리시간 0.023초

지능로봇에서 에이전트와 ESB를 사용한 서비스 지향 애플리케이션의 자가 재구성 (Self-Reconfiguration of Service-Oriented Application using Agent and ESB in Intelligent Robot)

  • 이재정;김진한;이창호;이병정
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제14권8호
    • /
    • pp.813-817
    • /
    • 2008
  • 지능로봇(Intelligent Robot)은 주변환경을 감지하는 센서로부터 실시간 정보를 수집하고 지능적인 기능을 수행한다. 지능로봇의 자가 재구성(Self-Reconfiguration) 능력은 외부 환경의 변화에 대응하기 위해 기능을 재구성하고, 오류가 발생하였을 때 중지 없이 스스로 회복할 수 있는 중요한 요소이다. 본 논문에서는 ESB(Enterprise Service Bus)를 사용한 지능로봇의 에이전트 기반 자가 재구성 프레임워크를 제안한다. 본 논문의 프궤임워크는 멀티에이전트 시스템을 이용한 서비스 지향 애플리케이션의 동적인 발견과 자가 재구성에 초점을 맞춘다. 지능로봇이 예외적인 상황을 만났을 때, 지능로봇은 외부의 서비스 저장소로부터 새로운 서비스를 다운로드 후 실행시켜 상황을 해결한다. 에이전트 기술은 로봇들이 상호작용하기 위한 지능적인 접근법을 제공하고, ESB는 분산된 서비스 또는 지식을 활용하고 조직하기 위한 방법을 제공한다. 또한 본 연구의 유효성을 보여주기 위해 프로토타입을 구현하였다.

휴리스틱 탐색기법을 이용한 로봇축구 에이전트 (Robot soccer control that use Heuristic)

  • 장형순;이승관;정태충
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.436-439
    • /
    • 2005
  • 로봇축구는 과거의 단순한 수비시스템 벗어나 지능적 공격시스템으로 점차 변하기 시작했다. 본 논문에서는 휴리스틱 탐색기법인 최고우선탐색기법을 사용하여 공격로봇의 경험을 통해 로봇 움직임의 최적해를 찾아내고, 각 로봇간의 동기화로 인한 전술변화에 대해 설명하고 있다. 로봇이 공격과정에서 수비하는 로봇을 피해 다른 로봇에게 공을 전달하고 그 로봇이 상황에 따라 공격과 수비의 변화를 주는 방식이다. 이 알고리즘을 적용하여 최적의 로봇축구에이전트 시스템의 행동상황을 추출하고, 시뮬레이션을 통해 그 전략의 유용성을 확인한다.

  • PDF

강화학습에 기초한 로봇 축구 에이전트의 동적 위치 결정 (Reinforcement Learning based Dynamic Positioning of Robot Soccer Agents)

  • 권기덕;김인철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (2)
    • /
    • pp.55-57
    • /
    • 2001
  • 강화학습은 한 에이전트가 자신이 놓여진 환경으로부터의 보상을 최대화할 수 있는 최적의 행동 전략을 학습하는 것이다. 따라서 강화학습은 입력(상태)과 출력(행동)의 쌍으로 명확한 훈련 예들이 제공되는 교사 학습과는 다르다. 특히 Q-학습과 같은 비 모델 기반(model-free)의 강화학습은 사전에 환경에 대한 별다른 모델을 설정하거나 학습할 필요가 없으며 다양한 상태와 행동들을 충분히 자주 경험할 수만 있으면 최적의 행동전략에 도달할 수 있어 다양한 응용분야에 적용되고 있다. 하지만 실제 응용분야에서 Q-학습과 같은 강화학습이 겪는 최대의 문제는 큰 상태 공간을 갖는 문제의 경우에는 적절한 시간 내에 각 상태와 행동들에 대한 최적의 Q값에 수렴할 수 없어 효과를 거두기 어렵다는 점이다. 이런 문제점을 고려하여 본 논문에서는 로봇 축구 시뮬레이션 환경에서 각 선수 에이전트의 동적 위치 결정을 위해 효과적인 새로운 Q-학습 방법을 제안한다. 이 방법은 원래 문제의 상태공간을 몇 개의 작은 모듈들로 나누고 이들의 개별적인 Q-학습 결과를 단순히 결합하는 종래의 모듈화 Q-학습(Modular Q-Learning)을 개선하여, 보상에 끼친 각 모듈의 기여도에 따라 모듈들의 학습결과를 적응적으로 결합하는 방법이다. 이와 같은 적응적 중재에 기초한 모듈화 Q-학습법(Adaptive Mediation based Modular Q-Learning, AMMQL)은 종래의 모듈화 Q-학습법의 장점과 마찬가지로 큰 상태공간의 문제를 해결할 수 있을 뿐 아니라 보다 동적인 환경변화에 유연하게 적응하여 새로운 행동 전략을 학습할 수 있다는 장점을 추가로 가질 수 있다. 이러한 특성을 지닌 AMMQL 학습법은 로봇축구와 같이 끊임없이 실시간적으로 변화가 일어나는 다중 에이전트 환경에서 특히 높은 효과를 볼 수 있다. 본 논문에서는 AMMQL 학습방법의 개념을 소개하고, 로봇축구 에이전트의 동적 위치 결정을 위한 학습에 어떻게 이 학습방법을 적용할 수 있는지 세부 설계를 제시한다.

  • PDF

홈네트워크 응용을 위한 Multi Agent System (MAS) 프레임워크 (Multi Agent System (MAS) Framework for Home Network Application)

  • 장인훈;심귀보
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2006년도 추계학술대회 학술발표 논문집 제16권 제2호
    • /
    • pp.45-49
    • /
    • 2006
  • 홈네트워크 시스템의 본격적인 보급과 함께 가정용서비스 로봇의 최근 연구 성과들은 인간과 지능로봇이 가정에 공존하며 서로 의사소통을 할 수 있는 시대가 가까운 미래에 현실화 될 수 있음을 보여주고 있다. 그러나 가정의 환경적인 특징은 open되어 있기 때문에 그러한 환경에 적응하고 주어진 임무를 수행하는 데는 단일 로봇 또는 단일 홈서버 보다는 로봇을 포함하는 홈네트워크 시스템 내의 여러 장치들이 어울려 분산처리를 수행하는 multi-agent 시스템이 일반적으로 더 좋다고 알려져 있다. 따라서 본 논문은 홈네트워크 시스템 환경에서 가정에서 필요한 agent들을 정의하기 위한 framework 모델을 구축하고 각 agent 간의 통신 protocol architecture를 제시한다. 또한 로봇 또는 홈서버의 단일 지능이나 기능보다는 그 안에 존재하는 복수개의 agent instance들의 집합으로 agent를 정의하고 각 agent 내외에서 agent들 사이의 협력(cooperation)과 (타협)negotiation을 통해 환경과 적응하는 방법 및 사람과 교감(interactive)하는 방법을 제시한다.

  • PDF

멀티 에이전트 환경에서 동적 요구를 위한 그래프 기반 서비스 스케줄러 (Graph-Based Service Scheduler for Dynamic User Requirements in Multi-Agent Environments)

  • 이상민;이창호;박정민
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.869-870
    • /
    • 2024
  • 다양한 형태의 다수 에이전트가 서비스하는 환경에서 사용자가 요청하는 서비스 명령은 단순할수록 사용성이 좋다. 하나의 서비스는 다양한 로봇이 유기적으로 수행해야 하며, 사용자가 서비스 명령에 대해 요구사항을 추가하면 이를 다수 로봇이 적절하게 처리하는 방법이 필요하다. 본 논문에서는 사용자가 요청한 서비스에 대해 로봇의 동작은 노드로, 동작 간의 관계는 에지로 표현하고 이를 통해 스케줄링 하는 방법론을 제공한다. 실험 결과, 다수 로봇 환경에서 사용자의 요구사항을 동적으로 대응하며 효율적으로 서비스가 수행됨을 확인하였다.

동적 환경에서의 적응을 위한 로봇 에이전트 제어: 조건별 개체 유지를 이용한 LCS기반 행동 선택 네트워크 학습 (Robot agent control for the adaptation to dynamic environment : Learning behavior network based on LCS with keeping population by conditions)

  • 박문희;박한샘;조성배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.335-338
    • /
    • 2005
  • 로봇 에이전트는 변화하는 환경에서 센서정보를 바탕으로 적절한 행동을 선택하며 동작하는 것이 중요하다. 행동 선택 네트워크는 이러한 환경에서 변화하는 센서정보에 따라 실시간으로 행동을 선택할 수 있다는 점에서, 장시간에 걸친 최적화보다 단시간 내 개선된 효율성에 초점을 맞추어 사용되어 왔다. 하지만 행동 선택 네트워크는 초기 문제에 의존적으로 설계되어 변화하는 환경에 유연하게 대처하지 못한다는 맹점을 가지고 있다. 본 논문에서는 행동 선택 네트워크의 연결을 LCS를 기반으로 진화 학습시켰다. LCS는 유전자 알고리즘을 통해 만들어진 규칙들을 강화학습을 통해 평가하며, 이를 통해 변화하는 환경에 적합한 규칙을 생성한다. 제안하는 모델에서는 LCS의 규칙이 센서정보를 포함한다. 진화가 진행되는 도중 이 규칙들이 모든 센서 정보를 포함하지 못하기 때문에 현재의 센서 정보를 반영하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이를 해결하기 위해 센서정보 별로 개체를 따로 유지하는 방법을 제안한다. 제안하는 방법의 검증을 위해 Webots 시뮬레이터에서 케페라 로봇을 이용해 실험을 하여, 변화하는 환경에서 로봇 에이전트가 학습을 통해 올바른 행동을 선택함을 보였고, 일반LCS를 사용한 것보다 조건별 개체 유지를 통해 더 나은 결과를 보이는 것 또한 확인하였다.

  • PDF

Optimal Solution Algorithm for Delivery Problem on Graphs

  • Lee, Kwang-Eui
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권3호
    • /
    • pp.111-117
    • /
    • 2021
  • 그래프에서의 배달문제는 m개의 정점으로 구성된 그래프에서 n개의 서로 다른 속도를 갖는 로봇 에이전트들을 이용하여 배달물을 그래프의 한 노드에서 다른 노드로 배달하는 최소 배달순서를 구하는 문제이다. 본 논문에서는 그래프에서의 배달문제에 대하여 최적해를 계산하는 O(㎥n)과 O(㎥)시간복잡도를 갖는 두 개의 알고리즘을 제안한다. 알고리즘은 그래프의 모든 쌍에 대한 최단경로를 구하는 전처리를 한 후, 최소배달시간이 작은 정점의 순으로 최단배달경로를 구하는 방법으로 개발하였다. 이 문제에서 그래프가 문제를 해결하고자 하는 지형을 반영하고 있다고 하면, 다양한 로봇 에이전트의 배치에 대하여 전처리를 1회만 실행되면 되므로 O(㎥) 알고리즘은 실제로 O(㎡n)의 시간복잡도를 갖는다고 할 수 있다.

강화 학습에 기초한 로봇 축구 에이전트의 설계 및 구현 (Design and implementation of Robot Soccer Agent Based on Reinforcement Learning)

  • 김인철
    • 정보처리학회논문지B
    • /
    • 제9B권2호
    • /
    • pp.139-146
    • /
    • 2002
  • 로봇 축구 시뮬레이션 게임은 하나의 동적 다중 에이전트 환경이다. 본 논문에서는 그러한 환경 하에서 각 에이전트의 동적 위치 결정을 위한 새로운 강화학습 방법을 제안한다. 강화학습은 한 에이전트가 환경으로부터 받는 간접적 지연 보상을 기초로 누적 보상값을 최대화할 수 있는 최적의 행동 전략을 학습하는 기계학습 방법이다. 따라서 강화학습은 입력-출력 쌍들이 훈련 예로 직접 제공되지 않는 다는 점에서 교사학습과 크게 다르다. 더욱이 Q-학습과 같은 비-모델 기반의 강화학습 알고리즘들은 주변 환경에 대한 어떤 모델도 학습하거나 미리 정의하는 것을 요구하지 않는다. 그럼에도 불구하고 이 알고리즘들은 에이전트가 모든 상태-행동 쌍들을 충분히 반복 경험할 수 있다면 최적의 행동전략에 수렴할 수 있다. 하지만 단순한 강화학습 방법들의 가장 큰 문제점은 너무 큰 상태 공간 때문에 보다 복잡한 환경들에 그대로 적용하기 어렵다는 것이다. 이런 문제점을 해결하기 위해 본 연구에서는 기존의 모듈화 Q-학습방법(MQL)을 개선한 적응적 중재에 기초한 모듈화 Q-학습 방법(AMMQL)을 제안한다. 종래의 단순한 모듈화 Q-학습 방법에서는 각 학습 모듈들의 결과를 결합하는 방식이 매우 단순하고 고정적이었으나 AMMQL학습 방법에서는 보상에 끼친 각 모듈의 기여도에 따라 모듈들에 서로 다른 가중치를 부여함으로써 보다 유연한 방식으로 각 모듈의 학습결과를 결합한다. 따라서 AMMQL 학습 방법은 큰 상태공간의 문제를 해결할 수 있을 뿐 아니라 동적인 환경변화에 보다 높은 적응성을 제공할 수 있다. 본 논문에서는 로봇 축구 에이전트의 동적 위치 결정을 위한 학습 방법으로 AMMQL 학습 방법을 사용하였고 이를 기초로 Cogitoniks 축구 에이전트 시스템을 구현하였다.

URC를 위한 로봇 S/W 아키텍처 기술

  • 김성훈;김중배
    • 전자공학회지
    • /
    • 제33권3호
    • /
    • pp.56-63
    • /
    • 2006
  • URC(Ubiquitous Robotic Companion) 환경에서 소프트웨어 로봇은 인공지능 기술과 네트워크 기술을 활용하여 상황에 따라 사용자에게 맞는 맞춤형 서비스를 제공하는 지능형 에이전트 기술로 정의할 수 있다. 소프트웨어 로봇은 인터넷 상에 존재하는 가상의 로봇이며, 실물 로봇을 제어하기 위해서는 로봇 내부에 로봇의 태스크와 행위, 하드웨어 디바이스를 제어하기 위한 아키텍처가 필요하다. 본 고에서는 소프트웨어 로봇이 실물 로봇을 제어하기 위해서 필요한 로봇 내부의 소프트웨어 아키텍처의 요구사항과 시스템을 소개한다.

  • PDF

공개 소프트웨어 기반 로봇 학습시스템 개발 (Development of Robot-Learing System Based on Open Source Software)

  • 김대현;김창수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(D)
    • /
    • pp.41-43
    • /
    • 2011
  • 이 논문은 공개 소프트웨어 기반의 로봇 학습시스템을 구축하기 위해 필요한 교육용 로봇, 학습관리시스템, 로봇콘텐츠 저작도구, 로봇 에이전트의 기능을 정의하고 있다. 특히 공개SW 학습관리시스템의 기능을 비교분석하여 로봇과 연계할 시스템을 제안하고 있다. 공개SW 학습관리 시스템은 지니(GeNIE)와 무들을, 화상강의 시스템은 DimDim을 추천하고, 로봇 콘텐츠 저작도구는 OPRoS기반의 로봇 콘텐츠 시뮬레이터와 연계되는 형태를 권한다.