• 제목/요약/키워드: Prey agent

검색결과 14건 처리시간 0.042초

ACS & 방향벡터 알고리즘을 이용한 비 대화형 멀티에이전트 전략에 관한 연구 (A research on non-interactive multi agents by ACS & Direction vector algorithm)

  • 김현;윤석현;정태충
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권12호
    • /
    • pp.11-18
    • /
    • 2010
  • 본 논문에서는 비대화형 에이전트(독립에이전트)를 바탕으로 멀티 에이전트 연구의 대표적 실험 모델인 먹이추적문제(prey pursuit problem)의 해결에 대한 전략을 제안하고 있다. 먹이추적문제는 가상 격자로 이루어진 공간 내에서 4개의 멀티 에이전트가 1개의 먹이(목표)를 포획하는 실험이다. 이것은 오래전부터 대화형 에이전트, 비대화형 에이전트로 구분되어 연구 되어왔으며 우리는 비대화형 에이전트를 이용하여 문제의 새로운 해법을 찾고자 하였다. 그리고 기존의 제한된 환경과는 전혀 다른 순환구조형 격자 공간에서 ACS를 이용한 방향 벡터 알고리즘을 통해 비대화형 전략의 새로운 해법을 제안할 수 있었다. 에이전트들은 개미의 습성을 응용한 ACS를 이용하여 학습을 하고 목표인 먹이는 에이전트의 학습 속도를 증가시키는 환경변수를 이용하여 이동방향과 경로를 결정하게 된다. 이전에 제기되었던 에이전트간의 정보교환(대화형 에이전트)방식에서 벗어나 비 정보교환(비대화형 에이전트) 방식을 새롭게 적용하여 이를 해결할 수 있는 해법을 찾을 수 있었다는 것에 기존의 다른 멀티에이전트 연구와는 차별성이 있다.

Avoidance Behavior of Small Mobile Robots based on the Successive Q-Learning

  • Kim, Min-Soo
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.164.1-164
    • /
    • 2001
  • Q-learning is a recent reinforcement learning algorithm that does not need a modeling of environment and it is a suitable approach to learn behaviors for autonomous agents. But when it is applied to multi-agent learning with many I/O states, it is usually too complex and slow. To overcome this problem in the multi-agent learning system, we propose the successive Q-learning algorithm. Successive Q-learning algorithm divides state-action pairs, which agents can have, into several Q-functions, so it can reduce complexity and calculation amounts. This algorithm is suitable for multi-agent learning in a dynamically changing environment. The proposed successive Q-learning algorithm is applied to the prey-predator problem with the one-prey and two-predators, and its effectiveness is verified from the efficient avoidance ability of the prey agent.

  • PDF

강화학습을 이용한 다중 에이전트 제어 전략 (Multi-Agent Control Strategy using Reinforcement Leaning)

  • 이형일
    • 한국멀티미디어학회논문지
    • /
    • 제6권5호
    • /
    • pp.937-944
    • /
    • 2003
  • 다중 에이전트 시스템에서 가장 중요한 문제는 여러 에이전트가 서로 효율적인 협동(coordination)을 통해서 목표(goal)를 성취하는 것과 다른 에이전트들과의 충돌(collision) 을 방지하는 것이다. 본 논문에서는 먹이 추적 문제의 목표를 효율적으로 성취하기 위해 새로운 전략 방법을 제안한다. 제안된 제어 전략은 다중 에이전트를 제어하기 위해 강화 학습을 이용하였고, 에이전트들 간의 거리관계와 공간 관계를 고려하였다.

  • PDF

멀티에이전트 전략을 위한 방향벡터 함수 활용과 동적 환경에 적응하는 경로 추천시스템에 관한 연구 (The Application of Direction Vector Function for Multi Agents Strategy and The Route Recommendation System Research in A Dynamic Environment)

  • 김현;정태충
    • 전자공학회논문지CI
    • /
    • 제48권2호
    • /
    • pp.78-85
    • /
    • 2011
  • 본 논문에서는 운전자의 특성, 도로상황, 경로 추천을 담당하는 에이전트와 같은 동적환경정보(DEI:Dynamic Environment Information)를 반영하여 실시간으로 운전자에게 경로를 추천할 수 있는 시스템을 위해 멀티에이전트에 관한 연구를 수행하였다. DEI는 n개의 멀티 에이전트이며 운전자에게 최적화된 경로를 제공할 수 있는 경로추천시스템에 활용되는 환경변수이다. DEI가 반영되는 경로추천 시스템은 멀티 에이전트 연구의 새로운 연구 분야라 할 수 있겠다. 이를 위하여 멀티에이전트 연구의 대표적 실험 환경인 먹이추적문제를 이용하여 새로운 해법을 찾고자 하였다. 본 논문에서는 기존의 먹이추적 실험은 현실성이 결여된 멀티에이전트 연구였기에 기존의 실험환경과 달리 현실세계와 비슷한 실험환경을 제안을 하며 새로운 전략인 Ant-Q 학습을 적용한 알고리즘과 기존의 방향벡터를 활용한 전략과의 비교를 통해 새로운 환경에서의 성능의 향상을 입증할 수 있었다.

Univector Field Method based Multi-Agent Navigation for Pursuit Problem

  • Viet, Hoang Huu;An, Sang-Hyeok;Chung, Tae-Choong
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제12권1호
    • /
    • pp.86-93
    • /
    • 2012
  • This paper presents a new approach to solve the pursuit problem based on a univector field method. In our proposed method, a set of eight agents works together instantaneously to find suitable moving directions and follow the univector field to pursue and capture a prey agent by surrounding it from eight directions in an infinite grid-world. In addition, a set of strategies is proposed to make the pursuit problem more realistic in the real world environment. This is a general approach, and it can be extended for an environment that contains static or moving obstacles. Experimental results show that our proposed algorithm is effective for the pursuit problem.

급회전을 이용한 희생자의 추격 피하기 행동 분석 (Analysis of Behaviour of Prey to avoid Pursuit using Quick Rotation)

  • 이재문
    • 한국게임학회 논문지
    • /
    • 제13권6호
    • /
    • pp.27-34
    • /
    • 2013
  • 본 논문은 동물들의 집단행동에서 나타나는 포식자-희생자 관계에서 포식자에 대한 희생자의 추격회피 행동을 분석한다. 희생자가 포식자의 추격을 피하는 하나의 방법이 인접거리에서 급회전을 하는 것이다. 그때 희생자가 추격으로부터 살아남기 위해서는 임계거리와 회전각은 매우 중요하다. 여기서 임계거리는 회전 시작 직전 포식자와 희생자 사이의 거리이다. 이러한 임계거리와 회전각을 분석하기 위하여 본 논문은 추격의 시작에서 보유한 포식자의 에너지와 추격동안 소비한 포식자의 에너지를 이용한다. 시뮬레이션을 통하여, 임계거리가 짧을수록 희생자가 추격으로부터 살아남을 수 있는 회전각은 커진다는 것과 포식자의 질량에 대한 희생자의 질량의 비율이 작아지는 경우에도 역시 회전각 커진다는 것을 알 수 있었다. 시뮬레이션 결과는 자연에서 나타나는 현상과 유사하며, 따라서 이것은 본 논문에서 분석한 방법이 옳다는 것을 의미한다.

강화학습을 이용한 다중 에이전트 제어 전략 (Multagent Control Strategy Using Reinforcement Learning)

  • 이형일;김병천
    • 정보처리학회논문지B
    • /
    • 제10B권3호
    • /
    • pp.249-256
    • /
    • 2003
  • 다중 에이전트 시스템에서 가장 중요한 문제는 여러 에이전트가 서로 효율적인 협동(coordination)을 통해서 목표(goal)를 성취하는 것과 다른 에이전트들과의 충돌(collision) 을 방지하는 것이다. 본 논문에서는 먹이 추적 문제의 목표를 효율적으로 성취하기 위해 새로운 전략 방법을 제안한다. 제안된 제어 전략은 다중 에이전트를 제어하기 위해 강화 학습을 이용하였고, 에이전트들간의 거리관계와 공간 관계를 고려하였다.

Studies on the Biology and Predatory Behaviour of Eocanthecona furcellata (Wolff.) Predating on Spilarctia obliqua (Walk.) in Mulberry Plantation

  • Kumar, Vineet;Morrison, M.N.;Rajadurai, S.;Babu, A.M.;Thiagarajan, V.;Datta, R.K.
    • International Journal of Industrial Entomology and Biomaterials
    • /
    • 제2권2호
    • /
    • pp.173-180
    • /
    • 2001
  • The stink bug, Eocanthecona furcellata (Wolff.) is a natural and potential biocontrol agent of Spilarctia obliqua (Walk.). The present investigation reveals the biology, predatory efficiency and reproductive parameters of the predator which feeds on S. obliqua caterpillars in mulberry plantation. In order to find out the role of prey sine on the biology of the predators the predatory insects were separately fed with small and large caterpillars of S. obliqua. The incubation period of the eggs of E. furcellata was 8.37${\pm}$0.44 days, while the nymphal duration varied as per the prey sine. The predator when supplied with small larvae of prey, consumed 61.1 larvae and completed nymphal stage in 19.9 days; while those fed with larger prey, consumed 36.1 larvae and completed their nymphal stage in 21.55 days. The prey size also influences the reproductive parameters of the predator, The adult female predator is more voracious feeder than the adult male and consumed 41.9${\pm}$0.64 small larvae and 42.2${\pm}$0.87 large larvae during their life span. The longevity of male and female was observed as 20.7 and 29.4 days respectively. Visualization of the predator as well as the movement of the prey increases the predatory efficiency. Scanning electron microscopic studies on the feeding part explain its support in effective predation. Field observations indicated a drastic fall in the incidence of the mulberry pest, S. obliqua with the increased population E. furcellata in mulberry plantation.

  • PDF

강화 학습을 이용한 다중 에이전트 조정 전략 (Multi-agent Coordination Strategy Using Reinforcement Learning)

  • 김수현;김병천;윤병주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2000년도 추계학술발표논문집 (상)
    • /
    • pp.285-288
    • /
    • 2000
  • 본 논문에서는 다중 에이전트(multi-agent) 환경에서 에이전트들의 행동을 효율적으로 조정 (coordination)하기 위해 강화 학습(reinforcement learning)을 이용하였다. 제안된 방법은 각 에이전트가 목표(goal)와의 거리 관계(distance relationship)와 인접 에이전트들과의 공간 관계(spatial relationship)를 이용하였다. 그러므로 각 에이전트는 다른 에이전트와 충돌(collision) 현상이 발생하지 않으면서, 최적의 다음 상태를 선택할 수 있다. 또한, 상태 공간으로부터 입력되는 강화 값이 0과 1 사이의 값을 갖기 때문에 각 에이전트가 선택한 (상태, 행동) 쌍이 얼마나 좋은가를 나타낼 수 있다. 제안된 방법을 먹이 포획 문제(prey pursuit problem)에 적용한 결과 지역 제어(local control)나. 분산 제어(distributed control) 전략을 이용한 방법보다 여러 에이전트들의 행동을 효율적으로 조정할 수 있었으며, 매우 빠르게 먹이를 포획할 수 있음을 알 수 있었다.

  • PDF

방향 벡터를 이용한 다중에이전트 휴리스틱 (The multi agent control heuristic using direction vector)

  • 김현;이승관;정태충
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 추계학술발표논문집(상)
    • /
    • pp.525-528
    • /
    • 2004
  • 먹이추적문제(prey pursuit problem)는 가상 격자로 이루어진 공간 내에 다중의 에이전트를 이용하여 먹이를 포획하는 것이다. 에이전트들은 먹이를 포획하기 위해 $30{\times}30$으로 이루어진 격자공간 (gride)안에서 기존 제안된 지역 제어, 분산 제어, 강화학습을 이용한 분산 제어 전략들을 적용하여 먹이를 포획하는 전략을 구현하였다. 제한된 격자 공간은 현실세계를 표현하기에는 너무도 역부족이어서 본 논문에서는 제한된 격자공간이 아닌 현실 세계와 흡사한 무한 공간 환경을 표현하고자 하였다. 표현된 환경의 모델은 순환구조(circular)형 격자 공간이라는 새로운 실험 공간이며, 새로운 공간에 맞는 전략은 에이전트와 먹이와의 추적 관계를 방향 벡터를 고려한 모델로 구현하였다. 기존 실험과는 차별화 된 환경에서 에이전트들은 휴리스틱을 통한 학습을 할 수 있다는 가정과 먹이의 효율적 포획, 충돌문제 해결이라는 결과를 얻었다.

  • PDF