• Title/Summary/Keyword: 멀티-에이전트

Search Result 587, Processing Time 0.027 seconds

Interoperable Model of Multi-Agent Using the Metadata of Naming-Agent (네이밍 에이전트의 메타데이터를 이용한 멀티 에이전트 시스템의 상호협력 모델)

  • Kim, Kwang-Myung;Ko, Hyun;Lee, Yeon-Sik
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10e
    • /
    • pp.328-330
    • /
    • 2002
  • 존의 멀티 에이전트 모델에서는 이동 에이전트의 노드 이주 시 정보 검색의 적중률에 따라 우선 순위를 부여하여 정보 검색의 효율성을 높일 수 있는 방안이 요구된다. 따라서 본 논문에서는 이를 위하여 이동, 푸쉬 및 모니터링 에이전트 시스템을 등록하고 네이밍 서비스의 연결을 통해 이동 및 분산 객체의 투명성을 제공하는 네이밍 에이전트 시스템과 이동 에이전트의 효율적인 노드 이주를 지원하여 멀티 에이전트 시스템의 정보 수집 능력을 향상시키기 위한 메타데이터 구조를 정의하고, 이들을 이용한 멀티에이전트 시스템 내의 각각의 에이전트들간의 상호 협력 모델을 제시한다. 제안한 상호협력 모델은 분산 환경의 통합된 정보 서비스를 제공하고 정보 검색의 질을 향상시킨다.

  • PDF

Design of Communication Manager for effective cooperative work supporting between mobile agents (모빌 에이전트간의 효과적인 공동작업 지원을 위한 통신관리자 설계)

  • 이대규;이승근;왕창종
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.230-232
    • /
    • 2000
  • 에이전트간의 통신 방법에는 에이전트간 직접 통신을 하는 직접 통신 방법과 다른 매개체를 이용하여 통신하는 간접 통신 방법이 있다. 기존 연구에서의 직접 통신 방식은 에이전트의 위치를 계속하여 추적하고 관리하는 방식으로 동기 통신을 지원하고, 간접 통신 방법은 매개체를 두어서 그를 통한 비동기 통신방법을 지원한다. 하지만, 직접 통신의 경우, 에이전트의 추적과 관리에 따라 오버헤드와 공동 작업에 필요한 멀티캐스팅을 지원하기 어려운 문제점이 있어 이동 에이전트에는 부적합한 통신방법이고, 간접통신의 경우 동기적 상호작용을 지원하기 어렵다. 따라서 본 논문에서는 기존의 간접 통신방법을 확장하여, 멀티캐스팅 기능과 동기 통신 방식을 지원하는 에이전트간의 통신 관리자를 설계한다. 이를 위해서 에이전트의 이벤트 리스너를 통신관리자에 등록을 시켜서 이벤트가 발생할 때마다 해당되는 에이전트에게 전달되도록 하였다. 또한 통신 관리자가 멀티캐스팅 기능을 지원하도록 하였다. 이렇게 함으로써, 공동 작업에서 필요한 신뢰성 있는 동기 통신 방식과 멀티캐스팅 기능을 지원함으로써 이동 에이전트 기반 CSCW 응용개발에 사용할 수 있다.

  • PDF

Multi-Agent Coordination by Hierarchical Workflow (계층적 작업흐름에 의한 멀티 에이전트 조정)

  • 박정훈;안세용;최중민
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.120-122
    • /
    • 1998
  • 최근의 에이전트 시스템 연구는 간단한 작업을 처리하는 단일 에이전트들이 모여 하나의 서비스를 제공하는 멀티 에이전트 시스템 분야에서 활발히 이루어지고 있다. 이러한 멀티 에이전트 시스템에서는 요구된 서비스를 구성원들이 효율적으로 협동하여 제공하기 위해 이들을 통합하고 실행순서 등을 조정하는 것이 중요하다. 본 논문에서는 계획, 그룹, 작업의 세가지 단계로 구분되는 규칙과 ECA 규칙을 사용하여 계층적 작업흐름을 정의하고 이를 통하여 에이전트들을 조정하는 방법을 제안한다. 계층적 작업흐름의 사용으로 기존의 방법과 달리 에이전트를 계층화하여 새로운 서비스를 구성할 경우 세부적인 수행사항에 대한 언급없이 상위 단계의 계획 규칙만을 지정하여 구성할 수 있는 장점이 있다.

  • PDF

Tour Scheduling Agent System Using Service Coordination and Message Exchange Technique (서비스 조정과 메시지 교환 기법을 이용한 투어 스케줄링 에이전트 시스템)

  • Lee, Tae-Kyung;Beck, Sung-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.05a
    • /
    • pp.7-10
    • /
    • 2008
  • 본 논문은 멀티에이전트 환경에서 에이전트간의 지식 이종성과 통신 가능성 분산 제어의 방법에 중점을 두고 협동을 위한 정보를 KQML을 통하여 메시지를 전달한다. 항공사, 숙박업소, 설명 정보를 제공하는 에이전트들로 구성하여 조정 에이전트로 하여금 다른 에이전트가 필요한 정보를 주는 투어 스케줄링 에이전트 시스템을 구현하여 여행 준비자들이 자유 투어 스케줄링을 계획하는데 필요한 정보를 제공하는 것을 목적으로 한다.

An Agent-Based System Integration and Automation Framework (에이전트 기반 시스템 통합 및 자동화 방안)

  • 이재호;이기훈
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2002.11a
    • /
    • pp.385-391
    • /
    • 2002
  • 하나의 에이전트로 해결하기 어려운 복잡한 문제를 해결하기 위한 방안으로 여러 에이전트들간의 상호작용과 협동을 통하여 작업이 수행되는 멀티에이전트 시스템을 구현하는 것이 점차 보편화되고 있다. 멀티에이전트 시스템의 중요한 특징 중의 하나는 여러 에이전트들 간의 능력과 정보가 서로 공유된다는 점이다. 멀티에이전트 시스템에서는 한 에이전트의 처리 견과론 다른 에이전트가 이용할 수도 있으며, 그 결과 또한 다시 다른 에이전트에게 제공되기도 한다. 그러나 각각의 에이전트들은 서로 다른 환경 하에서 구축된 이형질성과 원격지에서 작동하는 분산성으로 인해 하나의 시스템으로 통합하기가 용이하지 않다. 이를 해결하기 위한 방법의 하나로 이형질의 에이전트들 간에 정보 교환을 위한 파일랩퍼 (File Wrapper) 이용 방안이 있다. 한 에이전트의 처리 결과가 파일이라는 일반적인 형태로 존재한다고 할 때, 이러한 파일내의 정보를 추출하고 조합 및 가공하는 기능을 담당하는 것을 파일랩퍼(File Wrapper)라고 한다. 본 연구에서는 Java와 JavaCC를 이용하여 에이전트 스크립트 언어로 새롭게 구현된 파일랩퍼를 소개한다. 이 파일랩퍼는 파일에서 정보를 추출하기 위한 명령어들과 출력에 관련한 명령어들 그리고 작업의 효율성을 위한 명령어들로 구성된 텍스트 기반 언어로 구성되어 있다.

  • PDF

Simulation of MultiAgent-based Emergency Medical System Using ARENA (ARENA를 이용한 멀티 에이전트 기반 응급 의료 시스템 시뮬레이션)

  • Noh, Seon-Taek;Yi, Keun-Sang;Choi, Young-Keun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10b
    • /
    • pp.408-413
    • /
    • 2007
  • 최근 인구와 기계문명의 발달로 예전에 비해 좀더 복잡한 응급 사고가 발생하고 있다. 현재 응급 구조 시스템은 타인에 의한 신고나 정적인 웹페이지로 수집된 정보를 통해 당시 상황에 맞춰 응급 체계를 수립하고 있다. 이는 비전문 의료인인 구급대원의 현장 판단과 의료기관으로의 부적절한 판단으로 인해 응급 환자의 적절한 치료의 가능성을 낮추는 요인이 될 수 있다. 따라서 선행연구로써 기존의 응급 의료 시스템에 멀티 에이전트 개념을 도입하여 멀티 에이전트 기반의 응급 의료 시스템(MAEMS)을 모델링하였다. 멀티 에이전트 시스템은 독립적인 성격과 자율적인 성격으로 않은 부분에 응용되어 설계되고 있다. 특히 에이전트의 독립적인 성격은 이질적인 환경에서 동일한 목적의 행위를 수행할 수 있으며, 동적으로 많은 변화가 있는 상황에서 자율적으로 판단하여 행동할 수 있다. 본 논문에서는 MAEMS에 구성되어 있는 각 에이전트를 구현하며, ARENA를 통해 시뮬레이션함으로써 실제 통계자료와 비교하여 멀티 에이전트를 도입한 응급 의료 시스템의 효율성에 대해 연구한다.

  • PDF

A Study on Logic-based Negotiation Mechanism for Conflict Resolution in BDI Agents (BDI 에이전트 구조에서 충돌 해결을 위한 논리기반 협상 기법의 연구)

  • 이명진;김진상
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.10 no.6
    • /
    • pp.548-556
    • /
    • 2000
  • 멀티에이전트 시스템(MAS: Multi-Agent System)에서 에이전트는 각자의 목표 달성을 위해 주위 에이전트들과의 상호작용을 통해 목표의 충돌이 없는 일치 상황에 도달하도록 설계되어야 한다. 멀티에이전트 시스템에서 에이전트들 사이의 목표 충돌은 일반적으로 발생 가능한 상황이고, 어떤 에이전트가 다른 에이전트에 관한 모든 지식을 가진다는 것은 불가능하기 때문에 상대방에 관한 부분적인 지식만을 가진 상황에서 목표 충돌을 해결할 수 있는 협상은 중요하다. 본 논문은 멀티에이전트 시스템에서 믿음(Belief), 소망(Desire); 그리고 의도(Intention)을 에이전트 구조의 핵심 요소로 가정하고 이러한 구조를 가지는 BDI 에이전트를 논리 프로그래밍의 입장에서 표현한다. 또한 서로 다른 목표를 가진 BDI 에이전트들이 서로 협상하여 문제를 해결하는 과정에서 발생하는 에이전트들 상호간의 목표 충돌을 해결하는 방법을 제시하며, 이 방법의 효과성을 검증하기 위하여 JAVA와 PROLOG를 결합시킨 InterPROLOG 프로그래밍 언어로 구현하여 시험한다.

  • PDF

Design of Mobile Agent System based on XML Digital Signature (XML 전자 서명에 기반한 이동 에이전트 시스템 설계)

  • 김만수;김환조;정목동
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05d
    • /
    • pp.1121-1126
    • /
    • 2002
  • Pmart(Pukyong-mart)는 지능형 멀티 에이전트에 바탕을 두고 가격, 상품의 특성, 보장 기간, 서비스 정책 등에 대해서 협상을 벌이는 에이전트 중재에 의한 전자상거래 프레임워크이다. Pmart는 협상 알고리즘, 에이전트 시스템, 웹 서버로 구성되어 판매자 및 구매자 모두 만족할만한 성공적인 거래를 제공하지만 단일 시스템 내에서의 Pmart 서비스는 다양한 거래자를 선택할 수 없다. 본 논문에서는 이러한 Pmart의 단점을 보완한 분산 Pmart 시스템을 제안하고, 이를 위하여 이동 에이전트의 보안 및 전자지불 기능이 추가된 확장 Pmart를 설계한다. 또한 분산된 Pmart 구성에 필요한 XML과 전자서명에 기반한 안전한 이동 에이전트 시스템을 제안한다.

  • PDF

Developing artificial football agents based upon multi-agent techniques in the AI world cup (AI World Cup 환경을 이용한 멀티 에이전트 기반 지능형 가상 축구 에이전트 구현)

  • Lee, Eunhoo;Seong, Hyeon-ah;Jung, Minji;Lee, Hye-in;Joung, Jinoo;Lee, Eui Chul;Lee, Jee Hang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.819-822
    • /
    • 2021
  • AI World Cup 환경은 다수 가상 에이전트들이 팀을 이뤄서 서로 상호작용하며 대전이 가능한 가상 축구 환경이다. 본 논문에서는 AI World Cup 환경에서 멀티 에이전트기반 학습/추론 기술을 사용하여 다양한 전략과 전술을 구사하는 가상 축구 에이전트 구현과 시뮬레이션 결과를 소개한다. 먼저, 역할을 바탕으로 협동하여 상대방과 대전할 수 있는 논리 기반 추론형 멀티 에이전트 기술이 적용된 Dynamic planning 축구 에이전트 9 세트를 구현하였다. 이후, 강화학습 에이전트 기반, 단일 에이전트를 조합한 Independent Q-Learning 방식의 학습형 축구 에이전트를 구현한 후, 이를 멀티 에이전트 강화학습으로 확장하여 역할 기반 전략 학습이 가능한 가상 축구 에이전트를 구현하고 시뮬레이션 하였다. 구현된 가상 축구 에이전트들 간 대전을 통해 승률을 확인하고, 전략의 우수성을 분석하였다. 시뮬레이션 예제는 다음에서 확인할 수 있다 (https://github.com/I-hate-Soccer/Simulation).

Policy Modeling for Efficient Reinforcement Learning in Adversarial Multi-Agent Environments (적대적 멀티 에이전트 환경에서 효율적인 강화 학습을 위한 정책 모델링)

  • Kwon, Ki-Duk;Kim, In-Cheol
    • Journal of KIISE:Software and Applications
    • /
    • v.35 no.3
    • /
    • pp.179-188
    • /
    • 2008
  • An important issue in multiagent reinforcement learning is how an agent should team its optimal policy through trial-and-error interactions in a dynamic environment where there exist other agents able to influence its own performance. Most previous works for multiagent reinforcement teaming tend to apply single-agent reinforcement learning techniques without any extensions or are based upon some unrealistic assumptions even though they build and use explicit models of other agents. In this paper, basic concepts that constitute the common foundation of multiagent reinforcement learning techniques are first formulated, and then, based on these concepts, previous works are compared in terms of characteristics and limitations. After that, a policy model of the opponent agent and a new multiagent reinforcement learning method using this model are introduced. Unlike previous works, the proposed multiagent reinforcement learning method utilize a policy model instead of the Q function model of the opponent agent. Moreover, this learning method can improve learning efficiency by using a simpler one than other richer but time-consuming policy models such as Finite State Machines(FSM) and Markov chains. In this paper. the Cat and Mouse game is introduced as an adversarial multiagent environment. And effectiveness of the proposed multiagent reinforcement learning method is analyzed through experiments using this game as testbed.