• 제목/요약/키워드: 선택 행동

검색결과 1,061건 처리시간 0.027초

Learning Classifier System을 이용한 행동 선택 네트워크의 학습 (Learning Action Selection ,Network Using Learning Classifier System)

  • 윤은경;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.404-406
    • /
    • 2003
  • 행동 기반 인공지능은 기본 행동들의 집합으로부터 적절한 행동을 선택함으로써 복잡한 행동을 하도록 하는 방식이다. 행동 기반 시스템은 1980년대에 시작되어 이제는 많은 에이전트 시스템에 사용되고 있다. 본 논문에서는 기존의 P. Maes가 제안한 행동 선택 네트워크에 Learning Classifier System을 이용한 학습 기능을 부가하여, 변하는 환경에 적절히 적응하여 행동의 시퀀스를 생성할 수 있는 방법을 제안하다. 행동 선택 네트워크는 주어진 문제에 따라 노드 간 연결을 설계자가 미리 설정하도록 하는데, 해결해야 할 문제가 변함에 따라 네트워크에서의 연결 형태가 변형될 필요가 있다. Khepera 로봇을 이용한 시뮬레이션 결과, 행동 선택 네트워크에서의 학습이 유용함을 확인할 수 있었다.

  • PDF

에이전트의 최적 행동 생성을 위한 행동선택 네트워크의 계획 기능 (Planning Capability of Action Selection Network for Generating Optimal Behaviors of Agent)

  • 민현정;김경중;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.473-475
    • /
    • 2003
  • 최근 빠른 시간에 행동을 표현할 수 있는 장점을 가진 반응형 시스템과 최적화된 시퀀스를 생성할 수 있는 계획에 기반만 시스템을 통합하기 위한 하이브리드 시스템의 연구가 활발히 진행되고 있다. 행동 네트워크 구조는 센서와 목적에 대한 외부연결과 행동들 사이의 내부연결을 통해 수동적으로 설계되지만. 자동적으로 행동을 생성할 수 있고 복잡한 문제에 적용할 수 있는 장점이 있다. 본 논문에서는 이동 에이전트의 행동을 생성하기 위한 최적화된 방법을 찾는 문제에 대해 이 행동 네트워크에 계획 기능을 부가함으로 행동 시퀀스를 최적화하는 방법을 제안한다. 행동 네트워크는 입력된 정보와 목적 정보를 가지고 다음에 수행할 행동을 선택하여 각 상황에 가장 높은 우선순위를 가지는 행동만을 선택한다. 이 행동 네트워크에서 선택된 모든 행동들을 몇 단계 앞서 수행시켜 가장 좋은 결과를 가져올 행동으로 다음의 행동을 선택하는 방법을 통하여 복잡하고 불확실한 환경에서 주어진 목표를 달성하기 위한 전체적인 최적 행동 시퀀스를 생성할 수 있다. Khepera 이동 로봇을 이용한 실험을 통해 제안한 행동 네트워크에 계획을 이용한 방법이 행동 네트워크 구조에서보다 더 적은 행동 시퀀스로 목적을 달성함을 알 수 있었다.

  • PDF

계층적 행동선택 네트워크를 이용한 일정추천 에이전트 (A Schedule Recommendation Agent using Hierarchical Behavior Selection Network)

  • 양견모;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(B)
    • /
    • pp.390-392
    • /
    • 2012
  • 인공비서 에이전트는 일정관리 및 추천을 할 때 일정이 비어 있는 시간을 계산하는 비교적 간단한 방식을 사용하는데, 보다 유용한 추천을 위해서는 사용자의 상황과 일정의 수행 조건을 고려하여야 한다. 본 논문에서는 환경의 변화에 유연하게 대응할 수 있는 행동선택 네트워크를 사용하는 일정추천 에이전트를 개발한다. Maes가 제안한 행동선택 네트워크를 현실적인 문제에 적용하는 데는 목적과 행동 노드의 개수가 크게 늘어나면 문제가 있다. 이를 해결하기 위해 행동선택 네트워크를 모듈화 하여 목적간의 충돌을 방지하고, 모듈화를 할 때 선행 행동 연결을 통한 모듈간의 사라진 연결을 보완하며, 목적들 간의 연관관계를 표현하기 위한 상위 행동선택 네트워크를 두는 계층적 행동선택 네트워크 방식을 제안한다. 제안하는 방법을 사용하여 몇가지 시나리오에 따른 일정추천 실험을 통하여 제안한 에이전트의 유용성을 확인하였다.

마비노기에서의 색 선택 행동 유형과 자아존중감과의 관계 (Examining the relationship between the types of color selecting behavior and self-esteem in Mabinogi, the on-line game)

  • 장유원;도영임
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 2부
    • /
    • pp.651-655
    • /
    • 2007
  • 카툰 렌더링 그래픽을 기반으로 한 온라인 RPG 게임인 마비노기에서는 게임이용자들이 염색 시스템을 통하여 의복아이템에 자신들이 원하는 색을 자유롭게 표현할 수 있다. 마비노기에서 색에 관련된 주목할 만한 현상은유행색이 존재하고 색에 따라 같은 아이템의 가격이 달라진다는 점이다. 유행색이 존재하는 것은 현실과 비슷하지만 같은 아이템이 색에 따라 가격이 달라지는 것은 현실에서는 보기 드물다. 이는 현실과 비슷하면서도 심리적인 속성이 다른 사이버공간만의 특징이라고 생각해 볼 수 있다. 따라서 마비노기에서 게임이용자들이 색을 선택하고 사용할 때 작용하는 심리기제가 존재할 것이라고 가정해 볼 수 있다. 이에 본 연구에서는 마비노기에서 색 선택 행동의 심리적 유형을 확인하고 유형별 특징을 알아보기 위해 자아존중감을 측정하였다. 예비 조사를 통해 게임이용자 20명과 온라인 인터뷰를 실시하여 색 사용 경험을 추출하고, 추출한 경험을 바탕으로 18문항의 색 선택 행동 문항을 구성하였다. 본 조사에서는 온라인 설문으로 129명의 게임이용자를 대상으로 색 선택 행동과 자아존중감을 측정하였다. 연구 결과 색 선택 행동은 4개의 요인-색채 둔감성, 유행추종, 개성표현, 캐릭터이미지와의 적합성-으로 구분되었다. 색선택 행동 4개의 하위 요인을 기준으로 군집분석한 결과 색 선택 행동 유형은 각각 색 분화형, 유행추종형, 색 둔감형으로 구분되었다. 색 선택 행동 유형과 자아존중감과의 관계에서는 자아존중감 하위 범주 중 부정적인 자기평가, 타인의 의견에 대한 걱정, 의존성의 세 가지 하위 범주에서 색 선택 행동 유형에 따른 차이가 유의미하게 나타났다. 한편 자의식 차원에서는 색 선택 행동 유형간 유의미한 차이가 발견되지 않았다. 유행추종형은 다른 두 유형에 비해 상대적으로 자아존중감 수준이 낮음을 확인할 수 있었다. 반대로 색 둔감형은 다른 두 유형에 비해 상대적으로 자아 존중감 수준이 높았다. 색 분화형은 유행추종형과 색 둔감형의 중간 수준의 자아존중감을 볼 수 있었다. 유행추종형은 자기의 외부에서, 색 둔감형은 자기의 내부에서 색과 관련된 자신에 대한 가치감의 소재와 근원을 찾는 특성이 있다고 해석할 수 있다. 본 연구는 온라인 RPG 게임에서 게임이용자들의 색 선택의 심리적 기제를 확인하고 색 선택 유형별로 자아존중감과의 관계를 확인함으로써 색 선택 행동의 심리적 기제를 밝히려는 기초연구라는 점에 의의가 있다. 추후에는 게임이용자들의 색 선택 행동을 보다 포괄적으로 이해하기 위해 게임이용자들이 가지고 있는 공통적인 색이미지와 개별적인 색이미지 및 색이미지의 심리적 구조를 알아보기 위한 색채감성연구가 필요할 것이다. 이러한 연구들은 게임을 제작할 때 캐릭터 디자인과 아이템 디자인에 어떠한 색을 사용해야 되는지 방향을 설정하는데 도움을 줄 수 있을 것이다.

  • PDF

자본시장심리지수와 금융투자자 휴리스틱에 관한 연구

  • 김석환;강형구
    • 한국벤처창업학회:학술대회논문집
    • /
    • 한국벤처창업학회 2020년도 추계학술대회
    • /
    • pp.179-184
    • /
    • 2020
  • 본 연구는 확장된 합리적 행동이론(ETRA)을 이용하여 주식투자 시 자본시장심리지수를 기반으로 한 어플리케이션의 선택행동에 영향을 끼치는 요인들과 투자자의 휴리스틱과의 관계를 알아보는데 있다. 연구자는 개별 투자자의 휴리스틱이 선택행동에 영향을 미칠 것으로 추정하고 대표성 휴리스틱, 가용성 휴리스틱, 감정 휴리스틱을 측정하여 선택행동에 영향을 미치는 매개변수로 분석을 하였다. 연구모델의 경로계수 분석결과는 다음과 같다. 첫째, 독립변수인 투자기회확장 그리고 매개변수인 휴리스틱 중 대표성 휴리스틱이 행동의도에 영향을 미치는 것으로 나타났다. 둘째, 행동의도가 종속변수인 선택행동에 영향을 미치고 매개변수인 가용성 휴리스틱이 선택행동에 영향을 미치는 것으로 나타났다. 연구모형에서 대표성 휴리스틱에 영향을 주는 독립변수는 혁신적 성향, 투자기회확장, 사용비용, 그리고 인지된 효익이며 반면에 가용성 휴리스틱에 영향을 주는 독립변수는 혁신적 성향과 투자기회확장으로 밝혀졌다. 매개효과 검증결과에 의하면 서비스다양성은 선택행동에 영향을 미치는데 휴리스틱의 매개효과가 없고 직접효과만 있는 것으로 밝혀졌다. 반면에 투자기회확장은 선택행동에 미치는 직접효과는 통계적으로 유의하지 않고 매개변수 휴리스틱의 간접효과 값이 0.217이고 통계적으로 유의하여 매개효과가 있는 것으로 밝혀졌다. 휴리스틱의 매개효과를 개별적으로 확인한 결과 첫째, 대표성 휴리스틱은 매개효과를 통한 간접효과가 없는 것으로 확인되었다. 둘째, 가용성 휴리스틱은 매개효과의 크기가 0.1360이고 경로계수가 통계적으로 유의하게 나타나 매개효과를 통한 간접효과가 있다는 것을 확인하였다. 따라서 독립변수 투자기회확장은 시장 심리지수를 기반으로 한 어플리케이션에 대한 선택행동에 영향을 미치는데 직접적으로 영향을 미치지 않고 투자자의 가용성 휴리스틱이 매개가 되어 간접적으로 선택행동에 영향을 나타내는 것을 실증적으로 확인하였다.

  • PDF

행동기반 AI를 이용한 슈팅게임 캐릭터의 적응형 행동생성 (Creating Adaptive Behaviors for Shooting Game Characters Behavior-based Artificial Intelligence)

  • 구자민;홍진혁;조성배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.89-92
    • /
    • 2004
  • 로보코드는 사용자가 직접 제작할 수 있는 슈팅게임 환경으로서, 이를 이용한 경진대회가 개최되고 있다. 매우 다양한 작전을 구사하는 로봇들이 인터넷을 통해 공개되지만, 대부분의 전략은 사람이 직접 설계하여 행동이 단순하고, 변화하는 환경에 따라 행동을 구사하는데에 어려움을 가지고 있다. 이로 인해 아무리 훌륭한 전략을 가지고 있더라도 환경적 요소에 따라 예상치 못한 이벤트가 발생했을 경우 적절한 행동을 선택하여 행하기가 어렵다. 본 논문에서는 동적인 환경에서 적절한 행동을 선택하는 행동선택 네트워크를 이용하여 상대 전략에 따라 적절한 행동을 선택하는 방법을 제안하고 로보코드에 적용하여 실험하였다. 실험결과, 상대 탱크의 전략에 따라 다양한 행동들을 자동으로 선택하였으며, 경기 결과로 그 전략의 우수성이 입증되었다.

  • PDF

Motivation-based Hierarchical Behavior Planning

  • 송웨이;조경은;엄기현
    • 한국게임학회 논문지
    • /
    • 제8권1호
    • /
    • pp.79-90
    • /
    • 2008
  • 본 논문에서는 동기 기반의 계층적 행동 계획 시스템을 제안한다. 가상 시뮬레이션 게임 환경에서 에이전트는 행동 계획 시스템을 통해 적합한 행동을 선택하게 된다. 행동 선택 시스템은 동기를 추출하고 목표를 선택하고 행동을 생성하고 최적화를 수행한다. 동기를 평가할 때 갑작스럽게 발생하거나 누적된 이벤트에 대해 계산한다. 동기를 선택할 때는 확률 분포를 사용하여 무작위로 선택한다. 계층적 목표 트리를 탐색한 후에 목표를 실행할 수 있다. 행동들을 비교한 후 가장 적합한 행동을 선택하게 된다. 선택을 할 때 안전도 값과 만족도 값을 비교하여 최적화된 행동을 선택한다. 본 연구에서 제안한 시스템을 식당경영 게임에 적용했다.

  • PDF

다중 에이전트 강화 학습을 위한 상태 공간 타일링과 확률적 행동 선택 (State Space Tiling and Probabilistic Action Selection for Multi-Agent Reinforcement Learning)

  • 권기덕;김인철
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2006년도 한국컴퓨터종합학술대회 논문집 Vol.33 No.1 (B)
    • /
    • pp.106-108
    • /
    • 2006
  • 강화 학습은 누적 보상 값을 최대화할 수 있는 행동 선택 전략을 학습하는 온라인 학습의 한 형태이다. 효과적인 강화학습을 위해 학습 에이전트가 매 순간 고민해야 하는 문제가 탐험(exploitation)과 탐색(exploration)의 문제이다. 경험과 학습이 충분치 않은 상태의 에이전트는 어느 정도의 보상 값을 보장하는 과거에 경험한 행동을 선택하느냐 아니면 보상 값을 예측할 수 없는 새로운 행동을 시도해봄으로써 학습의 폭을 넓힐 것이냐를 고민하게 된다. 특히 단일 에이전트에 비해 상태공간과 행동공간이 더욱 커지는 다중 에이전트 시스템의 경우, 효과적인 강화학습을 위해서는 상태 공간 축소방법과 더불어 탐색의 기회가 많은 행동 선택 전략이 마련되어야 한다. 본 논문에서는 로봇축구 Keepaway를 위한 효율적인 다중 에이전트 강화학습 방법을 설명한다. 이 방법의 특징은 상태 공간 축소를 위해 함수근사방법의 하나인 타일 코딩을 적용하였고, 다양한 행동 선택을 위해 룰렛 휠 선택 전략을 적용한 것이다. 본 논문에서는 이 방법의 효과를 입증하기 위한 실험결과를 소개한다.

  • PDF

퍼지-뉴로를 이용한 화주의 항만선택 행동 분석 (An Analysis on an Action about Port Choice of Shipper using Fuzzy-Neural Network)

  • 장운재;금종수
    • 한국항해항만학회지
    • /
    • 제31권8호
    • /
    • pp.725-731
    • /
    • 2007
  • 본 연구의 목적은 인접한 2항만 간 화주의 항만선택에 관한 행동을 분석하기 위한 것이다. 이를 위해 본 연구에서는 퍼지추론법과 뉴럴네트웍 모델을 이용하여 항만선택 행동모델, 즉 퍼지-뉴로 행동모델을 구축하고 부산항과 광양항을 대상으로 화주의 항만선택 행동을 분석하였다. 또한 로짓모델과 비교하여 퍼지-뉴로 모델의 판별 우수성을 검정하였고, 서비스 수준과 화물량 등의 파라미터를 변경한 항만선택 행동을 분석하였다.

동적 환경에서의 적응을 위한 로봇 에이전트 제어: 조건별 개체 유지를 이용한 LCS기반 행동 선택 네트워크 학습 (Robot agent control for the adaptation to dynamic environment : Learning behavior network based on LCS with keeping population by conditions)

  • 박문희;박한샘;조성배
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.335-338
    • /
    • 2005
  • 로봇 에이전트는 변화하는 환경에서 센서정보를 바탕으로 적절한 행동을 선택하며 동작하는 것이 중요하다. 행동 선택 네트워크는 이러한 환경에서 변화하는 센서정보에 따라 실시간으로 행동을 선택할 수 있다는 점에서, 장시간에 걸친 최적화보다 단시간 내 개선된 효율성에 초점을 맞추어 사용되어 왔다. 하지만 행동 선택 네트워크는 초기 문제에 의존적으로 설계되어 변화하는 환경에 유연하게 대처하지 못한다는 맹점을 가지고 있다. 본 논문에서는 행동 선택 네트워크의 연결을 LCS를 기반으로 진화 학습시켰다. LCS는 유전자 알고리즘을 통해 만들어진 규칙들을 강화학습을 통해 평가하며, 이를 통해 변화하는 환경에 적합한 규칙을 생성한다. 제안하는 모델에서는 LCS의 규칙이 센서정보를 포함한다. 진화가 진행되는 도중 이 규칙들이 모든 센서 정보를 포함하지 못하기 때문에 현재의 센서 정보를 반영하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이를 해결하기 위해 센서정보 별로 개체를 따로 유지하는 방법을 제안한다. 제안하는 방법의 검증을 위해 Webots 시뮬레이터에서 케페라 로봇을 이용해 실험을 하여, 변화하는 환경에서 로봇 에이전트가 학습을 통해 올바른 행동을 선택함을 보였고, 일반LCS를 사용한 것보다 조건별 개체 유지를 통해 더 나은 결과를 보이는 것 또한 확인하였다.

  • PDF