• 제목/요약/키워드: 최적행동

검색결과 214건 처리시간 0.031초

생체모방 알고리즘 기반 통신 네트워크 기술

  • 최현호;이정륜
    • 정보와 통신
    • /
    • 제29권4호
    • /
    • pp.62-71
    • /
    • 2012
  • 수십 억년 동안 진화를 거듭해온 지구상의 생명체들은 외부의 제어 없이 독자적으로 단순한 행동 규칙에 따라 기능을 수행하여 주어진 목적의 최적해를 달성한다. 이러한 다양한 생명체의 행동 원리를 모델링하여 만든 알고리즘을 생체모방 알고리즘(Bio-Inspired Algorithm)이라 한다. 생체모방 알고리즘은 다수의 개체가 존재하며, 주변 환경이 동적으로 변하고, 가용 자원의 제약이 주어지며, 이질적인 특성을 갖는 개체들이 분잔 및 자율적으로 움직이는 환경에서 안정성, 확장성, 적응성과 같은 특징을 보여주는데, 이는 통신 네트워크 환경 및 서비스 요구사항과 유사성을 갖는다. 본 논문에서는 대표적인 생체모방 알고리즘으로 통신 및 네트워킹 기술로 사용되는 Ant Colony 알고리즘, Bee 알고리즘, Firefly 알고리즘, Flocking 알고리즘에 대해 살펴보고, 관련 프로젝트 및 연구 동향을 정리한다. 이를 통해 현재의 생체모방 알고리즘의 한계를 극복하고 미래 통신 및 네트워킹 기술이 나아갈 방향을 제시한다.

능동적 행동 패턴 분석 알고리즘을 이용한 홈 네트워크 제어 시스템 구축에 관한 연구 (A Study on the Design of Home Network Controlling System using Active Action Pattern Analysis Algorithm)

  • 성경상;오해석
    • 한국컴퓨터정보학회지
    • /
    • 제15권1호
    • /
    • pp.125-129
    • /
    • 2007
  • 지능형 홈 네트워크 서비스의 일반적 보급화로 사용자의 필요와 욕구에 밀착한 개인화 서비스를 위한 사용자의 프로파일 및 다양한 상태 정보, 센서 및 기타 환경정보를 통한 동적 상황인지가 가능토록 하는 상황인지(context-aware) 서비스에 대한 필요성이 증대되고 있다. 사용자 행위 학습에 따른 지능적 자동 제어 시스템 구축에서 먼저 고려해야 할 사항은 사용자 행위 학습에 따른 지능적 자동 제어에 대한 기준을 마련하는 것이다. 홈 네트워크 내의 정보가전기기들 환경에 대한 정보를 지속적으로 수집하고 학습 알고리즘을 통하여 분석하며, 분석되어진 정보를 바탕으로 사용자의 성향을 파악하는 것을 주요인으로 간주해야 할 것이다. 이에 따라 본 논문에서는 사용자 능동적 행위에 따른 지능형 홈 제어 시스템을 제안하였다. 또한 지속적인 모니터링을 통하여 사용자의 성향이 파악되면 상황에 따른 최적의 환경을 제공할 수 있도록 홈 네트워크 제어 시스템을 구축하는 것으로 목적으로 하였다. 사용자의 행동 패턴을 분석하고 이를 기반으로 지능적인 서비스를 제공함으로써 사용자 중심의 능동적 서비스 효과들을 얻을 수 있을 것으로 기대한다.

  • PDF

루테늄-쿠페론의 전기화학적 행동 및 응용 (Electrochemical behavior and Application of Ruthenium-Cupferron Complex)

  • 권영순;박소영
    • 분석과학
    • /
    • 제17권6호
    • /
    • pp.464-469
    • /
    • 2004
  • 순환 전압전류법을 이용하여, 1 mM 인산염 완충용액에서 루테늄-쿠페론 착물의 전기화학적 행동을 살펴보았다. 루테늄 정량의 최적 조건은 1 mM 인산염 완충용액 (pH 6.0), 0.1 mM 쿠페론의 용액에서 주사속도는 100 mV/s 이었다. 이 조건에서 농도 변화에 따른 선형 주사 전압곡선의 환원 봉우리 전류변화를 이용하여 얻은 루테늄의 검출 한계 ($3{\sigma}$)는 $1.2{\times}10^{-7}M$ 이다.

Atari Deep Q Network Model을 이용한 장애물 회피에 특화된 실내 자율주행 적용에 관한 연구 (A Study about Application of Indoor Autonomous Driving for Obstacle Avoidance Using Atari Deep Q Network Model)

  • 백지훈;오현택;이승진;김상훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.715-718
    • /
    • 2018
  • 최근 다층의 인공신경망 모델이 수많은 분야에 대한 해결 방안으로 제시되고 있으며 2015년 Mnih이 고안한 DQN(Deep Q Network)는 Atari game에서 인간 수준의 성능을 보여주며 많은 이들에게 놀라움을 자아냈다. 본 논문에서는 Atari DQN Model을 실내 자율주행 모바일 로봇에 적용하여 신경망 모델이 최단 경로를 추종하며 장애물 회피를 위한 행동을 학습시키기 위해 로봇이 가지는 상태 정보들을 84*84 Mat로 가공하였고 15가지의 행동을 정의하였다. 또한 Virtual world에서 신경망 모델이 실제와 유사한 현재 상태를 입력받아 가장 최적의 정책을 학습하고 Real World에 적용하는 방법을 연구하였다.

HMA(Hierarchical Multi Agent)방법을 이용한 배전계통 운영 시스템 (HMA(Hierarchical Multi Agent) for Operation of Distribution Power System)

  • 김동현;곽정원;이상성;이송근;윤용태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2007년도 제38회 하계학술대회
    • /
    • pp.503-504
    • /
    • 2007
  • 배전 계통은 기본적으로 방사상 구조를 가지고 있지만 향후 분산 전원의 출현 등으로 계통 운영의 복잡성이 증대될 것이다. 따라서 계통의 재구성이나 복구와 관련된 운영 전반에 관한 판단의 정확성과 신속성을 요구하게 된다. 본 논문에서는 HMA(Hierarchical Multi Agent) 방법을 이용하여 배전 계통의 운영에 활용해 보았다. HMA 방법은 서로 다른 행동 특성을 가진 Agent들이 자신의 역할을 수행하면서 전체적인 최적해를 찾을 수 있고 적은 정보를 이용하기 때문에 사고에 대처하는 속도가 빨라질 것으로 예상된다. 본 논문에서는 배전 계통에 맞는 HMA 모델과 각 Agent들의 행동 원칙을 제안하고 활용 방안을 제시하였다.

  • PDF

SNS 여론과 주가지수의 상관관계 분석 (Correlation Analysis Between Online Public Opinion and Stock Price)

  • 김현지;오성주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.394-395
    • /
    • 2023
  • "이성적이며 이상적인 합리적 인간"을 가정하는 기존 경제학의 이론이 항상 실제 상황과 일치하지는 않는 것으로 알려져 있다. 이의 대안으로 나온 행동경제학은, 인간의 경제적 의사결정에 심리, 인지, 감정, 사회문화적 배경 등이 영향을 미친다고 본다. 본 연구에서는 행동경제학에 의거하여, 개인의 감정과 경험이 경제적 의사결정에 영향을 미치는지 여부를 빅데이터 모델을 활용하여 분석하였다. SNS 여론으로는 Reddit, 주가지수로는 S&P 500 을 선정하였다. 수집한 텍스트 데이터를 전처리와 감정분석을 통해 독립변수 값으로 사용했고, 주가지수 등락의 방향성을 종속변수로 사용하여 로지스틱 모형을 구성했다. 모델을 활용하여 분석한 결과 Public sentiment 와 Market sentiment 간 양의 상관관계를 확인할 수 있었다. 또한, lag 를 설정하는 모델이 정확도가 더욱 높음을 확인해, 기존 경제학의 EMH 와 대립되는 바를 확인할 수 있었다. 하지만 최적의 lag 산정을 위해, 더 광범위한 데이터를 바탕으로 한 후속연구가 필요하다.

영향력 분포도를 이용한 Q-학습 (Q-learning Using Influence Map)

  • 성연식;조경은
    • 한국멀티미디어학회논문지
    • /
    • 제9권5호
    • /
    • pp.649-657
    • /
    • 2006
  • 강화학습이란 환경에 대한 정보가 주어지지 않았을 때 현재의 상태에서 가능한 행동들을 취한 후 얻어지는 보상값이 가장 큰 행동을 최적의 행동 전략으로 학습하는 것이다. 강화학습에서 가장 많이 사용하는 Q-학습은 환경의 특정 상태에서 가능한 행동 중에 하나를 선택해서 취한 행동으로 얻어지는 보상값으로 구성되는데 실세계 상태를 이산값으로 표현하기에는 많은 어려움이 있다. 상태를 많이 정의하면 그만큼 학습에 필요한 시간이 많아지게 되고 반대로 상태 공간을 줄이면 다양한 환경상태를 한 개의 환경상태로 인지를 하고 그 환경에 맞는 한 가지의 행동만 취하도록 학습하기 때문에 행동이 단순해진다. 본 논문에서는 학습 시간을 단축하기 위해 상태 공간을 줄이는 데서 발생하는 행동의 단순화의 단점을 보완하기 위한 방법으로 영향력 분포도를 이용한 Q-학습 방법을 제안한다. 즉, 영향력 분포도와 인접한 학습 결과를 이용해서 학습하지 못한 중간 상태에 적합한 행동을 취하게 하여 동일한 상태 개수에 대해서 학습 시간을 단축하는 것이다. 동일한 학습 시간 동안에 일반적인 강화학습 방법으로 학습한 에이전트와 영향력 분포도와 강화학습을 이용해서 학습한 에이전트의 성능을 비교해 보았을 때 영향력 분포도와 강화학습을 이용해서 학습한 에이전트가 단지 일반적인 강화학습에 필요한 상태공간의 4.6%만 정의를 하고도 성능 면에서는 거의 비슷한 효과를 볼 수가 있음을 확인하였다. 이는 영향력 분포도와 강화학습을 이용한 학습이 일반적인 강화학습에 비해서 학습 속도가 2.77배정도 빨리 이루어지고 실제 학습해야 할 상태 공간의 개수가 적어져서 발생되는 문제를 영향력 분포도를 이용해서 보완을 하기 때문이다.

  • PDF

규칙 구성자와 연결 구성자를 이용한 혼합형 행동 진화 모델 (Hybrid Behavior Evolution Model Using Rule and Link Descriptors)

  • 박사준
    • 지능정보연구
    • /
    • 제12권3호
    • /
    • pp.67-82
    • /
    • 2006
  • 가상 로봇의 행동 진화를 위해서 규칙 구성자와 연결 구성자를 구성하여 분류 규칙과 진화 신경망을 형성하는 혼합형 행동 진화 모델(Hybrid Behavior Evolution Model)을 제안한다. 본 모델에서는 행동 지식을 두 수준에서 표현하였다. 상위 수준에서는 규칙 구성자와 연결 구성자를 구성하여 표현력을 향상시켰다. 하위 수준에서는 행동 지식을 비트 스트링 형태의 염색체로 표현하여, 이들 염색체를 대상으로 유전자 연산을 적용하여 학습을 수행시켰다. 적합도가 최적인 염색체를 추출하여 가상 로봇을 구성하였다. 구성된 가상 로봇은 주변 상황을 인식하여 입력 정보와 규칙 정보를 이용하여 패턴을 분류하였고, 그 결과를 신경망에서 처리하여 행동하였다. 제안된 모델을 평가하기 위해서 HBES(Hybrid Behavior Evolution System)를 개발하여 가상 로봇의 먹이 수집 문제에 적용하였다. 제안한 시스템을 실험한 결과, 동일한 조건의 진화 신경망보다 학습 시간이 적게 소요되었다. 그리고, 규칙이 적합도 향상에 주는 영향을 평가하기 위해서, 학습이 완료된 염색체들에 대해서 규칙을 적용한 것과, 그렇지 않은 것을 각각 수행하여 적합도를 측정하였다. 그 결과, 규칙을 적용하지 않으면 적합도가 저하되는 것을 확인하였다. 제안된 모델은 가상 로봇의 행동 진화에 있어서 기존의 진화 신경망 방식 보다 학습 성능이 우수하고 규칙적인 행동을 수행하는 것을 확인하였다.

  • PDF

상대캐릭터의 행동패턴에 적응하는 지능캐릭터의 구현 (Implementation of Intelligent Characters adapting to Action Patterns of Opponent Characters)

  • 이면섭;조병헌;정성훈;성영락;오하령
    • 대한전자공학회논문지TE
    • /
    • 제42권3호
    • /
    • pp.31-38
    • /
    • 2005
  • 본 논문에서는 유전자 알고리즘을 이용하여 특정 행동 패턴을 보이는 상대 캐릭터에 적절히 적응할 수 있는 대전 액션 게임용 지능캐릭터의 구현 방법을 제안한다. 이를 위하여 현재 행동과 단계뿐 만 아니라 과거행동까지 고려하여 학습한다. 제안한 방법이 얼마나 효과가 있는지 알아보기 위하여 현재의 행동과 단계만을 적용한 실험(실험-1)과 과거 행동을 추가한 행동패턴을 적용한 실험(실험-2) 결과를 비교 분석하였다. 실험 평가는 두 캐릭터가 획득한 점수를 측정하여 그 비로써 평가하였다. 실험 결과 초기에는 실험-1에서 높은 점수비로 시작하지만 일정 세대 이후부터는 실험-2의 점수비가 좋아지며, 실험-2에서는 모두 최적해를 찾을 수 있었다. 또한 실험-2에서 지능 캐릭터는 행동이 완료되는 시점에서 최대의 점수를 얻기 위해 이동(전진,후진)이나 시간 지연 동작을 하여 스스로 진화하면서 게임 규칙을 학습함을 보았다.

휴리스틱 탐색기법을 이용한 로봇축구 에이전트 (Robot soccer control that use Heuristic)

  • 장형순;이승관;정태충
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2005년도 추계학술대회 학술발표 논문집 제15권 제2호
    • /
    • pp.436-439
    • /
    • 2005
  • 로봇축구는 과거의 단순한 수비시스템 벗어나 지능적 공격시스템으로 점차 변하기 시작했다. 본 논문에서는 휴리스틱 탐색기법인 최고우선탐색기법을 사용하여 공격로봇의 경험을 통해 로봇 움직임의 최적해를 찾아내고, 각 로봇간의 동기화로 인한 전술변화에 대해 설명하고 있다. 로봇이 공격과정에서 수비하는 로봇을 피해 다른 로봇에게 공을 전달하고 그 로봇이 상황에 따라 공격과 수비의 변화를 주는 방식이다. 이 알고리즘을 적용하여 최적의 로봇축구에이전트 시스템의 행동상황을 추출하고, 시뮬레이션을 통해 그 전략의 유용성을 확인한다.

  • PDF