• Title/Summary/Keyword: 최적행동

Search Result 214, Processing Time 0.029 seconds

PRELIMINARY STUDY FOR ADHD TREATMENT GUIDELINE (ADHD 최적치료 지침을 위한 예비연구)

  • Kim, Eun-Young;Ra, Chul;Lee, Young-Sik
    • Journal of the Korean Academy of Child and Adolescent Psychiatry
    • /
    • v.13 no.1
    • /
    • pp.129-138
    • /
    • 2002
  • Objectives:In order to treatment guideline of ADHD, present clinical practise of child psychiatrists and their opinion of optimal intervention were evaluated. Methods:Structured questionnaire items about diagnostic workup, drug choice of 5 different situations according to different co-morbid disorders, and non - pharmacological treatment were applied to 32 child psychiatrists working at university and general hospital. we compared the data with Texas Algorithm Project guideline. Results:(1) Intelligence Test, Sentence Completion Test, sustained attention test, and Conner's questionnaire were the basic routine test that must be performed. (2) Main trend of medication in this study was not different from TAP guideline. (3) In case of co-morbid tic disorder, first recommending drug is still psychostimulant in the TAP guideline. But in this study initial psychostimulant prescription was not main trend. (4) In case of MPH non-response co-morbid disruptive behavior disorder, MPH medication combined with other drug were more common than switching to other drug as suggested the TAP guidelines. (5) In non-pharmacological treatment, most child psychiatrists reported the importance of parent management. Conclusion:There were some difference in medication trend in this study compared with TAP guideline. Further study and conference are needed for experts consensus in Korea.

  • PDF

Effect of Guidance Information Receiving Ratio on Driver's Route Choice Behavior and Learming Process (교통정보 수신율 변화에 따른 운전자의 경로선택과 학습과정)

  • Do, Myung-Sik;Sheok, Chong-Soo;Chae, Jeung-Hwan
    • Journal of Korean Society of Transportation
    • /
    • v.22 no.5
    • /
    • pp.111-122
    • /
    • 2004
  • The driver's decision making (e.g. route choice) is a typical decision making with an uncertainty. In this paper, we investigate the effect of route guidance information on driver's route choice and learning behavior and analyse the potential of information system in a road network in which traffic flows follow random walk. A Simulation performed focuses on the relationship among the network wide performance, message receiving rates and driver's learning mechanism. We know that at high levels of message receiving rates, the network-wide performance may get worse. However, at low levels of receiving rates, we found that the travel time when guidance information is provided decrease compared to the cases when no pubic information is provided. Also, we found that the learning parameter of the learning mechanism model always changes under nonstationary traffic condition. In addition, learning process of drivers does not converge on any specific value. More investigation is needed to enlarge the scope of the study and to explore more deeply driver's behavior.

Consumer behavior prediction using Airbnb web log data (에어비앤비(Airbnb) 웹 로그 데이터를 이용한 고객 행동 예측)

  • An, Hyoin;Choi, Yuri;Oh, Raeeun;Song, Jongwoo
    • The Korean Journal of Applied Statistics
    • /
    • v.32 no.3
    • /
    • pp.391-404
    • /
    • 2019
  • Customers' fixed characteristics have often been used to predict customer behavior. It has recently become possible to track customer web logs as customer activities move from offline to online. It has become possible to collect large amounts of web log data; however, the researchers only focused on organizing the log data or describing the technical characteristics. In this study, we predict the decision-making time until each customer makes the first reservation, using Airbnb customer data provided by the Kaggle website. This data set includes basic customer information such as gender, age, and web logs. We use various methodologies to find the optimal model and compare prediction errors for cases with web log data and without it. We consider six models such as Lasso, SVM, Random Forest, and XGBoost to explore the effectiveness of the web log data. As a result, we choose Random Forest as our optimal model with a misclassification rate of about 20%. In addition, we confirm that using web log data in our study doubles the prediction accuracy in predicting customer behavior compared to not using it.

An Action-Generation Method of Virtual Characters using Programming by Demonstration (Programming by Demonstration을 이용한 가상 캐릭터의 행동 생성 기법)

  • Sung, Yun-Sick;Cho, Kyung-Eun;Um, Ky-Hyun
    • Journal of Korea Game Society
    • /
    • v.11 no.2
    • /
    • pp.141-149
    • /
    • 2011
  • The substantial effort is required to make a virtual character smoothly move like a human being in the virtual environment. Since a virtual character acts on the basis of the actions, it is the most critical to define actions for smooth flow of action. It has been actively studied the programming by demonstration which defines series of actions to be performed by a virtual character based on the actions operated by a person. However, such approaches can't easily draw many sequential actions because they create sequential actions in the same length all the time or restrict the actions used to create such actions. For smooth flow of action, it is required to derive sequential actions as much as possible from the actions of a virtual character and to select the representative set of actions. Accordingly, it is necessary to study how to create sequential actions as reducing diverse limits. This study suggests the approach to select sequential actions suitable for a virtual character by collecting the actions of a character manipulated by a person and deriving a set of actions to be performed by a virtual character. The experiment describes the process to create the actions by applying the approach suggested in this study to the driving game. In accordance with the analysis results, it was found that a set of actions performed by a person was generated without being restricted by a length or a part to divide. Finally, we confirmed that the suggested method selects the best sequential actions, appropriate to virtual character, among more generated actions.

Behavior Control Algorithm of Swarm Robots for Space Search (공간 탐색을 위한 군집 로봇 행동 제어 알고리즘)

  • Tak, Myung-Hwan;Kim, Jin-Kyu;Joo, Young-Hoon;Shin, Sang-Keun
    • Proceedings of the KIEE Conference
    • /
    • 2011.07a
    • /
    • pp.1894-1895
    • /
    • 2011
  • 본 논문에서는 군집 로봇을 이용하여 주어진 공간을 효율적으로 탐색하기 위한 행동 제어 알고리즘을 제안한다. 제안한 방법은 군집 로봇의 운동방정식을 이용하여 각 로봇의 이동 상태를 파악하고 로봇에 장착된 센서 범위를 이용하여 군집 로봇간의 이동 규칙을 계획한다. 계획된 이동 규칙은 초기의 밀집된 위치에서 로봇이 자율적으로 이동하여 로봇간의 충돌을 회피하고 최적의 거리를 유지하면서 공간을 효율적으로 탐색하기 위한 행동 제어 방법을 제안한다. 마지막으로 시뮬레이션을 통하여 그 응용 가능성을 증명한다.

  • PDF

Multi-agent Coordination Strategy Using Reinforcement Learning (강화 학습을 이용한 다중 에이전트 조정 전략)

  • Kim, Su-Hyun;Kim, Byung-Cheon;Yoon, Byung-Joo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.285-288
    • /
    • 2000
  • 본 논문에서는 다중 에이전트(multi-agent) 환경에서 에이전트들의 행동을 효율적으로 조정 (coordination)하기 위해 강화 학습(reinforcement learning)을 이용하였다. 제안된 방법은 각 에이전트가 목표(goal)와의 거리 관계(distance relationship)와 인접 에이전트들과의 공간 관계(spatial relationship)를 이용하였다. 그러므로 각 에이전트는 다른 에이전트와 충돌(collision) 현상이 발생하지 않으면서, 최적의 다음 상태를 선택할 수 있다. 또한, 상태 공간으로부터 입력되는 강화 값이 0과 1 사이의 값을 갖기 때문에 각 에이전트가 선택한 (상태, 행동) 쌍이 얼마나 좋은가를 나타낼 수 있다. 제안된 방법을 먹이 포획 문제(prey pursuit problem)에 적용한 결과 지역 제어(local control)나. 분산 제어(distributed control) 전략을 이용한 방법보다 여러 에이전트들의 행동을 효율적으로 조정할 수 있었으며, 매우 빠르게 먹이를 포획할 수 있음을 알 수 있었다.

  • PDF

Designing a Spam Mail Filtering System Using User Reaction and Incremental Machine Learning (사용자의 행동과 점진적 기계학습을 이용한 쓰레기 편지 여과 시스템의 설계)

  • Kim, Kang-Min;Park, Eun-Jin;Kim, Jae-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.775-778
    • /
    • 2005
  • 본 논문은 쓰레기 편지를 여과하기 위해 대상 편지에 따른 사용자들의 행동(reaction)을 묵시적(implicitly)으로 수집한 후 이를 점진적(incrementally) 기계학습기의 자질(feature)로 사용하여 편지 여과 작업의 증거가 되는 단어들을 지속적으로 학습하면서 최적의 편지 여과 결과를 제공하는 기법과 시스템 구조를 제안한다. 사용자 개인의 컴퓨터에 행동 정보와 학습 데이터를 저장하도록 설계하여 묵시적 정보 수집에서 자주 제기되는 개인 프라이버시 문제를 해결하였으며, 점진적 기계학습 기법을 사용하여 개인 정보를 포함하는 대량의 편지 학습 데이터를 모으기 힘들다는 문제를 해결하였다. 또 향후 제안하는 시스템을 이용하여 여러 종류의 기계학습 기법 중 쓰레기 편지 여과 작업을 가장 효과적으로 수행할 수 있는 기법을 선택하는 작업을 수행할 계획이다.

  • PDF

자세형태에 따른 해기사의 기술적 행동에 관한 기초 연구

  • 장은진;임정빈
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2022.06a
    • /
    • pp.135-136
    • /
    • 2022
  • 최근 자율운항선박(Maritime Autonomous Surface Ship, MASS)의 개발이 활발히 추진되고 있다. 자율운항선박의 완전한 자동화가 이뤄지기까지 육상센터에서 원격제어(Remote Control)로 선박을 운항하게 된다. 따라서 해기사의 역할을 육상 원격제어자가 수행하게 되며, 원격제어에 요구되는 기술, 교육, 시스템 등 여러 측면으로 이슈가 되고 있다. 아울러, 아직 구체적으로 고려되지 않는 원격제어자의 최적 원격제어 자세에 대한 고려가 필요하다. 제어자세는 업무의 집중도, 사고의 위험성 등에 많은 영향을 줄 수 있다. 그래서 이 연구에서는 현재 일반적으로 항해하는 형태인 서서하는 형태와 앉아서 하는 형태로 구분하여 항해 시 나타나는 해기사의 기술적 행동을 상황인식을 중심으로 고찰하였다. 추후 다양한 기술적 행동 분석 실험을 통해 자세결정을 위한 평가 기법을 제시할 예정이다.

  • PDF

Optimal route generation method for ships using reinforcement learning (강화학습을 이용한 선박의 최적항로 생성기법)

  • Min-Kyu Kim;Jong-Hwa Kim;Ik-Soon Choi;Hyeong-Tak Lee;Hyun Yang
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2022.06a
    • /
    • pp.167-168
    • /
    • 2022
  • 선박을 운항함에 있어 최적항로를 결정하는 것은 항해시간과 연료 소모를 줄이는 중요한 요인 중의 하나이다. 기존에는 항로를 결정하기 위해 항해사의 전문적인 지식이 요구되지만 이러한 방법은 최적의 항로라고 판단하기 어렵다. 따라서 연료비 절감과 선박의 안전을 고려한 최적의 항로를 생성할 필요가 있다. 연료 소모량 혹은 항해시간을 최소화하기 위해서 에이스타 알고리즘, Dijkstra 알고리즘을 적용한 연구가 있다. 하지만 이러한 연구들은 최단거리만 구할 뿐 선박의 안전, 해상상태 등을 고려하지 못한다. 이를 보완하기 위해 본 연구에서는 강화학습 알고리즘을 적용하고자한다. 강화학습 알고리즘은 앞으로 누적 될 보상을 최대화 하는 행동으로 정책을 찾는 방법으로, 본 연구에서는 강화학습 알고리즘의 하나인 Q-learning을 사용하여 선박의 안전을 고려한 최적의 항로를 생성하는 기법을 제안 하고자 한다.

  • PDF

Case Studies on Planning and Learning for Large-Scale CGFs with POMDPs through Counterfire and Mechanized Infantry Scenarios (대화력전 및 기계화 보병 시나리오를 통한 대규모 가상군의 POMDP 행동계획 및 학습 사례연구)

  • Lee, Jongmin;Hong, Jungpyo;Park, Jaeyoung;Lee, Kanghoon;Kim, Kee-Eung;Moon, Il-Chul;Park, Jae-Hyun
    • KIISE Transactions on Computing Practices
    • /
    • v.23 no.6
    • /
    • pp.343-349
    • /
    • 2017
  • Combat modeling and simulation (M&S) of large-scale computer generated forces (CGFs) enables the development of even the most sophisticated strategy of combat warfare and the efficient facilitation of a comprehensive simulation of the upcoming battle. The DEVS-POMDP framework is proposed where the DEVS framework describing the explicit behavior rules in military doctrines, and POMDP model describing the autonomous behavior of the CGFs are hierarchically combined to capture the complexity of realistic world combat modeling and simulation. However, it has previously been well documented that computing the optimal policy of a POMDP model is computationally demanding. In this paper, we show that not only can the performance of CGFs be improved by an efficient POMDP tree search algorithm but CGFs are also able to conveniently learn the behavior model of the enemy through case studies in the scenario of counterfire warfare and the scenario of a mechanized infantry brigade's offensive operations.