• Title/Summary/Keyword: 학습강화

Search Result 1,581, Processing Time 0.028 seconds

Reinforcement Learning-based Approach for Lego Puzzle Generation (강화학습을 이용한 레고 퍼즐 생성 기술 개발)

  • Park, Cheolseong;Yang, Heekyung;Min, Kyungha
    • Journal of Korea Game Society
    • /
    • v.20 no.3
    • /
    • pp.15-24
    • /
    • 2020
  • We present a reinforcement learning-based framework for generating 2D Lego puzzle from input pixel art images. We devise heuristics for a proper Lego puzzle as stability and efficiency. We also design a DQN structure and train it to maximize the heuristics of 2D Lego puzzle. In legorization stage, we complete the layout of Lego puzzle by adding a Lego brick to the input image using the trained DQN. During this process, we devise a region of interest to reduce the computational loads of the legorization. Using this approach, our framework can present a very high resolutional Lego puzzle.

Speech enhancement based on reinforcement learning (강화학습 기반의 음성향상기법)

  • Park, Tae-Jun;Chang, Joon-Hyuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.05a
    • /
    • pp.335-337
    • /
    • 2018
  • 음성향상기법은 음성에 포함된 잡음이나 잔향을 제거하는 기술로써 마이크로폰으로 입력된 음성신호는 잡음이나 잔향에 의해 왜곡되어지므로 음성인식, 음성통신 등의 음성신호처리 기술의 핵심 기술이다. 이전에는 음성신호와 잡음신호 사이의 통계적 정보를 이용하는 통계모델 기반의 음성향상기법이 주로 사용되었으나 통계 모델 기반의 음성향상기술은 정상 잡음 환경과는 달리 비정상 잡음 환경에서 성능이 크게 저하되는 문제점을 가지고 있었다. 최근 머신러닝 기법인 심화신경망 (DNN, deep neural network)이 도입되어 음성 향상 기법에서 우수한 성능을 내고 있다. 심화신경망을 이용한 음성 향상 기법은 다수의 은닉 층과 은닉 노드들을 통하여 잡음이 존재하는 음성 신호와 잡음이 존재하지 않는 깨끗한 음성 신호 사이의 비선형적인 관계를 잘 모델링하였다. 이러한 심화신경망 기반의 음성향상기법을 향상 시킬 수 있는 방법 중 하나인 강화학습을 적용하여 기존 심화신경망 대비 성능을 향상시켰다. 강화학습이란 대표적으로 구글의 알파고에 적용된 기술로써 특정 state에서 최고의 reward를 받기 위해 어떠한 policy를 통한 action을 취해서 다음 state로 나아갈지를 매우 많은 경우에 대해 학습을 통해 최적의 action을 선택할 수 있도록 학습하는 방법을 말한다. 본 논문에서는 composite measure를 기반으로 reward를 설계하여 기존 PESQ (Perceptual Evaluation of Speech Quality) 기반의 reward를 설계한 기술 대비 음성인식 성능을 높였다.

Reinforcement Learning-based Classification Behavior Control Design of Grid Sorting System (그리드 분류 시스템의 강화 학습 기반 분류 행동 제어 설계)

  • Choi, Ho-Bin;Lim, Hyun-Kyo;Kim, Ju-Bong;Hwang, Gyu-Young;Han, Youn-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.10a
    • /
    • pp.990-993
    • /
    • 2019
  • 인공지능(AI)은 최근 다양한 산업과 사회에서 패러다임을 바꾸고 있지만, 최첨단 AI 가 제조업에서는 즉각적인 성과를 보이지 못 하고 있다. 다시 말해, Industry 4.0 시점에서 기존의 접근 방법과 차별화되는 실용적인 방법론이 필요하다. 여기서 중요한 점은 '어떤' 데이터를 '어떻게' 활용하여 '어느' 부분에 적용할 것 인가이다. 제조업은 게임과 같이 가상의 캐릭터가 하나의 객체 단위로 구동되는 것이 아니라 수많은 하드웨어가 물리적으로 조합되어 연동한다. 따라서, 현실 세계에서는 물리적 마모, 고장 등으로 인해 엔지니어의 개입 없이 수천만 번 이상의 반복 학습이 불가능하다. 또, 제조업은 학습을 위한 방대한 양의 데이터를 수집하고 레이블링 하는 것이 매우 어렵다. 이 두 가지 한계를 극복할 수 있는 방법은 현실과 매우 유사한 환경을 시뮬레이션으로 재연 후 강화 학습을 사용하는 것이다. 제조 분야에서 아주 복잡한 환경 중 하나로 이송 설비가 있으며, 본 논문에서는 그리드 분류 시스템을 개발하고 강화 학습을 적용시킬 수 있는 환경을 설계한다.

Real-Time Path Planning for Mobile Robots Using Q-Learning (Q-learning을 이용한 이동 로봇의 실시간 경로 계획)

  • Kim, Ho-Won;Lee, Won-Chang
    • Journal of IKEEE
    • /
    • v.24 no.4
    • /
    • pp.991-997
    • /
    • 2020
  • Reinforcement learning has been applied mainly in sequential decision-making problems. Especially in recent years, reinforcement learning combined with neural networks has brought successful results in previously unsolved fields. However, reinforcement learning using deep neural networks has the disadvantage that it is too complex for immediate use in the field. In this paper, we implemented path planning algorithm for mobile robots using Q-learning, one of the easy-to-learn reinforcement learning algorithms. We used real-time Q-learning to update the Q-table in real-time since the Q-learning method of generating Q-tables in advance has obvious limitations. By adjusting the exploration strategy, we were able to obtain the learning speed required for real-time Q-learning. Finally, we compared the performance of real-time Q-learning and DQN.

A Dynamic Asset Allocation Method based on Reinforcement learning Exploiting Local Traders (지역 투자 정책을 이용한 강화학습 기반 동적 자산 할당 기법)

  • O Jangmin;Lee Jongwoo;Zhang Byoung-Tak
    • Journal of KIISE:Software and Applications
    • /
    • v.32 no.8
    • /
    • pp.693-703
    • /
    • 2005
  • Given the local traders with pattern-based multi-predictors of stock prices, we study a method of dynamic asset allocation to maximize the trading performance. To optimize the proportion of asset allocated to each recommendation of the predictors, we design an asset allocation strategy called meta policy in the reinforcement teaming framework. We utilize both the information of each predictor's recommendations and the ratio of the stock fund over the total asset to efficiently describe the state space. The experimental results on Korean stock market show that the trading system with the proposed meta policy outperforms other systems with fixed asset allocation methods. This means that reinforcement learning can bring synergy effects to the decision making problem through exploiting supervised-learned predictors.

Performance Improvement of Eye Tracking System using Reinforcement Learning (강화학습을 이용한 눈동자 추적 시스템의 성능향상)

  • Shin, Hak-Chul;Shen, Yan;Khim, Sarang;Sung, WonJun;Ahmed, Minhaz Uddin;Hong, Yo-Hoon;Rhee, Phill-Kyu
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.13 no.2
    • /
    • pp.171-179
    • /
    • 2013
  • Recognition and image processing technology depends on illumination variation. One of the most important factors is the parameters of algorithms. When it comes to select these values, the system has different types of recognition accuracy. In this paper, we propose performance improvement of the eye tracking system that depends on some environments such as, people, location, and illumination. Optimized threshold parameter was decided by using reinforcement learning. When the system accuracy goes down, reinforcement learning used to train the value of parameters. According to the experimental results, the performance of eye tracking system can be improved from 3% to 14% by using reinforcement learning. The improved eye tracking system can be effectively used for human-computer interaction.

Control of Crawling Robot using Actor-Critic Fuzzy Reinforcement Learning (액터-크리틱 퍼지 강화학습을 이용한 기는 로봇의 제어)

  • Moon, Young-Joon;Lee, Jae-Hoon;Park, Joo-Young
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.4
    • /
    • pp.519-524
    • /
    • 2009
  • Recently, reinforcement learning methods have drawn much interests in the area of machine learning. Dominant approaches in researches for the reinforcement learning include the value-function approach, the policy search approach, and the actor-critic approach, among which pertinent to this paper are algorithms studied for problems with continuous states and continuous actions along the line of the actor-critic strategy. In particular, this paper focuses on presenting a method combining the so-called ACFRL(actor-critic fuzzy reinforcement learning), which is an actor-critic type reinforcement learning based on fuzzy theory, together with the RLS-NAC which is based on the RLS filters and natural actor-critic methods. The presented method is applied to a control problem for crawling robots, and some results are reported from comparison of learning performance.

Motion Generation of a Single Rigid Body Character Using Deep Reinforcement Learning (심층 강화 학습을 활용한 단일 강체 캐릭터의 모션 생성)

  • Ahn, Jewon;Gu, Taehong;Kwon, Taesoo
    • Journal of the Korea Computer Graphics Society
    • /
    • v.27 no.3
    • /
    • pp.13-23
    • /
    • 2021
  • In this paper, we proposed a framework that generates the trajectory of a single rigid body based on its COM configuration and contact pose. Because we use a smaller input dimension than when we use a full body state, we can improve the learning time for reinforcement learning. Even with a 68% reduction in learning time (approximately two hours), the character trained by our network is more robust to external perturbations tolerating an external force of 1500 N which is about 7.5 times larger than the maximum magnitude from a previous approach. For this framework, we use centroidal dynamics to calculate the next configuration of the COM, and use reinforcement learning for obtaining a policy that gives us parameters for controlling the contact positions and forces.

Boundary-enhanced SAR Water Segmentation using Adversarial Learning of Deep Neural Networks (적대적 학습 개념을 도입한 경계 강화 SAR 수체탐지 딥러닝 모델)

  • Hwisong Kim;Duk-jin Kim;Junwoo Kim;Seungwoo Lee
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.2-2
    • /
    • 2023
  • 기후변화가 가속화로 인해 수재해의 빈도와 강도 예측이 어려워짐에 따라 실시간 홍수 모니터링에 대한 수요가 증가하고 있다. 합성개구레이다는 광원과 날씨에 무관하게 촬영이 가능하여 수재해 발생시에도 영상을 확보할 수 있다. 합성개구레이다를 활용한 수체 탐지 알고리즘 개발이 활발히 연구되어 왔고, 딥러닝의 발달로 CNN을 활용하여 높은 정확도로 수체 탐지가 기능해졌다. 하지만, CNN 기반 수체 탐지 모델은 훈련시 높은 정량적 정확성 지표를 달성하여도 추론 후 정성적 평가시 경계와 소하천에 대한 탐지 정확성이 떨어진다. 홍수 모니터링에서 특히 중요한 정보인 경계와 좁은 하천에 대해서 정확성이 떨어짐에 따라 실생활 적용이 어렵다. 이에 경계를 강화한 적대적 학습 기반의 수체 탐지 모델을 개발하여 더 세밀하고 정확하게 탐지하고자 한다. 적대적 학습은 생성적 적대 신경망(GAN)의 두 개의 모델인 생성자와 판별자가 서로 관여하며 더 높은 정확도를 달성할 수 있도록 학습이다. 이러한 적대적 학습 개념을 수체 탐지 모델에 처음으로 도입하여, 생성자는 실제 라벨 데이터와 유사하게 수체 경계와 소하천까지 탐지하고자 학습한다. 반면 판별자는 경계 거리 변환 맵과 합성개구레이다 영상을 기반으로 라벨데이터와 수체 탐지 결과를 구분한다. 경계가 강화될 수 있도록, 면적과 경계를 모두 고려할 수 있는 손실함수 조합을 구성하였다. 제안 모델이 경계와 소하천을 정확히 탐지하는지 판단하기 위해, 정량적 지표로 F1-score를 사용하였으며, 육안 판독을 통해 정성적 평가도 진행하였다. 기존 U-Net 모델이 탐지하지 못하던 영역에 대해 제안한 경계 강화 적대적 수체 탐지 모델이 수체의 세밀한 부분까지 탐지할 수 있음을 증명하였다.

  • PDF

Applications of the Participatory Learning Process in Health Promotion (건강증진을 위한 참여 학습의 적용 사례)

  • Kim, Jang-Rak;Jeong, Baek-Geun;Park, Ki-Soo;Kang, Yune-Sik
    • Journal of agricultural medicine and community health
    • /
    • v.36 no.2
    • /
    • pp.130-142
    • /
    • 2011
  • Objectives: This study was conducted to develop a participatory learning process and apply it to community empowerment for health promotion. Methods: The participatory learning sessions were composed of three stages according to the modified Freirean model of empowerment education. Stage 1 of generating themes (listening stage) was replaced with a community health forum. Stage 2 of problem-posing was executed via a two-session small group brainstorming discussion for selecting priority community health problems and strategies to solve them. Stage 3 of act-reflect-act, the implementation of the chosen strategies, is ongoing. We tested the feasibility of the participatory learning processes in the pilot programs for health education. Then, 14 Myeon (or Dong) Health Committee members used them in Health Plus Happiness Plus projects for community empowerment to achieve health equity in Gyeongsangnam-Do, Korea. Results: In the pilot program for feasibility, more than 80% of the 95 participants gave positive responses to evaluation questionnaires after three or four participatory learning sessions. Health Committee members successfully selected various strategies relevant to their communities with facilitation, but without any teaching from outside professionals. Conclusions: We successfully applied the participatory learning process to health promotion. However, more studies are warranted to evaluate its long-term applicability.