• 제목/요약/키워드: learning with a robot

검색결과 489건 처리시간 0.029초

SVM을 이용한 군집로봇의 행동학습 및 진화 (Behavior Learning and Evolution of Swarm Robot System using Support Vector Machine)

  • 서상욱;양현창;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권5호
    • /
    • pp.712-717
    • /
    • 2008
  • 군집 로봇시스템에서 개개의 로봇은 스스로 주위의 환경과 자신의 상태를 스스로 판단하여 행동하고, 필요에 따라서는 다른 로봇과 협조를 통하여 어떤 주어진 일을 수행할 수 있어야 한다. 따라서 개개의 로봇은 동적으로 변화하는 환경에 잘 적응할 수 있는 학습과 진화능력을 갖는 것이 필수적이다. 본 논문에서는 구조적 위험 최소화를 기반으로 한 SVM을 이용 한 강화학습과 분산유전알고리즘을 이용한 새로운 자율이동로봇의 행동학습 및 진화방법을 제안한다. 또한 개개의 로봇이 통신을 통하여 염색체를 교환하는 분산유전알고리즘은 각기 다른 환경에서 학습한 우수한 염색체로부터 자신의 능력을 향상시킨다. 특히 본 논문에서는 진화의 성능을 향상시키기 위하여 SVM을 기반으로 한 강화학습의 특성을 이용한 선택 교배 방법을 채택하였다.

Reward Shaping for a Reinforcement Learning Method-Based Navigation Framework

  • Roland, Cubahiro;Choi, Donggyu;Jang, Jongwook
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.9-11
    • /
    • 2022
  • Applying Reinforcement Learning in everyday applications and varied environments has proved the potential of the of the field and revealed pitfalls along the way. In robotics, a learning agent takes over gradually the control of a robot by abstracting the navigation model of the robot with its inputs and outputs, thus reducing the human intervention. The challenge for the agent is how to implement a feedback function that facilitates the learning process of an MDP problem in an environment while reducing the time of convergence for the method. In this paper we will implement a reward shaping system avoiding sparse rewards which gives fewer data for the learning agent in a ROS environment. Reward shaping prioritizes behaviours that brings the robot closer to the goal by giving intermediate rewards and helps the algorithm converge quickly. We will use a pseudocode implementation as an illustration of the method.

  • PDF

A study on Indirect Adaptive Decentralized Learning Control of the Vertical Multiple Dynamic System

  • Lee, Soo-Cheol;Park, Seok-Sun;Lee, Jeh-Won
    • International Journal of Precision Engineering and Manufacturing
    • /
    • 제7권1호
    • /
    • pp.62-66
    • /
    • 2006
  • The learning control develops controllers that learn to improve their performance at executing a given task, based on experience performing this specific task. In a previous work, the authors presented an iterative precision of linear decentralized learning control based on p-integrated learning method for the vertical dynamic multiple systems. This paper develops an indirect decentralized learning control based on adaptive control method. The original motivation of the learning control field was learning in robots doing repetitive tasks such as an assembly line works. This paper starts with decentralized discrete time systems, and progresses to the robot application, modeling the robot as a time varying linear system in the neighborhood of the nominal trajectory, and using the usual robot controllers that are decentralized, treating each link as if it is independent of any coupling with other links. Some techniques will show up in the numerical simulation for vertical dynamic robot. The methods of learning system are shown for the iterative precision of each link.

Topolgical Map을 이용한 이동로봇의 행위기반 학습제어기 (Behavior-based Learning Controller for Mobile Robot using Topological Map)

  • 이석주;문정현;한신;조영조;김광배
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.2834-2836
    • /
    • 2000
  • This paper introduces the behavior-based learning controller for mobile robot using topological map. When the mobile robot navigates to the goal position, it utilizes given information of topological map and its location. Under navigating in unknown environment, the robot classifies its situation using ultrasonic sensor data, and calculates each motor schema multiplied by respective gain for all behaviors, and then takes an action according to the vector sum of all the motor schemas. After an action, the information of the robot's location in given topological map is incorporated to the learning module to adapt the weights of the neural network for gain learning. As a result of simulation, the robot navigates to the goal position successfully after iterative gain learning with topological information.

  • PDF

Q-learning과 Cascade SVM을 이용한 군집로봇의 행동학습 및 진화 (Behavior Learning and Evolution of Swarm Robot System using Q-learning and Cascade SVM)

  • 서상욱;양현창;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제19권2호
    • /
    • pp.279-284
    • /
    • 2009
  • 군집 로봇시스템에서 개개의 로봇은 스스로 주위의 환경과 자신의 상태를 스스로 판단하여 행동하고, 필요에 따라서는 다른 로봇과 협조를 통하여 어떤 주어진 일을 수행할 수 있어야 한다. 따라서 개개의 로봇은 동적으로 변화하는 환경에 잘 적응할 수 있는 학습과 진화능력을 갖는 것이 필수적이다. 본 논문에서는 SVM을 여러 개 이용한 강화학습과 분산유전알고리즘을 이용한 새로운 자율이동로봇의 행동학습 및 진화학습을 제안한다. 또한 개개의 로봇이 통신을 통하여 염색체를 교환하는 분산유전알고리즘은 각기 다른 환경에서 학습한 우수한 염색체로부터 자신의 능력을 향상시킨다. 특히 본 논문에서는 진화의 성능을 향상시키기 위하여 Cascade SVM을 기반으로 한 강화학습의 특성을 이용한 선택 교배방법을 채택하였다.

로봇활용교육의 체계적 문헌고찰에 관한 연구 (A Study on Systematic Review of Learning with a Robot)

  • 김철
    • 정보교육학회논문지
    • /
    • 제17권2호
    • /
    • pp.199-209
    • /
    • 2013
  • 본 연구는 초 중등학교 정규교과에서 로봇활용교육의 효과를 고찰하기 위한 것으로 2001년부터 2013년까지 국내학술지를 대상으로 체계적 문헌고찰 연구방법을 수행하였다. 문헌고찰을 위한 데이터베이스는 KISS, DBpia, E-article의 세 종류를 활용하였으며 '로봇 & 교육'과 '로봇활용교육'의 두 옵션으로 검색을 실시하였다. 최초 검색된 논문은 481편이었으나 프로토콜에 따라 모니터링하고 추출을 진행한 결과 최종 50편이 선정되었다. 로봇활용교육의 연구 주제는 창의성, 문제해결능력이 가장 많았으며 연구방법으로는 이질집단사전사후설계와 t검증이 높은 빈도를 차지하였다. 교육적 효과측면에서 교과흥미도, 학습몰입도, 학습태도, 학습동기, 창의성, 문제해결능력 향상이 확인되었다. 하지만 일부 연구에서는 유의미 하지 않은 연구결과도 보고되었다. 문헌분석 결과를 기초로 로봇활용교육에 고려되어져야 할 점을 제시하였다.

  • PDF

Q-Learning을 사용한 로봇팔의 SMCSPO 게인 튜닝 (Gain Tuning for SMCSPO of Robot Arm with Q-Learning)

  • 이진혁;김재형;이민철
    • 로봇학회논문지
    • /
    • 제17권2호
    • /
    • pp.221-229
    • /
    • 2022
  • Sliding mode control (SMC) is a robust control method to control a robot arm with nonlinear properties. A high switching gain of SMC causes chattering problems, although the SMC allows the adequate control performance by giving high switching gain, without the exact robot model containing nonlinear and uncertainty terms. In order to solve this problem, SMC with sliding perturbation observer (SMCSPO) has been researched, where the method can reduce the chattering by compensating the perturbation, which is estimated by the observer, and then choosing a lower switching control gain of SMC. However, optimal gain tuning is necessary to get a better tracking performance and reducing a chattering. This paper proposes a method that the Q-learning automatically tunes the control gains of SMCSPO with an iterative operation. In this tuning method, the rewards of reinforcement learning (RL) are set minus tracking errors of states, and the action of RL is a change of control gain to maximize rewards whenever the iteration number of movements increases. The simple motion test for a 7-DOF robot arm was simulated in MATLAB program to prove this RL tuning algorithm. The simulation showed that this method can automatically tune the control gains for SMCSPO.

Deep Reinforcement Learning in ROS-based autonomous robot navigation

  • Roland, Cubahiro;Choi, Donggyu;Jang, Jongwook
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.47-49
    • /
    • 2022
  • Robot navigation has seen a major improvement since the the rediscovery of the potential of Artificial Intelligence (AI) and the attention it has garnered in research circles. A notable achievement in the area was Deep Learning (DL) application in computer vision with outstanding daily life applications such as face-recognition, object detection, and more. However, robotics in general still depend on human inputs in certain areas such as localization, navigation, etc. In this paper, we propose a study case of robot navigation based on deep reinforcement technology. We look into the benefits of switching from traditional ROS-based navigation algorithms towards machine learning approaches and methods. We describe the state-of-the-art technology by introducing the concepts of Reinforcement Learning (RL), Deep Learning (DL) and DRL before before focusing on visual navigation based on DRL. The case study preludes further real life deployment in which mobile navigational agent learns to navigate unbeknownst areas.

  • PDF

원격로봇 보조 언어교육의 아동 상호작용 질적 탐색 (Qualitative Exploration on Children's Interactions in Telepresence Robot Assisted Language Learning)

  • 신경완;한정혜
    • 한국융합학회논문지
    • /
    • 제8권3호
    • /
    • pp.177-184
    • /
    • 2017
  • 이 논문은 원격언어교육으로서 2가지 형태의 비디오 영상수업과 로봇영상 수업에 따른 아이와 로봇상호작용을 연구한다. 원격지의 미국 아이와 6명의 한국 아이들로 실험수업을 진행했으며, 일대일 인터뷰를 통한 나래이션 및 관찰분석을 하였다. 실험결과 로봇영상 수업이 2가지 형태의 비디오 영상수업보다 활발한 상호작용을 보였다.

Dual Mode Control for the Robot with Redundant Degree of Freedom -The application of the preview learning control to the gross motion part-

  • Mori, Yasuchika;Nyudo, Shin
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1992년도 한국자동제어학술회의논문집(국제학술편); KOEX, Seoul; 19-21 Oct. 1992
    • /
    • pp.296-300
    • /
    • 1992
  • This paper deals with a dual mode control system design for the starching work robot. From the feature of this work, the robot has redundant degree of freedom. In this paper, we try to split the whole movement the robot into a gross motion part ai. a fine motion part so as to achieve a good tracking performance. The preview learning control is applied to the gross motion part. The validity of the dual mode control architecture is demonstrated.

  • PDF