• 제목/요약/키워드: RL-Graph

검색결과 6건 처리시간 0.016초

5G 및 B5G 네트워크에서 그래프 신경망 및 강화학습 기반 최적의 VNE 기법 (Graph Neural Network and Reinforcement Learning based Optimal VNE Method in 5G and B5G Networks)

  • 박석우;문강현;정경택;나인호
    • 스마트미디어저널
    • /
    • 제12권11호
    • /
    • pp.113-124
    • /
    • 2023
  • 5G 및 B5G(Beyond 5G) 네트워크의 등장으로 기존 네트워크 한계를 극복할 수 있는 네트워크 가상화 기술이 주목받고 있다. 네트워크 가상화의 목적은 효율적 네트워크 자원의 활용과 다양한 전송요구 서비스에 대한 솔루션을 제공하기 위함이다. 이와 관련하여 여러 가지 휴리스틱 기반의 VNE 기법이 연구되고 있으나 네트워크 자원할당 및 서비스의 유연성이 제한되는 문제점을 지니고 있다. 본 논문에서는 다양한 응용의 서비스 요구사항을 충족하기 위해 GNN 기반의 네트워크 슬라이싱 분류 기법과 최적의 자원할당을 위한 RL 기반 VNE 기법을 제안한다. 제안된 기법에서는 Actor-Critic 네트워크를 이용하여 최적의 VNE를 수행한다. 또한 성능 평가를 위해 제안된 기법과 기존의 Node Rank, MCST-VNE, GCN-VNE 기법과의 성능을 비교분석하고 서비스 수용률 제고 및 효율적 자원 할당 측면에서 성능이 향상됨을 보인다.

학습 성능 향상을 위한 차원 축소 기법 기반 재난 시뮬레이션 강화학습 환경 구성 및 활용 (The Design and Practice of Disaster Response RL Environment Using Dimension Reduction Method for Training Performance Enhancement)

  • 여상호;이승준;오상윤
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권7호
    • /
    • pp.263-270
    • /
    • 2021
  • 강화학습은 학습을 통해 최적의 행동정책을 탐색하는 기법으로써, 재난 상황에서 효과적인 인명 구조 및 재난 대응 문제 해결을 위해 많이 활용되고 있다. 그러나, 기존 재난 대응을 위한 강화학습 기법은 상대적으로 단순한 그리드, 그래프와 같은 환경 혹은 자체 개발한 강화학습 환경을 통해 평가를 수행함에 따라 그 실용성이 충분히 검증되지 않았다. 본 논문에서는 강화학습 기법을 실세계 환경에서 사용하기 위해 기존 개발된 재난 시뮬레이션 환경의 복잡한 프로퍼티를 활용하는 강화학습 환경 구성과 활용 결과를 제시하고자 한다. 본 제안 강화학습 환경의 구성을 위하여 재난 시뮬레이션과 강화학습 에이전트 간 강화학습 커뮤니케이션 채널 및 인터페이스를 구축하였으며, 시뮬레이션 환경이 제공하는 고차원의 프로퍼티 정보의 활용을 위해 비-이미지 피쳐 벡터(non-image feature vector)에 이미지 변환방식을 적용하였다. 실험을 통해 본 제안 방식이 건물 화재 피해도를 기준으로 한 평가에서 기존 방식 대비 가장 낮은 건물 화재 피해를 기록한 것을 확인하였다.

Leveraging Reinforcement Learning for Generating Construction Workers' Moving Path: Opportunities and Challenges

  • Kim, Minguk;Kim, Tae Wan
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.1085-1092
    • /
    • 2022
  • Travel distance is a parameter mainly used in the objective function of Construction Site Layout Planning (CSLP) automation models. To obtain travel distance, common approaches, such as linear distance, shortest-distance algorithm, visibility graph, and access road path, concentrate only on identifying the shortest path. However, humans do not necessarily follow one shortest path but can choose a safer and more comfortable path according to their situation within a reasonable range. Thus, paths generated by these approaches may be different from the actual paths of the workers, which may cause a decrease in the reliability of the optimized construction site layout. To solve this problem, this paper adopts reinforcement learning (RL) inspired by various concepts of cognitive science and behavioral psychology to generate a realistic path that mimics the decision-making and behavioral processes of wayfinding of workers on the construction site. To do so, in this paper, the collection of human wayfinding tendencies and the characteristics of the walking environment of construction sites are investigated and the importance of taking these into account in simulating the actual path of workers is emphasized. Furthermore, a simulation developed by mapping the identified tendencies to the reward design shows that the RL agent behaves like a real construction worker. Based on the research findings, some opportunities and challenges were proposed. This study contributes to simulating the potential path of workers based on deep RL, which can be utilized to calculate the travel distance of CSLP automation models, contributing to providing more reliable solutions.

  • PDF

도시환경 매핑 시 SLAM 불확실성 최소화를 위한 강화 학습 기반 경로 계획법 (RL-based Path Planning for SLAM Uncertainty Minimization in Urban Mapping)

  • 조영훈;김아영
    • 로봇학회논문지
    • /
    • 제16권2호
    • /
    • pp.122-129
    • /
    • 2021
  • For the Simultaneous Localization and Mapping (SLAM) problem, a different path results in different SLAM results. Usually, SLAM follows a trail of input data. Active SLAM, which determines where to sense for the next step, can suggest a better path for a better SLAM result during the data acquisition step. In this paper, we will use reinforcement learning to find where to perceive. By assigning entire target area coverage to a goal and uncertainty as a negative reward, the reinforcement learning network finds an optimal path to minimize trajectory uncertainty and maximize map coverage. However, most active SLAM researches are performed in indoor or aerial environments where robots can move in every direction. In the urban environment, vehicles only can move following road structure and traffic rules. Graph structure can efficiently express road environment, considering crossroads and streets as nodes and edges, respectively. In this paper, we propose a novel method to find optimal SLAM path using graph structure and reinforcement learning technique.

항공사진과 도로지도 간 합성 품질 향상을 위한 도로 추출 연구 (A Study on Road Extraction for Improving the Quality in Conflation between Aerial Image and Road Map)

  • 양성철;이원희;유기윤
    • 한국측량학회지
    • /
    • 제29권6호
    • /
    • pp.593-599
    • /
    • 2011
  • 지리정보에 대한 사용자의 활용도가 높아지면서 더 새롭고 고품질인 지리정보 자료에 대한 요구 역시 함께 증가하고 있다. 새로운 콘텐츠를 제작하는데 있어 기 구축된 자료간의 융합을 통한 방법은 기존의 자료들이 가진 장점만을 취하여 새로운 지리정보 콘텐츠를 생성할 수 있다는 점에서 효율적이다. 그러나, 서로 다른 자료를 융합하면 위치편차와 형상불일치가 나타나는데 이는 이종의 자료가 가진 정보의 정확도는 그대로 유지한 채 자료 간 불일치되는 부분을 개선하는 합성 기술로 해결이 가능하다. 본 연구에서는 선행연구를 통해 위치편차가 최소화된 도로지도와 항공사진간에 형상불일치를 제거하는 것을 목적으로 하여 항공사진에서 도로 후보 영상을 생성한 후 이를 도로일 가능성으로 표현한 그래프를 제작하였다. 여기서 도로일 가능성이 높은 것만을 추출하여 합성 시 형상불일치를 제거할 수 있었다.

두통(頭痛)의 임상양상(臨床樣狀) 및 생체전기자율반응에 대(對)한 임상적(臨床的) 고찰(考察) (A Clinical Study of Headache in 58 Cases)

  • 이상룡;김명진
    • 동의신경정신과학회지
    • /
    • 제12권2호
    • /
    • pp.103-122
    • /
    • 2001
  • The clinical study was carried out the 58 patients with Headache who were treated in Department of Neuropsychiatry, College of Oriental Medicine, Dae Jeon University from 14 October 1999 to 15 October 2001. The results were summarized as follows. 1. The ratio of male and female was 15:43, 40s(36.2%) was frequent, the ratio of Tension headache and Migraine was 43:12, hypernoia and overwork oneself were the most inducing factor. 2. In distribution of the period of the clinical history, Tension headache was comparatively short term within 1 month(62.8%) and Migraine was comparatively long term over 1 year(91.7%), Tension headache was frequent at whole portion(41.3%) and occipital portion(26.1%), Migraine was frequent at temporal portion(76.9%). 3. In pain type, Tension headache has many vandlike discomport type, Migraine has many pulsatile type, neck-stiffness-pain and dizziness were mainly coexited. 4. Toung aspect has many SULDAMHONGTAEBAEKHOO(舌淡紅苔白厚), GINMAEK(緊脈) and HEUNMAEK(弦脈) were frequent in Pulse type, the GAEDAMSUNKIJEETONG(祛淡順氣止痛) prescription drugs were frequent such as GEYNTONGA(肩痛A), GEYNTONGDODAMTANG(?通導淡湯), Tension headache patients were well treated(90.7%). 5. In Tension headache and Migraine, the Curve has many SL except Tension headache‘s 2th SANGHAN(상한), in Regulation RR was frequent at 1th, 2th, 3th, 4th, 7th SANGHAN and RL was frequent at 5th, 6th SANGHAN, the result of Graph, Activity and Reactivity have many low response at the whole. 6. The Curve was within normal limit at whole portion and frequent SL at temporal portion, the whole and temporal portion s Regulation also have many RR at 1th, 2th, 3th, 4th, 7th SANGHAN and RL at 5th, 6th SANGHAN, Activity and Reactivity have many low response at the whole. 7. The occipital and frontal portion‘s Curve have many SL at 1th SANGHAN, the occipital portion’s Regulation has many RR at 1th, 2th, 4th, 7th SANGHAN and RL at 5th, 6th SANGHAN, Activity has many low response at the whole, Reactivity has many low response at 1th, 4th, 5th, 6th SANGHAN and high response 2th, 3th SANGHAN, the frontal portion s Regulation has many RL at 1th, 3th, 5th, 6th, 7th SANGHAN and RR at 4th SANGHAN, Activity and Reactivity also have many low response at the whole except 6th, 7th SANGHAN respectively.

  • PDF