• Title/Summary/Keyword: Q-학습

Search Result 294, Processing Time 0.024 seconds

Machine Reading Comprehension-based Q&A System in Educational Environment (교육환경에서의 기계독해 기반 질의응답 시스템)

  • Jun-Ha Ju;Sang-Hyun Park;Seung-Wan Nam;Kyung-Tae Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.541-544
    • /
    • 2022
  • 코로나19 이후로 교육의 형태가 오프라인에서 온라인으로 변화되었다. 하지만 온라인 강의 교육 서비스는 실시간 소통의 한계를 가지고 있다. 이러한 단점을 해결하기 위해 본 논문에서는 기계독해 기반 실시간 강의 질의응답 시스템을 제안한다. 본 논문연구에서는 질의응답 시스템을 만들기 위해 KorQuAD 1.0 학습 데이터를 활용해 BERT를 fine-tuning 했고 그 결과를 이용해 기계독해 기반 질의응답 시스템을 구축했다. 하지만 이렇게 구축된 챗봇은 강의 내용에 대한 질의응답에 최적화되어있지 않기 때문에 강의 내용 질의응답에 관한 문장형 데이터 셋을 구축하고 추가 학습을 수행하여 문제를 해결했다. 실험 결과 질의응답 표를 통해 문장형 답변에 대한 성능이 개선된 것을 확인할 수 있다.

  • PDF

Question, Document, Response Validator for Question Answering System (질의 응답 시스템을 위한 질의, 문서, 답변 검증기)

  • Tae Hong Min;Jae Hong Lee;Soo Kyo In;Kiyoon Moon;Hwiyeol Jo;Kyungduk Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.604-607
    • /
    • 2022
  • 본 논문은 사용자의 질의에 대한 답변을 제공하는 질의 응답 시스템에서, 제공하는 답변이 사용자의 질의에 대하여 문서에 근거하여 올바르게 대답하였는지 검증하는 QDR validator에 대해 기술한 논문이다. 본 논문의 과제는 문서에 대한 주장을 판별하는 자연어 추론(Natural Language inference, NLI)와 유사한 과제이지만, 문서(D)와 주장(R)을 포함하여 질의(Q)까지 총 3가지 종류의 입력을 받아 NLI 과제보다 난도가 높다. QDR validation 과제를 수행하기 위하여, 약 16,000 건 데이터를 생성하였으며, 다양한 입력 형식 실험 및 NLI 과제 데이터 추가 학습, 임계 값 조절 실험을 통해 최종 83.05% 우수한 성능을 기록하였다

  • PDF

Migration with Load Balancing Based on Reinforcement Learning in Vehicular Edge Computing (차량 엣지 컴퓨팅에서 로드 밸런싱을 고려한 강화학습 기반의 마이그레이션)

  • Moon, Sungwon;Lim, Yujin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.05a
    • /
    • pp.66-69
    • /
    • 2021
  • 최근 실시간 응답 및 처리에 민감한 서비스들이 급증하면서 멀티액세스 엣지 컴퓨팅(MEC)이 차세대 기술로 주목받고 있다. 사용자들의 잦은 이동성 때문에 MEC 서버들 사이에서의 마이그레이션은 중요한 문제로 다뤄진다. 본 논문에서는 이동성이 많은 차량 엣지 컴퓨팅 환경을 고려하였으며, 강화학습 기법인 Q-learning 을 사용하여 마이그레이션 여부 및 대상을 결정하는 기법을 제안하였다. 제안 기법의 목적은 지연 제약조건을 만족시키면서 차량 엣지 컴퓨팅 서버(VECS) 사이의 로드 밸런싱을 최적화하는 것이다. 제안 기법의 성능 비교를 통하여 다른 기법들보다 로드 밸런싱 측면에서 약 22-30%, 지연 제약조건 만족도 측면에서 약 20-31%로 더 좋은 성능을 보임을 확인하였다.

Performance Comparison of Deep Reinforcement Learning based Computation Offloading in MEC (MEC 환경에서 심층 강화학습을 이용한 오프로딩 기법의 성능비교)

  • Moon, Sungwon;Lim, Yujin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.52-55
    • /
    • 2022
  • 5G 시대에 스마트 모바일 기기가 기하급수적으로 증가하면서 멀티 액세스 엣지 컴퓨팅(MEC)이 유망한 기술로 부상했다. 낮은 지연시간 안에 계산 집약적인 서비스를 제공하기 위해 MEC 서버로 오프로딩하는 특히, 태스크 도착률과 무선 채널의 상태가 확률적인 MEC 시스템 환경에서의 오프로딩 연구가 주목받고 있다. 본 논문에서는 차량의 전력과 지연시간을 최소화하기 위해 로컬 실행을 위한 연산 자원과 오프로딩을 위한 전송 전력을 할당하는 심층 강화학습 기반의 오프로딩 기법을 제안하였다. Deep Deterministic Policy Gradient (DDPG) 기반 기법과 Deep Q-network (DQN) 기반 기법을 차량의 전력 소비량과 큐잉 지연시간 측면에서 성능을 비교 분석하였다.

Task Migration for Load Balancing and Energy Efficiency based on Reinforcement Learning in UAV-Enabled MEC System (UAV 지원 MEC 시스템의 로드 밸런싱과 에너지 효율성을 고려한 강화학습 기반 태스크 마이그레이션)

  • Shin, A Young;Lim, Yujin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.74-77
    • /
    • 2022
  • 최근 사물 인터넷(IoT)의 발전으로 계산 집약적이거나 지연시간에 민감한 태스크가 증가하면서, 모바일 엣지 컴퓨팅 기술이 주목받고 있지만 지상에 고정되어 있는 MEC 서버는 사용자의 요구사항 변화에 따라 서버의 위치를 변경하거나 유연하게 대처할 수 없다. 이 문제를 해결하기 위해 UAV(Unmanned Aerial Vehicle)를 추가로 이용해 엣지 서비스를 제공하는 기법이 연구되고 있다. 그러나 UAV는 지상 MEC와는 달리 배터리 용량이 제한되어 있어 태스크 마이그레이션을 통해 에너지 사용량을 최소화하는 것이 필요하다. 본 논문에서는 MEC 서버들 사이의 로드 밸런싱과 UAV MEC 서버의 에너지 효율성을 최적화하기 위해 강화학습 기법인 Q-learning을 이용한 태스크 마이그레이션 기법을 제안한다. 제안 시스템의 성능을 평가하기 위해 UAV의 개수에 따라 실험을 진행하여 잔여 에너지와 로드 밸런싱 측면에서 성능을 분석한다.

Reinforcement learning for multi mobile robot control in the dynamic environments (동적 환경에서 강화학습을 이용한 다중이동로봇의 제어)

  • 김도윤;정명진
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 1996.10b
    • /
    • pp.944-947
    • /
    • 1996
  • Realization of autonomous agents that organize their own internal structure in order to behave adequately with respect to their goals and the world is the ultimate goal of AI and Robotics. Reinforcement learning gas recently been receiving increased attention as a method for robot learning with little or no a priori knowledge and higher capability of reactive and adaptive behaviors. In this paper, we present a method of reinforcement learning by which a multi robots learn to move to goal. The results of computer simulations are given.

  • PDF

The Robot Soccer Strategy and Tactic Using Fuzzy Logic (퍼지 로직을 적용한 로봇축구 전략 및 전술)

  • 이정준;지동민;주문갑;이원창;강근택
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.3-6
    • /
    • 2004
  • 본 논문에서는 퍼지 로직을 이용하여 로봇과 공의 상태에 따른 로봇 행동의 선택 알고리즘을 제시한다. 전략 및 전술 알고리즘으로 많이 알려진 Modular Q-학습 알고리즘은 개체의 수에 따른 상태수를 지수 함수적으로 증가시킬 뿐만 아니라, 로봇이 협력하기 위해 중재자 모듈이라는 별도의 알고리즘을 필요로 한다. 그러나 앞으로 제시하는 퍼지 로직을 적용한 로봇축구 전략 및 전술 알고리즘은 퍼지 로직을 이용하여 로봇의 주행 알고리즘을 선택하는 과정과 로봇의 행동을 협력하는 과정을 동시에 구현함으로써, 계산 양을 줄여 로봇 축구에 보다 적합하게 해준다.

  • PDF

A Study on Culinary Arts Major Students's Type of Subjectivity Recognition through Restaurant Start-up Experience Program -Focused on Pop-up Restaurant- (외식창업교육 체험프로그램을 통한 조리전공 재학생의 주관적 인식유형 연구 -팝업레스토랑을 중심으로-)

  • Kim, Chan-Woo;Shin, Seoung-Hoon
    • The Journal of the Korea Contents Association
    • /
    • v.19 no.6
    • /
    • pp.347-358
    • /
    • 2019
  • This study used Q methodology for analogizing culinary arts major students' subjectivity through their participation of one of restaurant start-up experience program, called pop-up restaurant. The study tried to figure out particular structure of among students' responses and noticed five distinctive types. There were Increase learning effect type(Type 1, N=4), Collaboration of members importance type(Type2, N=8), Marketing PR need type(Type3, N=6), Restaurant business plan type(Type4, N=4), Industry work experience required type(Type5, N=3). The study also revealed that each type contained diverse characteristics figures in their own. The research finding could be used as fundamental source of future similar research but in other research methodology in the format of difference among students or diverse measuring point of time frame.

Develop physical layer analysis algorithm for OFDMA signal based IEEE 802.16e (IEEE 802.16e 기반 OFDMA 물리층 분석 알고리즘 연구)

  • Jang, Min-Ki
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.20 no.6
    • /
    • pp.342-349
    • /
    • 2019
  • We describe and anlayzes the methodology and implementation results of H / W configuration and signal characteristics analysis algorithm for analyzing equipment for analyzing OFDMA physical layer based on 802.16e. Recently, demand for signal analysis of instruments that analyze these signals with the development of digital communication signals is rapidly increasing. Accordingly, it is necessary to develop signal analysis equipment capable of analyzing characteristics of a broadband communication signal using a wideband digital signal processing module. In this paper, we have studied the basic theory of OFDMA in order to devise a device capable of analyzing characterisitcs of broadband communication signals. Second, the structure of OFDMA transmitter/receiver was examined. Third, a wideband digitizer was implemented. we design Wimax signal analysis algorithm based on OFDMA among broadband communication methods and propose Wimax physical layer analysis S/W implementation through I, Q signals. The IF downconverter used the receiver module and the LO generation module of the spectrum analyzer. Quantitative analysis result is obtained through the algorithm of Wimax signal analysis by I, Q data.

A Study of Reinforcement Learning-based Cyber Attack Prediction using Network Attack Simulator (NASim) (네트워크 공격 시뮬레이터를 이용한 강화학습 기반 사이버 공격 예측 연구)

  • Bum-Sok Kim;Jung-Hyun Kim;Min-Suk Kim
    • Journal of the Semiconductor & Display Technology
    • /
    • v.22 no.3
    • /
    • pp.112-118
    • /
    • 2023
  • As technology advances, the need for enhanced preparedness against cyber-attacks becomes an increasingly critical problem. Therefore, it is imperative to consider various circumstances and to prepare for cyber-attack strategic technology. This paper proposes a method to solve network security problems by applying reinforcement learning to cyber-security. In general, traditional static cyber-security methods have difficulty effectively responding to modern dynamic attack patterns. To address this, we implement cyber-attack scenarios such as 'Tiny Alpha' and 'Small Alpha' and evaluate the performance of various reinforcement learning methods using Network Attack Simulator, which is a cyber-attack simulation environment based on the gymnasium (formerly Open AI gym) interface. In addition, we experimented with different RL algorithms such as value-based methods (Q-Learning, Deep-Q-Network, and Double Deep-Q-Network) and policy-based methods (Actor-Critic). As a result, we observed that value-based methods with discrete action spaces consistently outperformed policy-based methods with continuous action spaces, demonstrating a performance difference ranging from a minimum of 20.9% to a maximum of 53.2%. This result shows that the scheme not only suggests opportunities for enhancing cybersecurity strategies, but also indicates potential applications in cyber-security education and system validation across a large number of domains such as military, government, and corporate sectors.

  • PDF