• Title/Summary/Keyword: 성능분석모델

Search Result 4,592, Processing Time 0.035 seconds

A Transition based Joint Model for Korean POS Tagging & Dependency Parsing using Deep Learning (딥러닝을 이용한 전이 기반 한국어 품사 태깅 & 의존 파싱 통합 모델)

  • Min, Jin-Woo;Na, Seung-Hoon;Sin, Jong-Hoon
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.97-102
    • /
    • 2017
  • 형태소 분석과 의존 파싱은 자연어 처리 분야에서 핵심적인 역할을 수행하고 있다. 이러한 핵심적인 역할을 수행하는 형태소 분석과 의존 파싱에 대해 일괄적으로 학습하는 통합 모델에 대한 필요성이 대두 되었고 이에 대한 많은 연구들이 수행되었다. 기존의 형태소 분석 & 의존 파싱 통합 모델은 먼저 형태소 분석 및 품사 태깅에 대한 학습을 수행한 후 이어서 의존 파싱 모델을 학습하는 파이프라인 방식으로 진행되었다. 이러한 방식의 학습을 두 번 연이어 진행하기 때문에 시간이 오래 걸리고 또한 형태소 분석과 파싱이 서로 영향을 주지 못하는 단점이 존재하였다. 본 논문에서는 의존 파싱에서 형태소 분석에 대한 전이 액션을 포함하도록 전이 액션을 확장하여 한국어 형태소 분석 & 의존파싱에 대한 통합모델을 제안하였고 성능 측정 결과 세종 형태소 분석 데이터 셋에서 F1 97.63%, SPMRL '14 한국어 의존 파싱 데이터 셋에서 UAS 90.48%, LAS 88.87%의 성능을 보여주어 기존의 의존 파싱 성능을 더욱 향상시켰다.

  • PDF

Agile Performance Simulation Model for a Closed Multi-class System (폐쇄된 다중 클래스 시스템에 대한 신속한 성능 시뮬레이션 모델)

  • Kim, Yong-Soo
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.6
    • /
    • pp.11-16
    • /
    • 2009
  • The queuing theory was adopted by Erlang to predict the availability of telephone lines in 1917 and had not been used for computer system performance analysis until late 1960s when Scherr published a performance analysis of time-shared computer system. In 2000s, the explosive Internet usage and the development of IT technology made the business environment speed-centric and analysts should react swiftly to the ever-changing situation to satisfy the user requirement. It's tempting to solve the performance problem by purchasing new devices because the price of computers and peripherals are rapidly decreasing along with their increasing performance. But this scheme not only makes it difficult to understand the overall performance of the system but also wastes money. A coarse performance model that is gotten quickly is sometimes preferred to a complex and precise one that takes longer time to get. This paper examines an analytic model suggested by Menasce based on the measured data and suggests a simulation model using ARENA that takes a short time to build.

A Joint Learning Model for Speech-act Analysis and Slot Filling Using Bidirectional GRU-CRF Based on Attention Mechanism (주의집중 메커니즘 기반의 양방향 GRU-CRF를 이용한 화행 분석과 슬롯 필링 공동 학습 모델)

  • Yoon, Jeongmin;Ko, Youngjoong
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.252-255
    • /
    • 2018
  • 화행 분석이란 자연어 발화를 통해 나타나는 화자의 의도를 파악하는 것을 말하며, 슬롯 필링이란 자연어 발화에서 도메인에 맞는 정보를 추출하기 위해 미리 정의되어진 슬롯에 대한 값을 찾는 것을 말한다. 최근 화행 분석과 슬롯 필링 연구는 딥 러닝 기반의 공동 학습을 이용하는 연구가 많이 이루어지고 있고 본 논문에서는 한국어 특허상담 도메인 대화 말뭉치를 이용하여 공동 학습 모델을 구축하고 개별적인 모델과 성능을 비교한다. 또한 추가적으로 공동 학습 모델에 주의집중 메커니즘을 적용하여 성능이 향상됨을 보인다. 최종적으로 주의집중 메커니즘 기반의 공동 학습 모델이 기준 모델과 비교하여 화행 분류와 슬롯 필링 성능이 각각 3.35%p, 0.54%p 향상되어 85.41%, 80.94%의 성능을 얻었다.

  • PDF

Sentiment Analysis BERT Models Challenge (좌충우돌 감성분석 BERT 미세조정 분석)

  • Park, Jung-Won;Mo, Hyun-Su;Kim, Jeong-Min
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.13-15
    • /
    • 2021
  • 텍스트에 나타나는 감성을 분석하는 NLP task 중 하나인 감성분석에 자주 사용되는 한국어와 외국어 데이터들에 대해 다양한 BERT 모델들을 적용한 결과를 고성능 순서로 정리한 사이트(Paper with code)와 Github를 통해 준수한 성능을 보이는 BERT 모델들을 분석하고 실행해보며 성능향상을 통한 차별성을 가지는 것이 목표이다.

  • PDF

A Study on Proficiency in Solving Riddles of Large Language Model (초거대 언어모델의 재치에 관한 고찰: 수수께끼 해결 능력을 중심으로)

  • Sugyeong Eo;Chanjun Park;Hyeonseok Moon;Jaehyung Seo;Yuna Hur;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.25-30
    • /
    • 2023
  • 초거대 언어모델은 과연 수수께끼 문제에 재치있는 답변을 할 수 있을까? 최근 초거대 언어모델(Large language model, LLM)은 강력한 성능 및 유저 만족도를 보이며 세계의 이목을 집중시키고 있다. 여러 태스크들에 대한 정량 평가를 넘어서 최근에는 LLM의 창의력 및 고도화된 언어능력을 평가하는 연구들이 등장하고 있다. 본 논문에서는 이러한 연구 흐름에 따라 LLM의 재치에 관해 고찰해본다. 이때 재치를 평가하기 위한 태스크로 이를 요구하는 말놀이인 수수께끼를 활용한다. 본 논문은 LLM이 수수께끼를 잘 수행하는지를 모델 추론을 통해 평가하며, 모델 추론 시 활용되는 프롬프트들의 성격에 따른 성능 변화를 관찰한다. 또한 수수께끼의 종류에 따른 모델의 능력을 비교 분석하며 LLM의 추론 결과에 대한 오류 분석을 수행한다. 본 논문은 실험을 통해 GPT-4가 가장 높은 성능을 보이며, 설명글이나 데이터 예시를 추가할 시 성능을 한층 더 향상시킬 수 있음을 확인한다. 또한 단어 기반보다는 특성 기반의 수수께끼에 더욱 강력한 성능을 보이며, 오류 유형 분석을 통해 LLM이 환각(hallucination) 문제와 창의력을 동시에 가지고 있다고 분석한다.

  • PDF

Performance analysis of OFDM systems considering irregular PDP characteristics of propagation channels (전송 채널의 불규칙적인 PDP의 특성에 따른 OFDM 시스템의 성능 분석)

  • 이형권;류은숙;이종길
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.59-62
    • /
    • 2000
  • 본 논문에서는 실측 데이터를 기준으로 9가지의 다양한 모델을 제안한 JTC(Joint Technical Committee) 모델을 전송 채널 모델로 채택하여 채널의 PDP(Power Delay Profile)의 불규칙성 따른 OFDM (Orthogonal Frequency Division Multiplexing) 통신 시스템의 성능을 분석하였다 전송 채널의 불규칙성은 Main profile의 길이, Peak 위치, Echo profile의 지연 시간, 그리고 Echo profile의 강도로 분류하여 각각에 따른 PDP를 설정하여 각 모델에 따른 OFDM 시스템의 성능 분석을 하였다.

  • PDF

A Study on Performance Improvement of Communication Protocol for Railway Signalling (철도신호용 통신 프로토콜 구조 분석 및 성능개선)

  • 황종규;이재호
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.04d
    • /
    • pp.313-315
    • /
    • 2003
  • 국내 철도신호설비들이 점차 전자화 되어감에 따라 이러한 신호제어장치간 인터페이스를 위한 표준 통신 프로토콜의 필요성이 점점 증대되고 있다. 본 논문에서는 이러한 기존의 철도신호용 프로토콜에 대한 분석을 하였다 그리고 철도신호용의 새로운 프로토콜의 설계를 위한 데이터 링크 프로토콜의 성능평가 모델을 설명하고, 이를 바탕으로 새롭게 설계된 철도신호용 통신 프로토콜에 대한 구조를 제시하고 성능평가 모델에 의한 기존의 프로토콜과 비교분석을 수행하였다. 프로토콜 평가모델에 의한 기존 프로토콜과 설계한 프로토콜의 비교결과 많은 성능개선이 있음을 확인하였다.

  • PDF

Korean Dependency Parsing using Pretrained Language Model and Specific-Abstraction Encoder (사전 학습 모델과 Specific-Abstraction 인코더를 사용한 한국어 의존 구문 분석)

  • Kim, Bongsu;Whang, Taesun;Kim, Jungwook;Lee, Saebyeok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.98-102
    • /
    • 2020
  • 의존 구문 분석은 입력된 문장 내의 어절 간의 의존 관계를 예측하기 위한 자연어처리 태스크이다. 최근에는 BERT와 같은 사전학습 모델기반의 의존 구문 분석 모델이 높은 성능을 보이고 있다. 본 논문에서는 추가적인 성능 개선을 위해 ALBERT, ELECTRA 언어 모델을 형태소 분석과 BPE를 적용해 학습한 후, 인코딩 과정에 사용하였다. 또한 의존소 어절과 지배소 어절의 특징을 specific하게 추상화 하기 위해 두 개의 트랜스포머 인코더 스택을 추가한 의존 구문 분석 모델을 제안한다. 실험결과 제안한 모델이 세종 코퍼스에 대해 UAS 94.77 LAS 94.06의 성능을 보였다.

  • PDF

Characteristic of Data Distribution and Data Replication based Model of LDAP System in High Performance Grid Environments (고성능 Grid 환경에서의 LDAP 시스템의 분산모델과 복제모델의 특성)

  • 권성호;김희철
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.9 no.1
    • /
    • pp.77-84
    • /
    • 2004
  • Recently, as the number of entities participating in the Grid system increased, the response time of LDAP system became inadequate. Consequently, we have to design new LDAP that suitable for high performance Grid environments. For this, researches about analysis of performance LDAP system are needed firstly. However, because researches are focused mostly on read operation optimized environments, so these result of researches are not directly applied to high performance Grid environments that write operation occupies most. In this paper, we provide overall results of analysis of performance of LDAP system with respect to number of node, query arrival rate, probability of read and so on. The analysis is based on in analytic performance model by applying the M/M/1 queuing model. Finally, based on the results, we suggest the direction for the design of high performance LDAP system and this research results can be applied as basic materials to design of GIS in high performance Grid environments as well as.

  • PDF

A Study of Pre-trained Language Models for Korean Language Generation (한국어 자연어생성에 적합한 사전훈련 언어모델 특성 연구)

  • Song, Minchae;Shin, Kyung-shik
    • Journal of Intelligence and Information Systems
    • /
    • v.28 no.4
    • /
    • pp.309-328
    • /
    • 2022
  • This study empirically analyzed a Korean pre-trained language models (PLMs) designed for natural language generation. The performance of two PLMs - BART and GPT - at the task of abstractive text summarization was compared. To investigate how performance depends on the characteristics of the inference data, ten different document types, containing six types of informational content and creation content, were considered. It was found that BART (which can both generate and understand natural language) performed better than GPT (which can only generate). Upon more detailed examination of the effect of inference data characteristics, the performance of GPT was found to be proportional to the length of the input text. However, even for the longest documents (with optimal GPT performance), BART still out-performed GPT, suggesting that the greatest influence on downstream performance is not the size of the training data or PLMs parameters but the structural suitability of the PLMs for the applied downstream task. The performance of different PLMs was also compared through analyzing parts of speech (POS) shares. BART's performance was inversely related to the proportion of prefixes, adjectives, adverbs and verbs but positively related to that of nouns. This result emphasizes the importance of taking the inference data's characteristics into account when fine-tuning a PLMs for its intended downstream task.