• 제목/요약/키워드: 성능모델

검색결과 11,761건 처리시간 0.039초

전역적 성능과 지역적 성능을 동시에 고려하는 TS 퍼지 모델링 : LMI를 이용한 풀이 (Fuzzy modeling with emphasis on both global fitting and local interpretation : An LMI approach)

  • 곽기호;박주영
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2000년도 하계학술대회 논문집 D
    • /
    • pp.2989-2991
    • /
    • 2000
  • TS 퍼지 모델은, 복잡한 비선형 시스템을 효과적으로 표현할 수 있는 주요한 근사 모델 중 하나이다. TS 퍼지 모델링을 위한 기존의 학습 방법론들은 대부분 전역적 근사 오차를 최소화하는 것을 목적으로 하는데, 이러한 경우에는 결과로서 얻어지는 75 퍼지 모델의 국소모델들이 근사 대상 시스템의 국소적 특성을 제대로 표현 할 수 없는 상황이 발생할 수 있다. 따라서 본 논문에서는 이러한 특성을 고려하여 새로운 학습 알고리즘을 제시함으로써 전역 지역적 성능을 동시에 향상시킬 수 있는 TS 퍼지 모델을 구하고자 한다 모델을 구하는데 있어서는 LMI를 이용한 풀이를 이용한다. 그리고 간단한 예제를 통하여 그 성능을 입증한다.

  • PDF

강건한 질의응답 모델을 위한 데이터셋 증강 기법 (Adversarial Examples for Robust Reading Comprehension)

  • 장한솔;전창욱;최주영;심묘섭;김현;민경구
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.41-46
    • /
    • 2021
  • 기계 독해는 문단과 질문이 주어질 때에 정답을 맞추는 자연어처리의 연구분야다. 최근 기계 독해 모델이 사람보다 높은 성능을 보여주고 있지만, 문단과 질의가 크게 변하지 않더라도 예상과 다른 결과를 만들어 성능에 영향을 주기도 한다. 본 논문에서는 문단과 질문 두 가지 관점에서 적대적 예시 데이터를 사용하여 보다 강건한 질의응답 모델을 훈련하는 방식을 제안한다. 트랜스포머 인코더 모델을 활용하였으며, 데이터를 생성하기 위해서 KorQuAD 1.0 데이터셋에 적대적 예시를 추가하여 실험을 진행하였다. 적대적 예시를 이용한 데이터로 실험한 결과, 기존 모델보다 1% 가량 높은 성능을 보였다. 또한 질의의 적대적 예시 데이터를 활용하였을 때, 기존 KorQuAD 1.0 데이터에 대한 성능 향상을 확인하였다.

  • PDF

BERT를 이용한 지도학습 기반 문장 임베딩 모델 (Supervised Learning for Sentence Embedding Model using BERT)

  • 최기현;김시형;김학수;김관우;안재영;최두진
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.225-228
    • /
    • 2019
  • 문장 임베딩은 문장의 의미를 잘 표현 할 수 있도록 해당 문장을 벡터화 하는 작업을 말한다. 문장 단위 입력을 사용하는 자연언어처리 작업에서 문장 임베딩은 매우 중요한 부분을 차지한다. 두 문장 사이의 의미관계를 추론하는 자연어 추론 작업을 통하여 학습한 문장 임베딩 모델이 기존의 비지도 학습 기반 문장 임베딩 모델 보다 높은 성능을 보이고 있다. 따라서 본 논문에서는 문장 임베딩 성능을 높이기 위하여 사전 학습된 BERT 모델을 이용한 문장 임베딩 기반 자연어 추론 모델을 제안한다. 문장 임베딩에 대한 성능 척도로 자연어 추론 성능을 사용하였으며 SNLI(Standford Natural Language Inference) 말뭉치를 사용하여 실험한 결과 제안 모델은 0.8603의 정확도를 보였다.

  • PDF

사전 기반 자질과 동적 마스킹을 이용한 ELECTRA 기반 개체명 인식 (Named Entity Recognition based on ELECTRA with Dictionary Features and Dynamic Masking)

  • 김정욱;황태선;김봉수;이새벽
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.509-513
    • /
    • 2021
  • 개체명 인식이란, 문장에서 인명, 지명, 기관명, 날짜, 시간 등의 고유한 의미의 단어를 찾아서 미리 정의된 레이블로 부착하는 것이다. 일부 단어는 문맥에 따라서 인명 혹은 기관 등 다양한 개체명을 가질 수 있다. 이로 인해, 개체명에 대한 중의성을 가지고 있는 단어는 개체명 인식 성능에 영향을 준다. 본 논문에서는 개체명에 대한 중의성을 최소화하기 위해 사전을 구축하여 ELECTRA 기반 모델에 적용하는 학습 방법을 제안한다. 또한, 개체명 인식 데이터의 일반화를 개선시키기 위해 동적 마스킹을 이용한 데이터 증강 기법을 적용하여 실험하였다. 실험 결과, 사전 기반 모델에서 92.81 %로 성능을 보였고 데이터 증강 기법을 적용한 모델은 93.17 %로 높은 성능을 보였다. 사전 기반 모델에서 추가적으로 데이터 증강 기법을 적용한 모델은 92.97 %의 성능을 보였다.

  • PDF

표층형을 이용한 BERT 기반 한국어 상호참조해결 (Korean Co-reference Resolution using BERT with Surfaceform)

  • 허철훈;김건태;최기선
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.67-70
    • /
    • 2019
  • 상호참조해결은 자연언어 문서 내에서 같은 개체를 나타내는 언급들을 연결하는 문제다. 대명사, 지시 관형사, 축약어, 동음이의어와 같은 언급들의 상호참조를 해결함으로써, 다양한 자연언어 처리 문제의 성능 향상에 기여할 수 있다. 본 논문에서는 현재 영어권 상호참조해결에서 좋은 성능을 내고 있는 BERT 기반 상호참조해결 모델에 한국어 데이터 셋를 적용시키고 표층형을 이용한 규칙을 추가했다. 본 논문의 모델과 기존의 모델들을 실험하여 성능을 비교하였다. 기존의 연구들과는 다르게 적은 특질로 정밀도 73.59%, 재현율 71.1%, CoNLL F1-score 72.31%의 성능을 보였다. 모델들의 결과를 분석하여 BERT 기반의 모델이 다양한 특질을 사용한 기존 딥러닝 모델에 비해 문맥적 요소를 잘 파악하는 것을 확인했다.

  • PDF

프롬프트를 이용한 표 질의응답의 성능향상 (Improving Table Question Answering Using Prompt)

  • 박정연;이동혁;신형진;조경빈;이재성
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.395-398
    • /
    • 2023
  • 표 질의응답이란, 주어진 표에서 질의문에 대한 답변을 자동으로 추출하거나 생성하는 기술을 말한다. 최근 언어모델을 사용한 연구들은 정답을 유도할 수 있는 명령문인 프롬프트를 활용하여 더 높은 성능을 보이고 있다. 본 연구에서는 표 질의응답의 성능을 향상시키기 위해, 프롬프트를 효과적으로 사용할 수 있는 모델을 제안한다. 이와 함께, 다양한 형태의 프롬프트를 사용하여 모델을 평가한다. 실험 결과, 기본 모델에 단순 질의문만 입력으로 사용했을 때의 성능 F1 67.5%에 비해, 다양한 프롬프트를 입력으로 사용한 경우 1.6%p 향상된 F1 69.1%을 보였다. 또한, 다양한 프롬프트와 함께 제안 모델을 사용했을 때에는 기본 모델보다 2.2%p 높은 F1 69.7%을 달성했다.

  • PDF

도메인 적응 사전 훈련 (Domain-Adaptive Pre-training, DAPT) 한국어 문서 요약 (Domain-Adaptive Pre-training for Korean Document Summarization)

  • 장형국;장현철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.843-845
    • /
    • 2024
  • 도메인 적응 사전 훈련(Domain-Adaptive Pre-training, DAPT)을 활용한 한국어 문서 요약 연구에서는 특정 도메인의 문서에 대한 이해도와 요약 성능을 향상시키기 위해 DAPT 기법을 적용했다. 이 연구는 사전 훈련된 언어 모델이 일반적인 언어 이해 능력을 넘어 특정 도메인에 최적화된 성능을 발휘할 수 있도록 도메인 특화 데이터셋을 사용하여 추가적인 사전 훈련을 진행한다. 구체적으로, 의료, 법률, 기술 등 다양한 도메인에서 수집한 한국어 텍스트 데이터를 이용하여 모델을 미세 조정하며, 이를 통해 얻은 모델은 도메인에 특화된 용어와 문맥을 효과적으로 처리할 수 있음을 보여준다. 성능 평가에서는 기존 사전 훈련 모델과 DAPT를 적용한 모델을 비교하여 DAPT의 효과를 검증했다. 연구 결과, DAPT를 적용한 모델은 도메인 특화 문서 요약 작업에서 성능 향상을 보였으며, 이는 실제 도메인별 활용에서도 유용할 것으로 기대된다.

다중 메모리 모델의 CLUMP 시스템을 이용하기 위한 병렬 프로그래밍 기법과 성능 평가 (Parallel Programming for Exploiting Hybrid Parallel Model of CLUMP system and its Performance Evaluation)

  • 이용욱;라마크리쉬나
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (3)
    • /
    • pp.621-623
    • /
    • 2000
  • 클러스터를 구성하는 단위 노드로 SMP가 새로운 대안으로 시장에 등장하였다. 이러한 멀티프로세서 클러스터(CLUMP)는 하나의 시스템에 다중 메모리 구조를 가지는데, CLUMP가 가지는 다중 메모리 구조를 효과적으로 사용하기 위해서 본 논문에서는 중첩된 병렬화 프로그램 모델을 제안하였다. 중첩된 병렬화 모델은 중첩된 루프 레벨의 병렬화, 중첩된 태스크 레벨의 병렬화, 그리고 다중 중첩된 병렬화로 나뉜다. 본 논문에서는 중첩된 루프 레벨의 병렬화를 실험대상으로 하여 그 성능을 평가하고 단일 메모리 구조의 병렬화 프로그램과 성능을 비교하였다. 실험 결과 시험한 중첩된 병렬화 모델이 단일 메모리 구조의 병렬화 프로그램에 비하여 좋은 성능을 나타내었지만, 실험대상이 된 루프 레벨 병렬화의 잠재적인 특징으로 인해 실행에 참여하는 노드 수가 많아질수록 성능 향상 폭이 감소하는 결과를 보였다. 프로그램의 성능 향상 폭과 확장성은 문제 크기가 클수록 좋은 특성을 보였다.

  • PDF

ESRGAN의 성능 향상을 위한 판별자 설계 공간 재검토에 관한 연구 (A Research on Re-examining Discriminator Design Space for Performance Improvement of ESRGAN)

  • 박성욱;김준영;박준;정세훈;심춘보
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.513-514
    • /
    • 2023
  • 초해상은 저해상도의 영상을 고해상도 영상으로 합성하는 기술이다. 이 기술에 딥러닝이 적용되어, 2014년에는 SRCNN(Super Resolution Convolutional Neural Network) 모델이 발표됐다. 이후에는 SRCAE(Super Resolution Convolutional Autoencoders)와 GAN(Generative Adversarial Networks)을 기반으로 한 SRGAN(Super Resolution Generative Adversarial Networks) 등, SRCNN의 성능을 능가하는 모델들이 발표됐다. ESRGAN(Enhanced Super Resolution Generative Adversarial Networks)은 SRGAN 모델의 성능을 개선했지만, 완벽한 성능을 내지 못하는 문제점이 있다. 이에 본 논문에서는 판별자(Discriminator) 구조를 변경하여 ESRGAN의 성능을 개선한다. 실험 결과, 제안하는 모델이 ESRGAN보다 더 높은 성능을 보일 것으로 기대된다.

이론적 강제대류CHF 해석 모델의 연구 현황 및 성능 평가

  • 권혁성;전태현;홍성덕;황대현;박철
    • Nuclear Engineering and Technology
    • /
    • 제27권6호
    • /
    • pp.918-931
    • /
    • 1995
  • 임계열속을 예측하는 기존의 여러 방법중 임계열속 발생 역학구조에 근거한 이론적 접근 방법은 여러 유동형태(Flow pattern)별로 연구되고 있으며, 대표적으로 환상유동에서의 LFD(Liquid Film Dryout) 이론, 기포류에서의 BBLD(Bubble Boundary Layer Dryout) 흑은 LNID(Local Nucleation Initiated Dryout)이론 등이 제시되고 있다. 본 논문에서는 일반적으로 원자로 조건에 서 적용될 수 있는 LFD이론과 BBLD 이론에 대하여 대표적인 모델들을 소개하고 특성을 검토하였다. 특히 BBLD 이론중에서 기포군집 (Bubble coalescence) 모델과 층류막 드라이 아웃(Sublayer dryout) 모델에 대해서는 원형관에서의 임계열속 시험자료를 사용하여 각 모델의 예측 성능 및 특성을 평가하였다. 평가 결과, 기포군집 모형인 Weisman 모델의 예측성능이 가장 우수했으며 아울러 층류막 드라이아웃 모델인 Katto 모델과 Mudawwar 모델은 구성 인자중 기포군속도와 층류막 두께와의 관계가 보다 정확히 모형화되야 할 것으로 판단된다.

  • PDF