• Title/Summary/Keyword: 조정모델

검색결과 1,239건 처리시간 0.027초

주기성을 고려한 GPS 세슘원자시계의 예측 모델 개발

  • 허윤정;조정호;주정민;허문범;심은섭
    • 한국우주과학회:학술대회논문집(한국우주과학회보)
    • /
    • 한국우주과학회 2010년도 한국우주과학회보 제19권1호
    • /
    • pp.35.4-35.4
    • /
    • 2010
  • GPS 위성 중 세슘시계를 보유한 Block IIA 위성은 시계 성능의 저하로 시계 예측 모델의 정확도가 떨어지고 있다. 이 연구에서는 세슘원자 위성시계의 성능을 살펴보고 예측 정확도를 높일 수 있는 모델을 제시하고자 한다. IGS Final 위성시계자료를 수집하여 Allan variance를 통해 각 위성별 안정도를 확인하고, Fourier 변환을 통해 각 위성별 주기성을 살펴본다. 예측 모델의 계수를 결정하기 위해 예측 하루 전의 IGS Rapid 자료를 이용하고, 3시간, 6시간, 12시간, 24시간 간격의 예측 결과들을 IGS Final 결과와 비교하여 예측 모델의 정확도를 확인한다. 또한 IGS에서 제공하고 있는 Ultra-Rapid 예측자료와 비교하여 실시간 정밀 위치 결정 분야에 활용 가능성을 확인한다.

  • PDF

계층적 마스크 모델링을 이용한 언어 모델의 사후 학습 (Post-Training with Hierarchical Masked Language Modeling)

  • 전현규;정혜인;박서연;김봉수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.588-591
    • /
    • 2022
  • 최근 자연어 이해 및 생성에 있어서 사전학습 기반의 언어 모델이 널리 사용되고 있다. BERT, roBERTa 등의 모델이 있으며, 마스크 언어 모델링을 주요 과제로 하여 사전 학습을 한다. 하지만 MLM은 문법적인 정보를 활용하지 못하는 단점이 있다. 단 순히 무작위로 마스크를 씌우고 맞추기 때문이다. 따라서 본 연구에서는 입력 문장의 문법적 정보를 활용하는 방법을 소개하고, 이를 기반으로 사후 학습을 하여 그 효과를 확인해 본다. 공개된 사전학습 모델과 사후학습 모델을 한국어를 위한 벤치마크 데이터셋 KLUE에 대하여 조정학습하고 그 결과를 살펴본다.

  • PDF

VL-KE-T5: 한국어와 영어로 구성된 영상-언어 병렬 데이터를 이용한 대조학습 기반 사전학습모델 구축 (VL-KE-T5: A contrastive learning-based pre-trained model using image-language parallel data composed of Korean and English)

  • 김산;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.337-342
    • /
    • 2022
  • 본 논문은 한국어-영어 기반 영상-언어 모델인 VL-KE-T5를 소개한다. VL-KE-T5는 영상-텍스트 쌍으로 구성된 한국어와 영어 데이터 약 2천 3백만개를 이용하여 영상-언어 모델의 임베딩 벡터들을 정렬시킨 사전학습모델이며, 미세조정을 통하여 여러 영상-언어 작업에 활용할 할 수 있다. VL-KE-T5는 텍스트 기반 영상 검색 작업에서 높은 성능을 보였으나, 세세한 속성을 가진 여러 객체들의 나열이나 객체 간 관계를 포함한 텍스트 기반 영상 검색에서는 비교적 낮은 성능을 보였다.

  • PDF

MASS를 이용한 영어-한국어 신경망 기계 번역 (English-Korean Neural Machine Translation using MASS)

  • 정영준;박천음;이창기;김준석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.236-238
    • /
    • 2019
  • 신경망 기계 번역(Neural Machine Translation)은 주로 지도 학습(Supervised learning)을 이용한 End-to-end 방식의 연구가 이루어지고 있다. 그러나 지도 학습 방법은 데이터가 부족한 경우에는 낮은 성능을 보이기 때문에 BERT와 같은 대량의 단일 언어 데이터로 사전학습(Pre-training)을 한 후에 미세조정(Finetuning)을 하는 Transfer learning 방법이 자연어 처리 분야에서 주로 연구되고 있다. 최근에 발표된 MASS 모델은 언어 생성 작업을 위한 사전학습 방법을 통해 기계 번역과 문서 요약에서 높은 성능을 보였다. 본 논문에서는 영어-한국어 기계 번역 성능 향상을 위해 MASS 모델을 신경망 기계 번역에 적용하였다. 실험 결과 MASS 모델을 이용한 영어-한국어 기계 번역 모델의 성능이 기존 모델들보다 좋은 성능을 보였다.

  • PDF

하이퍼파라미터 최적화를 통한 SASRec 추천 모델 성능 개선 연구 (A Study on the Performance Improvement of the SASRec Recommendation Model by Optimizing the Hyperparameters)

  • 성다훈;임유진
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.657-659
    • /
    • 2023
  • 최근 스마트폰과 같은 디지털 기기의 보급과 함께 개인화, 맞춤형 서비스의 수요가 늘어나면서 추천 서비스가 주목을 받고 있다. 세션 기반(Session based) 추천 시스템은 사용자의 아이템 선호에 따른 순서 정보를 고려한 학습 추천 모델로, 다양한 산업 분야에서 사용되고 있다. 세션 기반 추천 시스템 중 SASRec(Self-Attentive Sequential Recommendation) 모델은 MC/CNN/RNN 기반의 기존 여러 순차 모델들에 비하여 효율적인 성능을 보인다. 본 연구에서는 SASRec 모델의 하이퍼파라미터 중 배치 사이즈(Batch Size), 학습률 (Learning Rate), 히든 유닛(Hidden Unit)을 조정하여 실험함으로써 하이퍼파라미터에 의한 성능 변화를 분석하였다.

사전 학습 모델의 위치 임베딩 길이 제한 문제를 극복하기 위한 방법론 (Methodology for Overcoming the Problem of Position Embedding Length Limitation in Pre-training Models)

  • 정민수;허탁성;이주환;김지수;이경욱;김경선
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.463-467
    • /
    • 2023
  • 사전 학습 모델을 특정 데이터에 미세 조정할 때, 최대 길이는 사전 학습에 사용한 최대 길이 파라미터를 그대로 사용해야 한다. 이는 상대적으로 긴 시퀀스의 처리를 요구하는 일부 작업에서 단점으로 작용한다. 본 연구는 상대적으로 긴 시퀀스의 처리를 요구하는 질의 응답(Question Answering, QA) 작업에서 사전 학습 모델을 활용할 때 발생하는 시퀀스 길이 제한에 따른 성능 저하 문제를 극복하는 방법론을 제시한다. KorQuAD v1.0과 AIHub에서 확보한 데이터셋 4종에 대하여 BERT와 RoBERTa를 이용해 성능을 검증하였으며, 실험 결과, 평균적으로 길이가 긴 문서를 보유한 데이터에 대해 성능이 향상됨을 확인할 수 있었다.

  • PDF

KcBERT를 활용한 한국어 악플 탐지 분석 및 개선방안 연구 (Analyzing Korean hate-speech detection using KcBERT)

  • 정세영;김병진;김대식;김우영;김태용;윤현수;김우주
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.577-580
    • /
    • 2023
  • 악성댓글은 인터넷상에서 정서적, 심리적 피해를 주는 문제로 인식되어 왔다. 본 연구는 한국어 악성댓글 탐지 분석을 위해 KcBERT 및 다양한 모델을 활용하여 성능을 비교하였다. 또한, 공개된 한국어 악성댓글 데이터가 부족한 것을 해소하기 위해 기계 번역을 이용하고, 다국어 언어 모델(Multilingual Model) mBERT를 활용하였다. 다양한 실험을 통해 KcBERT를 미세 조정한 모델의 정확도 및 F1-score가 타 모델에 비해 의미 있는 결과임을 확인할 수 있었다.

  • PDF

RAG End2End 모델에서 LoRA기법을 이용한 성능 향상에 관한 연구 (Research on Performance Improvement Using LoRA Techniques in RAG End2End Models)

  • 김민창;염세훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.600-601
    • /
    • 2024
  • 본 논문은 RAG(Retrieval-Augmented Generation) End2End의 리소스(Resource) 과부하 문제를 해결하는 동시에 모델 성능을 향상 시키기 위해 PEFT(Parameters-Efficient Fine-Tuning)기술인 LoRA(Low Rank Adaptation)적용에 관한 연구이다. 본 논문에서는 RAG End2End 모델의 파라미터 값과 개수를 유지하면서, LRM(Low Rank Matrices)을 이용하여 추가적인 파라미터만을 미세 조정하는 방식으로, 전반적인 모델의 효율성을 극대화하는 방안을 제시하였다. 본 논문에서 다양한 도메인에 데이터 셋에 대한 제안 방식의 성능을 검증하고자 Conversation, Covid-19, News 데이터 셋을 사용하였다. 실험결과, 훈련에 필요한 파라미터의 크기가 약 6.4억개에서 180만개로 감소하였고, EM(Exact Match)점수가 유사하거나 향상되었다. 이는 LoRA를 통한 접근 법이 RAG End2End 모델의 효율성을 개선할 수 있는 효과적인 전략임을 증명하였다.

Bi-LSTM 보조 신경망 모델을 결합한 생성형 한국어 Inverse Text Normalization 모델 (Generative Korean Inverse Text Normalization Model Combining a Bi-LSTM Auxiliary Model)

  • 조정제;신동수;조경빈;한영섭;전병기
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.716-721
    • /
    • 2023
  • Inverse Text Normalization(ITN) 모델은 음성 인식(STT) 엔진의 중요한 후처리 영역 중 하나이며, STT 인식 결과의 가독성을 개선한다. 최근 ITN 모델에 심층신경망을 활용한 연구가 진행되고 있다. 심층 신경망을 사용하는 대부분의 선행연구는 문장 내 변환이 필요한 부분에 토큰 태깅을 진행하는 방식이다. 그러나 이는 Out-of-vocabulary(OOV) 이슈가 있으며, 학습 데이터 구축 시 토큰 단위의 섬세한 태깅 작업이 필요하다는 한계점이 존재한다. 더불어 선행 연구에서는 STT 인식 결과를 그대로 사용하는데, 이는 띄어쓰기가 중요한 한국어 ITN 처리에 변환 성능을 보장할 수 없다. 본 연구에서는 BART 기반 생성 모델로 생성형 ITN 모델을 구축하였고, Bi-LSTM 기반 보조 신경망 모델을 결합하여 STT 인식 결과에 대한 고유명사 처리, 띄어쓰기 교정 기능을 보완한 모델을 제안한다. 또한 보조 신경망을 통해 생성 모델 처리 여부를 판단하여 평균 추론 속도를 개선하였다. 실험을 통해 두 모델의 각 정량 성능 지표에서 우수한 성능을 확인하였고 결과적으로 본 연구에서 제안하는 두 모델의 결합된 방법론의 효과성을 제시하였다.

  • PDF

모바일매핑시스템으로 취득된 전방위 영상의 광속조정법 (Bundle Block Adjustment of Omni-directional Images by a Mobile Mapping System)

  • 오태완;이임평
    • 대한원격탐사학회지
    • /
    • 제26권5호
    • /
    • pp.593-603
    • /
    • 2010
  • 대부분의 모바일 공간정보 획득시스템은 촬영범위가 좁고 기선 길이에 대한 제약이 따르는 프레임 카메라를 탑재하고 있다, 촬영지점을 기준으로 모든 방향으로의 영상정보 획득이 기능한 전방위 카메라 탑재를 통해 프레임 카메라의 촬영 범위 및 기선 거리에 대한 문제점을 해결할 수 있다. 광속조정법(Bundle Block Adjustment)은 다수의 중첩된 영상의 외부표정요소를 결정하는 대표적인 지오레퍼런싱(Georeferencing) 방법이다. 본 연구에서는 전방위 영상에 적합한 광속조정법의 수학적 모델을 제안하여 전방위 영상의 외부표정요소 및 지상점을 추정하고자 한다. 먼저 전방위 영상에 적합한 공선조건식을 이용해 관측방정식을 수립한다. 그리고 지상 모바일매핑시스템(GMMS, Ground Mobile Mapping System)에 탑재되어 있는 GPS/INS로부터 획득된 데이터와 정지 GPS 및 토털 스테이션(Total Station)을 통해 측정한 지상기준점을 이용한 확률제약조건 (Stochastic Constraints)식을 수립한다. 마지막으로 확률제약조건 요소 및 추정 미지수를 조합하여 다양한 종류의 수학적 모델을 수립하고 모델별로 추정된 지상점 좌표의 정확도를 검증한다. 그 결과, 지상기준점을 확률제약조건으로 사용하는 모델에 적용한 경우에 지상점이 ${\pm}5cm$ 정도로 정확하게 추정되었다. 연구의 결과를 통해 전방위 카메라 영상으로부터 대상객체의 3차원 모델 추출이 가능함을 알 수 있었다.