• 제목/요약/키워드: 대용량 데이터셋

검색결과 55건 처리시간 0.029초

Transformer기반의 언어모델 Bert와 GPT-2 성능 비교 연구 (Transformer-based Language model Bert And GPT-2 Performance Comparison Study)

  • 유연준;홍석민;이협건;김영운
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.381-383
    • /
    • 2022
  • 최근 자연어처리 분야에서는 Bert, GPT 등 Transformer기반의 언어모델 연구가 활발히 이뤄지고 있다. 이러한 언어모델은 대용량의 말뭉치 데이터와 많은 파라미터를 이용하여 사전학습을 진행하여 다양한 자연어처리 테스트에서 높은 성능을 보여주고 있다. 이에 본 논문에서는 Transformer기반의 언어모델인 Bert와 GPT-2의 성능평가를 진행한다. 성능평가는 '네이버 영화 리뷰' 데이터 셋을 통해 긍정 부정의 정확도와 학습시간을 측정한다. 측정결과 정확도에서는 GPT-2가 Bert보다 최소 4.16%에서 최대 5.32% 높은 정확도를 나타내었지만 학습시간에서는 Bert가 GPT-2보다 최소 104초에서 116초 빠르게 나타났다. 향후 성능 비교는 더 많은 데이터와 다양한 조건을 통해 구체적인 성능 비교가 필요하다.

이종의 도로망 데이터 셋에서 면 객체 매칭 기반 변화탐지 (Automatic Change Detection Based on Areal Feature Matching in Different Network Data-sets)

  • 김지영;허용;유기윤;김정옥
    • 한국측량학회지
    • /
    • 제31권6_1호
    • /
    • pp.483-491
    • /
    • 2013
  • 차량용 내비게이션의 빠른 확산과 스마트폰 등 개인 단말기의 측위 기술 발달로 사용자 중심위치기반서비스, 특히 보행자 내비게이션 서비스에 대한 관심이 증대되고 있다. 보행자 내비게이션 서비스를 위한 핵심정보인 수치지도는 대용량이고 짧은 갱신주기를 요구하는 경우가 많아 수치지도의 효율적인 갱신이 중요한 이슈가 된다. 본 연구에서는 구축시기가 상이한 이종의 도로망 데이터 셋에 형상유사도 기반 면 객체 매칭을 적용하여 변화 탐지하는 기법을 제안하였다. 변화탐지에 앞서 이종의 도로망 데이터 셋의 면 객체 매칭에서 탐지될 수 있는 갱신 유형을 정의하였다. 면 객체 매칭 기반 변화 탐지를 위하여 이종의 두 도로망 데이터 셋의 선형인 도로객체를 이들로 둘러싸인 면인 블록으로 변환하였다. 변환된 블록을 중첩하여 중첩된 블록 간의 형상유사도를 계산하고, 이 값이 0.6 이상인 것을 후보 블록 쌍으로 추출하였다. 객체 유형별로 이분 그래프 군집화와 오목다각형 특성을 적용하여 정의된 갱신유형별 블록 쌍을 탐지하고, 해당 블록 쌍을 구성하거나 내부에 있는 도로 세그먼트 간의 프레셰 거리를 계산하였다. 이때, 프레셰 거리가 50 이상인 도로명주소기본도 도로구간의 도로객체가 갱신 도로객체로 추출된다. 그 결과 0.965의 높은 탐색율을 보여 제안된 기법이 이종의 도로망 데이터 셋의 선형 객체의 변화탐지에 적용될 수 있음을 확인할 수 있었다.

Performance Comparison and Analysis of Container-based Host Operating Systems for sending and receiving High-capacity data on Server Systems

  • Kim, Sungho;Kwon, Oeon;Kim, Jung Han;Byeon, JiHyeon;Hwang, Sang-Ho
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권7호
    • /
    • pp.65-73
    • /
    • 2022
  • 최근 윈도우 시스템에서는 리눅스용 윈도우즈 하위 시스템(Windows Subsystem for Linux, WSL)을 지원함에 따라 도커 컨테이너를 해당 시스템에 적용하기 위해 다양한 연구가 진행 중에 있다. 그러나 기존의 다양한 연구에서는 호스트 운영체제별로 시스템을 적용하기 위해 성능과 관련한 지표가 부족할 실정이다. 본 논문에서는 도커 컨테이너 기반의 호스트 운영체제별 성능 비교 분석을 진행하고자 한다. 성능 비교 분석을 진행하기 위해, 실험 환경에서는 동일한 스펙 환경과 데이터셋을 구성하였다. 실험 결과에서 리눅스 시스템에서의 도커 컨테이너가 윈도우즈 시스템 대비 데이터셋 1-6의 기준으로 3.9%, 62.16%, 1552.38%, 7.27%, 60.83%의 평균 지연시간 감소를 보였다.

한국어 지식 그래프-투-텍스트 생성을 위한 데이터셋 자동 구축 (A Synthetic Dataset for Korean Knowledge Graph-to-Text Generation)

  • 정다현;이승윤;이승준;서재형;어수경;박찬준;허윤아;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.219-224
    • /
    • 2022
  • 최근 딥러닝이 상식 정보를 추론하지 못하거나, 해석 불가능하다는 한계점을 보완하기 위해 지식 그래프를 기반으로 자연어 텍스트를 생성하는 연구가 중요하게 수행되고 있다. 그러나 이를 위해서 대량의 지식 그래프와 이에 대응되는 문장쌍이 요구되는데, 이를 구축하는 데는 시간과 비용이 많이 소요되는 한계점이 존재한다. 또한 하나의 그래프에 다수의 문장을 생성할 수 있기에 구축자 별로 품질 차이가 발생하게 되고, 데이터 균등성에 문제가 발생하게 된다. 이에 본 논문은 공개된 지식 그래프인 디비피디아를 활용하여 전문가의 도움 없이 자동으로 데이터를 쉽고 빠르게 구축하는 방법론을 제안한다. 이를 기반으로 KoBART와 mBART, mT5와 같은 한국어를 포함한 대용량 언어모델을 활용하여 문장 생성 실험을 진행하였다. 실험 결과 mBART를 활용하여 미세 조정 학습을 진행한 모델이 좋은 성능을 보였고, 자연스러운 문장을 생성하는데 효과적임을 확인하였다.

  • PDF

SWAT: 분산 인-메모리 시스템 기반 SWRL과 ATMS의 효율적 결합 연구 (SWAT: A Study on the Efficient Integration of SWRL and ATMS based on a Distributed In-Memory System)

  • 전명중;이완곤;바트셀렘;박현규;박영택
    • 정보과학회 논문지
    • /
    • 제45권2호
    • /
    • pp.113-125
    • /
    • 2018
  • 최근 빅데이터의 시대가 도래하여 다양한 분야로부터 다량의 지식을 얻을 수 있다. 수집된 지식은 정형화된 형태의 지식으로 가공하여 표현되며, 그 중 W3C의 온톨로지 표준 언어인 OWL이 대표적인 정형화 표현 형식이다. 이렇게 표현된 대용량의 온톨로지로부터 내재된 정보를 도출하기 위해 다양한 방법의 심볼릭 추론(Symbolic Reasoning) 연구가 활발하게 진행되고 있다. 그러나 대부분의 추론 연구들은 서술논리(Description Logic)표현 기반의 제한적인 규칙표현을 지원하며 실생활 기반의 서비스를 구축하기에는 많은 제약이 따른다. 또한 잘못된 지식으로부터 도출된 결과는 규칙들 사이의 종속관계에 따라 연쇄적으로 잘못된 지식이 생산될 수 있기 때문에 이러한 잘못된 지식에 대한 처리를 위한 지식관리가 필요하다. 따라서 본 논문에서는 해당 문제를 해결하기 위해 SWRL(Semantic Web Rule Language) 기반의 추론과 ATMS(Assumption-based Truth Maintenance System)간의 결합을 통해 새롭게 도출된 지식에 대한 관리를 할 수 있는 SWAT(SWRL + ATMS) 시스템을 제안한다. 또한 이 시스템은 대용량 데이터를 처리하기 위해 분산 인-메모리 프레임워크 기반의 SWRL추론과 ATMS를 병합 구축하였으며 이를 바탕으로 웹 형태의 ATMS 모니터링 시스템을 통하여 사용자가 손쉽게 잘못된 지식을 검색 및 수정할 수 있도록 한다. 본 논문에서 제안하는 방법에 대한 평가를 위해 LUBM(Lehigh University Benchmark)데이터 셋을 사용하였으며, 대용량 데이터에 대한 SWRL 추론과 잘못 추론된 정보에 대한 삭제를 통해 효율적인 추론과 관리가 가능한 결합 방법임을 증명한다.

Prefix-tuning에 기반한 한국어 자연언어 처리 (Prefix-tuning for Korean Natural language processing)

  • 민진우;나승훈;신동욱;김선훈;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.622-624
    • /
    • 2021
  • 현재 BERT와 같은 대용량의 코퍼스로부터 학습된 사전 학습 언어 모델을 자연어 응용 태스크에 적용하기 위해 일반적으로 널리 사용되는 방법은 Fine-tuning으로 각 응용 태스크에 적용 시 모델의 모든 파라미터를 조정하기 때문에 모든 파라미터를 조정하는데 필요한 시간적 비용과 함께 업데이트된 파라미터를 저장하기 위한 별도의 저장공간이 요구된다. 언어 모델이 커지면 커질수록 저장 공간의 비용이 증대됨에 따라 이러한 언어모델을 효율적으로 튜닝 할 수 있는 방법들이 연구되었다. 본 연구에서는 문장의 입력 임베딩에 연속적 태스크 특화 벡터인 prefix를 추가하여 해당 prefix와 관련된 파라미터만 튜닝하는 prefix-tuning을 한국어 네이버 감성 분석 데이터 셋에 적용 후 실험결과를 보인다.

  • PDF

BERT에 기반한 Subword 단위 한국어 형태소 분석 (BERT with subword units for Korean Morphological Analysis)

  • 민진우;나승훈;신종훈;김영길
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.37-40
    • /
    • 2019
  • 한국어 형태소 분석은 입력된 문장 내의 어절들을 지니는 최소의 단위인 형태소로 분리하고 품사 부착하는 작업을 의미한다. 기존 한국어 형태소 분석 방법은 음절 기반 연구가 주를 이루고 이를 순차 태깅 문제로 보고 SVM, CRF혹은 Bi-LSTM-CRF 등을 이용하거나 특정 음절에서 형태소의 경계를 결정하는 전이 기반 모델을 통해 분석하는 모델 등이 연구되었다. 최근 자연어 처리 연구에서 대용량 코퍼스로부터 문맥을 고려한 BERT 등의 언어 모델을 활용한 연구가 각광받고 있다. 본 논문에서는 음절 단위가 아닌 BERT를 이용한 Sub-word 기반 형태소 분석 방법을 제안하고 기분석 사전을 통해 분석하는 과정을 거쳐 세종 한국어 형태소 분석 데이터 셋에서 형태소 단위 F1 : 95.22%, 어절 정확도 : 93.90%의 성능을 얻었다.

  • PDF

Content-Addressable Memory를 이용한 확장 가능한 범용 병렬 Associative Processor 설계 (Design of a scalable general-purpose parallel associative processor using content-addressable memory)

  • 박태근
    • 대한전자공학회논문지SD
    • /
    • 제43권2호
    • /
    • pp.51-59
    • /
    • 2006
  • 일반 컴퓨터에서 중앙처리장치와 메모리 사이의 병목현상인 "Von Neumann Bottleneck"을 보이는데 본 논문에서는 이러한 문제점을 해소하고 검색위주의 응용분야에서 우수한 성능을 보이는 Content-addressable memory(CAM) 기반의 확장 가능한 범용 Associative Processor(AP) 구조를 제안하였다. 본 연구에서는 Associative computing을 효율적으로 수행할 수 있는 명령어 세트를 제안하였으며 다양하고 대용량 응용분야에도 적용할 수 있도록 구조를 확장 가능하게 설계함으로써 유연한 구조를 갖는다. 12 가지의 명령어가 정의되었으며 프로그램이 효율적으로 수행될 수 있도록 명령어 셋을 구성하고 연속된 명령어를 하나의 명령어로 구현함으로써 처리시간을 단축하였다. 제안된 프로세서는 bit-serial, word-parallel로 동작하며 대용량 병렬 SIMD 구조를 갖는 32 비트 범용 병렬 프로세서로 동작한다. 포괄적인 검증을 위하여 명령어 단위의 검증 뿐 아니라 최대/최소 검색, 이상/이하 검색, 병렬 덧셈 등의 기본적인 병렬 알고리즘을 검증하였으며 알고리즘은 처리 데이터의 개수와는 무관한 상수의 복잡도 O(k)를 갖으며 데이터의 비트 수만큼의 이터레이션을 갖는다.

모바일 플랫폼에서 다중 특징 기반의 이미지 검색 (Image Retrieval using Multiple Features on Mobile Platform)

  • 이용환;조한진;이준환
    • 디지털융복합연구
    • /
    • 제12권6호
    • /
    • pp.237-243
    • /
    • 2014
  • 본 논문에서는 다양한 검색 환경과 모바일 디바이스의 센서 정보를 활용한 모바일 이미지 검색 방법을 제안하고 안드로이드 플랫폼에서 구동하는 검색 시스템을 구현하였다. 설계 개발 시스템은 JPEG 이미지를 대상으로 산업계 표준 메타데이터인 EXIF 속성과 시각적 특징을 결합한 새로운 검색 기술자이며, 검색을 위한 특징 추출 및 유사도 평가 알고리즘을 모바일 환경에 최적화한 이미지 검색 모듈이다. 실험을 통해, 대용량 이미지 데이터셋을 대상으로 안드로이드 폰에서 효율적인 이미지 검색을 수행하였음을 보였다.

Cross-lingual Post-Training (XPT)을 통한 한국어 언어모델 구축 및 비교 실험 (Korean language model construction and comparative analysis with Cross-lingual Post-Training (XPT))

  • 손수현;박찬준;이정섭;심미단;이승현;이진우;소아람;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2022년도 제34회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.295-299
    • /
    • 2022
  • 자원이 부족한 언어 환경에서 사전학습 언어모델 학습을 위한 대용량의 코퍼스를 구축하는데는 한계가 존재한다. 본 논문은 이러한 한계를 극복할 수 있는 Cross-lingual Post-Training (XPT) 방법론을 적용하여 비교적 자원이 부족한 한국어에서 해당 방법론의 효율성을 분석한다. 적은 양의 한국어 코퍼스인 400K와 4M만을 사용하여 다양한 한국어 사전학습 모델 (KLUE-BERT, KLUE-RoBERTa, Albert-kor)과 mBERT와 전반적인 성능 비교 및 분석 연구를 진행한다. 한국어의 대표적인 벤치마크 데이터셋인 KLUE 벤치마크를 사용하여 한국어 하위태스크에 대한 성능평가를 진행하며, 총 7가지의 태스크 중에서 5가지의 태스크에서 XPT-4M 모델이 기존 한국어 언어모델과의 비교에서 가장 우수한 혹은 두번째로 우수한 성능을 보인다. 이를 통해 XPT가 훨씬 더 많은 데이터로 훈련된 한국어 언어모델과 유사한 성능을 보일 뿐 아니라 학습과정이 매우 효율적임을 보인다.

  • PDF