• 제목/요약/키워드: 문장 의미 비교

검색결과 147건 처리시간 0.023초

언어적 특징을 반영한 한국어 프레임넷 확장 및 개선 (Expansion and Improvement of Korean FrameNet utilizing linguistic features)

  • 김정욱;최기선
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2016년도 제28회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.85-89
    • /
    • 2016
  • 프레임넷 (FrameNet) 프로젝트는 버클리에서 1997년에 처음 제안했으며, 최근에는 다양한 언어적 특징을 반영하여 여러 국가에서 사용되고 있다. 하지만 문장의 프레임을 분석하는 것은 자연언어처리 전문가들이 많은 시간을 들여야 한다. 이 때문에, 한국어 프레임넷을 처음 만들 때는 충분한 훈련을 받은 번역가들이 영어 프레임넷의 문장들과 그 주석 정보들을 직접 번역하는 방법을 사용했다. 결과적으로 상대적으로 적은 비용이 들지만, 여전히 한 문장에 여러 번 등장하는 프레임 정보를 모두 번역하고 에러를 분석해야 했기에 많은 노력이 들어갔다. 본 연구에서는 일본어와 한국어의 언어적 유사성을 사용하여 비교적 적은 비용으로 한국어 프레임넷을 확장하는 방법을 제시한다. 또한 프레임넷에 친숙하지 않은 사용자가 더욱 쉽게 프레임 정보를 활용할 수 있도록 PubAnnotation 기술을 도입하고 "조사"라는 특성을 고려한 Valence pattern 분류를 통해 한국어 공개 프레임넷 사이트를 개선하였다.

  • PDF

사전 뜻말이에서 추출한 의미 정보에 기반한 의미 중의성 해결 (word-sense Disambiguation based on Semantic Informations extracted from Definitions in Dictonary)

  • 허정;옥철영
    • 한국인지과학회:학술대회논문집
    • /
    • 한국인지과학회 2000년도 한글 및 한국어 정보처리
    • /
    • pp.269-276
    • /
    • 2000
  • 본 연구에서는 사전의 뜻말이에서 의미 정보를 추출하고, 이 의미 정보를 확률 통계적 방법에 적용하여 의미 중의성을 해결하는 모델을 제안한다. 사전의 뜻풀이말에 동형이의어를 포함하고 있는 표제어와 뜻풀이말을 구성하는 보통 명사, 형용사와 동사를 의미 정보로 추출한다. 비교적 중의성이 자주 발생하는 9개의 동형이의어 명사를 대상으로 실험하였다. 학습에 이용된 데이터로 정확률을 실험하는 내부 실험의 결과, 체언류(보통 명사)와 용언류(동사, 형용사)의 가중치를 0.9/0.1로 주는 것이 가장 정확률이 높았다. 외부 실험은 국어 정보베이스와 ETRI 코퍼스를 이용하여 1,796문장을 실험하였는데, 평균 79.73%의 정확률을 보였다.

  • PDF

사전 뜻풀이말에서 추출한 의미 정보에 기반한 의미 중의성 해결 (Word-Sense Disambiguation based on Semantic Informations extracted from Definitions in Dictionary)

  • 허정;옥철영
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2000년도 제12회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.269-276
    • /
    • 2000
  • 본 연구에서는 사전의 뜻풀이말에서 의미 정보를 추출하고, 이 의미 정보를 확률 통계적 방법에 적용하여 의미 중의성을 해결하는 모델을 제안한다. 사전의 뜻풀이말에 동형이의어를 포함하고 있는 표제어와 뜻풀이말을 구성하는 보통 명사, 형용사와 동사를 의미 정보로 추출한다. 비교적 중의성이 자주 발생하는 9개의 동형이의어 명사를 대상으로 실험하였다. 학습에 이용된 데이터로 정확률을 실험하는 내부 실험의 결과, 체언류(보통 명사)와 용언류(동사, 형용사)의 가중치를 0.9/0.1로 주는 것이 가장 정확률이 높았다. 외부 실험은 국어 정보베이스와 ETRI 코퍼스를 이용하여 1,796문장을 실험하였는데, 평균 79.73%의 정확률을 보였다.

  • PDF

대순진리회 도기(道旗)의 상징과 의미 (The Symbolism and Significance of the Dao Flag in Daesoon Jinrihoe)

  • 최치봉
    • 대순사상논총
    • /
    • 제43집
    • /
    • pp.103-137
    • /
    • 2022
  • 종교상징에서 '문장(紋章, emblem)'은 '상징적 표지(標識, symbol mark)'로서 다른 대상이나 종교를 구별하게 한다. 또한 특정 종교를 확정하고 인식할 수 있게 하는 표상적(表象的) 혹은 개념적 특성을 가지게 한다. 한국의 대표적 민족 종단인 대순진리회 역시 상징이 되는 문장이 존재한다. 하지만 이 상징에 대한 공식 명칭은 없으며, 이 문장의 도안이 도기(道旗)로 제작되어 알려져 있다. 이 문장의 도안은 1978년 5월 11일 제작되었고, 이후 같은 해 10월 20일에 공식 게양되어 지금에 이르고 있다. 도기에 있는 대순진리회의 문장은 종단의 상징적 표지로서 종단과 관련한 여러 디자인에 활용되고 있지만, 이에 관한 학술 연구는 현재까지 이루어지지 않았다. 그리하여 본 논문은 기존의 도기 관련 자료들을 비교 정리하고, 나아가 현시점에서 대순진리회의 문장과 이 문장을 담고 있는 도기의 상징과 의미를 어떻게 바라보아야 할 것인지 대하여 언급하고자 한다. 물론 이는 상징이 가지는 다의성(多意性)으로 인한, 문장의 의미에 관한 하나의 관점을 제안하고자 하는 것이다. 본 글에서 대순, 삼원(三圓), 사대(四大), 중앙의 도안을 각각 제시하였는데, 이렇게 상정할 때 기존의 도기 해석보다 더 풍부한 상징성을 가질 수 있고, 그에 따른 대순사상적 의미를 도출해 낼 수 있음을 살펴보았다. 이러한 시도로 인하여 기존과는 구별되는 상징과 의의를 살펴보자면, 첫째로 문장의 중심을 이루는 원을 지원(地圓)이나 인원(人圓)이 아닌 대순의 중심이라고 언급하여, 천지인의 중심과 그 근본을 이루는 무극과 태극의 상징성을 도출해 내었다는 것이다. 둘째는 중앙에서 토(土)의 상징을 인원과 분리해 그 중화와 조화의 상징을 사대절로 드러내었다. 셋째는 원에 있는 돌기의 방향성을 통해 그 의미를 도출한 것이다.

곱셈과 나눗셈 문장제 유형에 따른 문제해결능력 (An Analysis on Problem Solving Ability of 3rd Grade Types of Multiplication and Division Word Problem)

  • 임자선;김성준
    • 한국초등수학교육학회지
    • /
    • 제19권4호
    • /
    • pp.501-525
    • /
    • 2015
  • 본 논문은 2009 개정 교육과정 초등학교 3학년 수학 교과서와 익힘책에 제시된 곱셈과 나눗셈 문장제를 유형별로 분석하고, 초등학교 4학년 학생을 대상으로 문장제 유형에 따른 문제해결능력을 살펴봄으로써 곱셈과 나눗셈 문장제의 효율적인 지도 방안을 생각해보기 위한 것이다. 이를 위해 먼저 초등학교 3학년 수학 교과서와 익힘책에 제시된 자연수의 곱셈 문장제를 동수누가, 비율, 비교, 정렬, 조합의 5가지 의미 유형으로, 나눗셈은 등분제와 포함제의 2가지 유형으로 구분하여 살펴보았다. 이와 함께 곱셈과 나눗셈 문장제에서 미지수의 위치에 따라 처음량, 변화량, 결과량을 묻는 문장제의 구문 유형에 대해서도 살펴보았다. 그런 다음 4학년 학생을 대상으로 문장제 문제해결능력 검사 도구를 개발하였는데, 앞서 분석한 곱셈과 나눗셈의 문장제 유형을 의미와 구문으로 나누어 2차례의 검사를 실시하여 정답률과 학생들의 오답 반응 등을 분석하였다. 분석 결과 곱셈은 동수누가에서의 정답률이 높게 나온 반면 나눗셈의 경우 포함제와 등분제에서 차이를 보이지 않았는데, 이는 교과서의 문제 유형 분포와 상관관계를 보임을 알 수 있다. 이러한 논의를 바탕으로 곱셈과 나눗셈 문장제의 효과적인 지도와 학생들의 문장제 문제해결능력을 향상시키기 위해 다양한 유형의 문장제를 제시할 필요가 있음을 제안하고 있다.

BiLSTM 모델과 형태소 자질을 이용한 서술어 인식 방법 (Predicate Recognition Method using BiLSTM Model and Morpheme Features)

  • 남충현;장경식
    • 한국정보통신학회논문지
    • /
    • 제26권1호
    • /
    • pp.24-29
    • /
    • 2022
  • 정보 추출 및 질의응답 시스템 등 다양한 자연어 처리 분야에서 사용되는 의미역 결정은 주어진 문장과 서술어에 대해 서술어와 연관성 있는 논항들의 관계를 파악하는 작업이다. 입력으로 사용되는 서술어는 형태소 분석과 같은 어휘적 분석 결과를 이용하여 추출하지만, 한국어 특성상 문장의 의미에 따라 다양한 패턴을 가질 수 있기 때문에 모든 언어학적 패턴을 만들 수 없다는 문제점이 있다. 본 논문에서는 사전에 언어학적 패턴을 정의하지 않고 신경망 모델과 사전 학습된 임베딩 모델 및 형태소 자질을 추가한 한국어 서술어를 인식하는 방법을 제안한다. 실험은 모델의 변경 가능한 파라미터에 대한 성능 비교, 임베딩 모델과 형태소 자질의 사용 유무에 따른 성능 비교를 하였으며, 그 결과 제안한 신경망 모델이 92.63%의 성능을 보였음을 확인하였다.

KRBERT 임베딩 층에 따른 의미역 결정 (Layerwise Semantic Role Labeling in KRBERT)

  • 서혜진;박명관;김유희
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.617-621
    • /
    • 2021
  • 의미역 결정은 문장 속에서 서술어와 그 논항의 관계를 파악하며, '누가, 무엇을, 어떻게, 왜' 등과 같은 의미역 관계를 찾아내는 자연어 처리 기법이다. 최근 수행되고 있는 의미역 결정 연구는 주로 말뭉치를 활용하여 딥러닝 학습을 하는 방식으로 연구가 이루어지고 있다. 최근 구글에서 개발한 사전 훈련된 Bidirectional Encoder Representations from Transformers (BERT) 모델이 다양한 자연어 처리 분야에서 상당히 높은 성능을 보이고 있다. 본 논문에서는 한국어 의미역 결정 성능 향상을 위해 한국어의 언어적 특징을 고려하며 사전 학습된 SNU KR-BERT를 사용하면서 한국어 의미역 결정 모델의 성능을 살펴보였다. 또한, 본 논문에서는 BERT 모델에서 과연 어떤 히든 레이어(hidden layer)에서 한국어 의미역 결정을 더 잘 수행하는지 알아보고자 하였다. 실험 결과 마지막 히든 레이어 임베딩을 활용하였을 때, 언어 모델의 성능은 66.4% 였다. 히든 레이어 별 언어 모델 성능을 비교한 결과, 마지막 4개의 히든 레이어를 이었을 때(concatenated), 언어 모델의 성능은 67.9% 이였으며, 11번째 히든 레이어를 사용했을 때는 68.1% 이였다. 즉, 마지막 히든 레이어를 선택했을 때보다 더 성능이 좋았다는 것을 알 수 있었다. 하지만 각 언어 모델 별 히트맵을 그려보았을 때는 마지막 히든 레이어 임베딩을 활용한 언어 모델이 더 정확히 의미역 판단을 한다는 것을 알 수 있었다.

  • PDF

단어 쓰임새 정보와 신경망을 활용한 한국어 Hedge 인식 (Korean Hedge Detection Using Word Usage Information and Neural Networks)

  • 임미영;강신재
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권9호
    • /
    • pp.317-325
    • /
    • 2017
  • 본 논문에서는 한국어 문장을 대상으로 불확실한 사실이나 개인적인 추측으로 인해 중요하지 않다고 판단되는 문장, 즉 Hedge 문장들을 분류해 내고자 한다. 기존 영어권 연구에서는 Hedge 문장들을 분류할 때 단어의 의존관계 정보가 여러 형태로 활용되고 있으나, 한국어 연구에서는 사용되고 있지 않음을 확인하였다. 또 기존의 워드 임베딩(Word Embedding) 기법에서 단어의 쓰임새 정보가 학습된다는 점을 인지하였다. 단어의 쓰임새 정보가 어느 정도 의존관계를 표현할 수 있을 것으로 보고 워드 임베딩 정보를 Hedge 분류 실험에 적용하였다. 기존에 많이 사용되던 SVM과 CRF를 baseline 시스템으로 활용하였고 워드 임베딩과 신경망을 사용하여 비교실험을 하였다. 워드임베딩 데이터는 세종데이터와 온라인에서 수집된 데이터를 합하여 총 150여만 문장을 사용하였고 Hedge 분류 데이터는 수작업으로 구축한 12,517 문장의 뉴스데이터를 사용하였다. 워드 임베딩을 사용한 시스템이 SVM보다 7.2%p, CRF보다 1.6%p 좋은 성능을 내는 것을 확인하였다. 이는 단어의 쓰임새 정보가 한국어 Hedge 분류에서 긍정적인 영향을 미친다는 것을 의미한다.

한국어 의존 구문 분석의 분석 단위에 관한 실험적 연구 (Empirical Research on Segmentation Method for Korean Dependency Parsing)

  • 이진우;조혜미;박수연;신효필
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.427-432
    • /
    • 2021
  • 현재 한국어 의존 구문 분석의 표준은 어절 단위로 구문 분석을 수행하는 것이다. 그러나 의존 구문 분석의 분석 단위(어절, 형태소)에 대해서는 현재까지 심도 있는 비교 연구가 진행된 바 없다. 본 연구에서는 의존 구문 분석의 분석 단위가 자연어 처리 분야의 성능에 유의미한 영향을 끼침을 실험적으로 규명한다. STEP 2000과 모두의 말뭉치를 기반으로 구축한 형태소 단위 의존 구문 분석 말뭉치를 사용하여, 의존 구문 분석기 모델 및 의존 트리를 입력으로 활용하는 문장 의미 유사도 분석(STS) 및 관계 추출(RE) 모델을 학습하였다. 그 결과, KMDP가 기존 어절 단위 구문 분석과 비교하여 의존 구문 분석기의 성능과 응용 분야(STS, RE)의 성능이 모두 유의미하게 향상됨을 확인하였다. 이로써 형태소 단위 의존 구문 분석이 한국어 문법을 표현하는 능력이 우수하며, 문법과 의미를 연결하는 인터페이스로써 높은 활용 가치가 있음을 입증한다.

  • PDF

자연 언어의 장기 의존성을 고려한 심층 학습 모델 (Deep learning model that considers the long-term dependency of natural language)

  • 박찬용;최호진
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2018년도 제30회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.281-284
    • /
    • 2018
  • 본 논문에서는 machine reading 분야에서 기존의 long short-term memory (LSTM) 모델이 가지는 문제점을 해결하는 새로운 네트워크를 제안하고자 한다. 기존의 LSTM 모델은 크게 두가지 제한점을 가지는데, 그 중 첫째는 forget gate로 인해 잊혀진 중요한 문맥 정보들이 복원될 수 있는 방법이 없다는 것이다. 자연어에서 과거의 문맥 정보에 따라 현재의 단어의 의미가 크게 좌지우지될 수 있으므로 올바른 문장의 이해를 위해 필요한 과거 문맥의 정보 유지는 필수적이다. 또 다른 문제는 자연어는 그 자체로 단어들 간의 복잡한 구조를 통해 문장이 이루어지는 반면 기존의 시계열 모델들은 단어들 간의 관계를 추론할 수 있는 직접적인 방법을 가지고 있지 않다는 것이다. 본 논문에서는 최근 딥 러닝 분야에서 널리 쓰이는 attention mechanism과 본 논문이 제안하는 restore gate를 결합한 네트워크를 통해 상기 문제를 해결하고자 한다. 본 논문의 실험에서는 기존의 다른 시계열 모델들과 비교를 통해 제안한 모델의 우수성을 확인하였다.

  • PDF