• Title/Summary/Keyword: 모델 이해

Search Result 2,808, Processing Time 0.035 seconds

대학수학에서 함수의 합성과 합성함수의 극한에 대한 이해

  • Kim, Byeong-Mu
    • Communications of Mathematical Education
    • /
    • v.18 no.1 s.18
    • /
    • pp.289-296
    • /
    • 2004
  • 수업시간을 이용하지 않고 인터넷을 이용하여 조사와 학생 스스로 학습할 기회와 자료를 제공하여 개념을 이해할 모델을 만들어 본다. 함수의 합성과 극한에 대한 이해도를 1차로 조사한 결과는 정답율이 7.5%에 불과하여 같은 설문지에 대해 각자 공부하고 대답하도록 2차 조사를 하고, 함수의 합성과 합성함수의 극한에 대해 개념의 이해를 도우려고 그래프를 이용한 자료를 수집하여 확실하고 쉽게 이해할 기회를 제공하며 새로운 교수-학습 방법을 개발한다.

  • PDF

수학의 관계적 이해를 위한 스키마식 수업 모델 제시

  • Kim, Seong-Suk;Lee, Sang-Deok;Kim, Hwa-Su
    • Communications of Mathematical Education
    • /
    • v.14
    • /
    • pp.61-70
    • /
    • 2001
  • 수학은 추상적인 학문이다. '추상'은 몇 개 또는 무한히 많은 사물의 공통성이나 본질을 추출하여 파악하는 사고작용이다. 이렇게 추상된 것들을 모아 분류를 하고 그 다음에 이름을 붙이는 것이 바로 개념이 형성되는 과정이고 수학자가 수학을 하는 과정이다. 이 개념들은 여러 가지 모양으로 결합하여 스키마라고 부르는 개념 구조를 형성하게 되는데, 이 스키마는 수학적 사고를 하는데 매우 중요한 역할을 하여 수학을 개념적으로 이해하는데 도움을 주며, 새로운 지식을 얻는데 필요한 필수적인 도구가 된다. 본 논문에서는 연속적인 수열의 합의 공식에 대하여 학생들이 Skemp가 말한 '관계적 이해'를 할 수 있도록 스키마를 이용하여 문제를 해결할 수 있는 모델과 원주의 스키마를 이용한 생활 속의 문제를 제시하여 학생들이 공식을 암기하기보다는 수학의 구조를 파악하고 연계성을 이해함으로서 능동적인 구성활동을 유발하여 수학에 대한 흥미를 느낄 수 있도록 도움을 주고자 한다.

  • PDF

KommonGen: A Dataset for Korean Generative Commonsense Reasoning Evaluation (KommonGen: 한국어 생성 모델의 상식 추론 평가 데이터셋)

  • Seo, Jaehyung;Park, Chanjun;Moon, Hyeonseok;Eo, Sugyeong;Kang, Myunghoon;Lee, Seounghoon;Lim, Heuiseok
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.55-60
    • /
    • 2021
  • 최근 한국어에 대한 자연어 처리 연구는 딥러닝 기반의 자연어 이해 모델을 중심으로 각 모델의 성능에 대한 비교 분석과 평가가 활발하게 이루어지고 있다. 그러나 한국어 생성 모델에 대해서도 자연어 이해 영역의 하위 과제(e.g. 감정 분류, 문장 유사도 측정 등)에 대한 수행 능력만을 정량적으로 평가하여, 생성 모델의 한국어 문장 구성 능력이나 상식 추론 과정을 충분히 평가하지 못하고 있다. 또한 대부분의 생성 모델은 여전히 간단하고 일반적인 상식에 부합하는 자연스러운 문장을 생성하는 것에도 큰 어려움을 겪고 있기에 이를 해결하기 위한 개선 연구가 필요한 상황이다. 따라서 본 논문은 이러한 문제를 해결하기 위해 한국어 생성 모델이 일반 상식 추론 능력을 바탕으로 문장을 생성하도록 KommonGen 데이터셋을 제안한다. 그리고 KommonGen을 통해 한국어 생성 모델의 성능을 정량적으로 비교 분석할 수 있도록 평가 기준을 구성하고, 한국어 기반 자연어 생성 모델의 개선 방향을 제시하고자 한다.

  • PDF

Empowering Emotion Classification Performance Through Reasoning Dataset From Large-scale Language Model (초거대 언어 모델로부터의 추론 데이터셋을 활용한 감정 분류 성능 향상)

  • NunSol Park;MinHo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.59-61
    • /
    • 2023
  • 본 논문에서는 감정 분류 성능 향상을 위한 초거대 언어모델로부터의 추론 데이터셋 활용 방안을 제안한다. 이 방안은 Google Research의 'Chain of Thought'에서 영감을 받아 이를 적용하였으며, 추론 데이터는 ChatGPT와 같은 초거대 언어 모델로 생성하였다. 본 논문의 목표는 머신러닝 모델이 추론 데이터를 이해하고 적용하는 능력을 활용하여, 감정 분류 작업의 성능을 향상시키는 것이다. 초거대 언어 모델(ChatGPT)로부터 추출한 추론 데이터셋을 활용하여 감정 분류 모델을 훈련하였으며, 이 모델은 감정 분류 작업에서 향상된 성능을 보였다. 이를 통해 추론 데이터셋이 감정 분류에 있어서 큰 가치를 가질 수 있음을 증명하였다. 또한, 이 연구는 기존에 감정 분류 작업에 사용되던 데이터셋만을 활용한 모델과 비교하였을 때, 추론 데이터를 활용한 모델이 더 높은 성능을 보였음을 증명한다. 이 연구를 통해, 적은 비용으로 초거대 언어모델로부터 생성된 추론 데이터셋의 활용 가능성을 보여주고, 감정 분류 작업 성능을 향상시키는 새로운 방법을 제시한다. 제시한 방안은 감정 분류뿐만 아니라 다른 자연어처리 분야에서도 활용될 수 있으며, 더욱 정교한 자연어 이해와 처리가 가능함을 시사한다.

  • PDF

Llama2 Cross-lingual Korean with instruction and translation datasets (지시문 및 번역 데이터셋을 활용한 Llama2 Cross-lingual 한국어 확장)

  • Gyu-sik Jang;;Seung-Hoon Na;Joon-Ho Lim;Tae-Hyeong Kim;Hwi-Jung Ryu;Du-Seong Chang
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.627-632
    • /
    • 2023
  • 대규모 언어 모델은 높은 연산 능력과 방대한 양의 데이터를 기반으로 탁월한 성능을 보이며 자연어처리 분야의 주목을 받고있다. 이러한 모델들은 다양한 언어와 도메인의 텍스트를 처리하는 능력을 갖추게 되었지만, 전체 학습 데이터 중에서 한국어 데이터의 비중은 여전히 미미하다. 결과적으로 이는 대규모 언어 모델이 영어와 같은 주요 언어들에 비해 한국어에 대한 이해와 처리 능력이 상대적으로 부족함을 의미한다. 본 논문은 이러한 문제점을 중심으로, 대규모 언어 모델의 한국어 처리 능력을 향상시키는 방법을 제안한다. 특히, Cross-lingual transfer learning 기법을 활용하여 모델이 다양한 언어에 대한 지식을 한국어로 전이시켜 성능을 향상시키는 방안을 탐구하였다. 이를 통해 모델은 기존의 다양한 언어에 대한 손실을 최소화 하면서도 한국어에 대한 처리 능력을 상당히 향상시켰다. 실험 결과, 해당 기법을 적용한 모델은 기존 모델 대비 nsmc데이터에서 2배 이상의 성능 향상을 보이며, 특히 복잡한 한국어 구조와 문맥 이해에서 큰 발전을 보였다. 이러한 연구는 대규모 언어 모델을 활용한 한국어 적용 향상에 기여할 것으로 기대 된다.

  • PDF

Considerations for the Application of IMO Maritime English Model Course 3.17: General and Specialized Maritime English

  • Park, Jin-Su;Choe, Seung-Hui
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2015.07a
    • /
    • pp.278-279
    • /
    • 2015
  • 해기사의 해사영어 사용에 대한 체계적 교육의 필요성이 증가되는 가운데, 국제해사기구(IMO)는 이에 발맞추어 해사영어모델코스 3.17을 일반해사영어(General Maritime English, 즉 GME)와 특수해사영어(Specialized Maritime English, 즉 SME)로 나누어 재편하고, STCW에서 요구하는 지식, 이해 및 기술사항들을 영어교육의 다양한 요소들과 접합함으로써, 해사영어교육의 새로운 틀을 만들고자 시도하고 있다. 국내 해기교육 관련대학 및 기관이 향후 해사영어 커리큘럼을 재편성하기 위해서는, 개정될 해사영어모델코스의 주요 내용을 이해하고, 이를 국내 실정에 맞게 적용할 수 있도록 다양한 방안을 모색하는 것이 선행되어야 한다. 따라서 본 연구에서는, 국제해사기구가 제시한 해사영어모델코스 3.17의 개정 목적 및 변화된 해사영어모델코스의 틀과 방향을 살펴보고, 향후 국내교육기관에서의 해사영어교육 커리큘럼을 재편성한 후, 성공적인 언어교육서비스 제공을 하기 위해 고려해야 할 현실적인 제한 요소들을 살펴보고, 이에 대한 해결책을 모색하고자 한다.

  • PDF

Simulation of wetland storage volume using a classification-based artificial intelligence prediction model (분류 기반의 인공지능 예측 모델을 이용한 습지 저류량 모의)

  • Ji yu Seo;Ha eun Jung;Jeong Hoon Lee;Sang Dan Kim
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.270-270
    • /
    • 2023
  • 습지 생태계는 복잡한 물리적 생지화학적 프로세스의 상호작용이 있으나, 습지 생태계의 건강성 회복을 위한 첫 번째 단계는 습지 생태계에서의 물순환에 대한 정확한 이해일 것이다. 또한 지역적인 물 균형 및 생태계 보전에서 습지를 활용하기 위해서도 습지 물순환에 대한 정량적인 이해는 필수적이다. 그러나, 습지 물순환의 이해를 위해 필수적인 관측 자료들은 현장 측정으로 획득하기 어려운 자료이거나 비용적인 문제로 인하여 관측이 어려운 실정이다. 이에 본 연구에서는 Sentinel-2 위성 자료를 활용하여 습지의 유입량을 추정하기 위한 절차를 제시하고자 한다. 이를 위해 한반도 동남부의 낙동강에 위치한 주요 다목적댐의 자료를 활용한 분류 기반의 인공지능 모델이 설계된다. 인공지능의 학습을 위한 입력자료는 아래와 같은 절차에 의해 만들어진다. 1) 다목적댐의 수위-물 체적 관계를 이용하여 수위-수표면적 관계 곡선 도출. 2) 수위-수표면적 관계 곡선과 DEM을 활용하여 물과 육지 영역을 구분하는 식별자를 도출. 3) Sentinel-2 위성 정보와 물-육지 식별자를 비교하는 랜덤 포레스트 모델을 설계. 4) 위성 정보의 물-육지 정보로부터 미계측 습지 지역의 물과 육지를 식별할 수 있는 식별자 도출. 이러한 과정을 경유하여 추정된 습지의 수표면적과 습지 지역의 DEM을 결합함으로써 습지의 수위-수표면적-물 체적 관계 곡선이 산정되어, 최종적으로 습지의 유입량이 모의된다. 모의된 습지 유입량은 다양한 수문 모델의 매개변수를 추정하는데 활용될 수 있을 것이며, 검증된 수문 모델을 활용하여 습지의 물순환의 이해도를 증진시킬 수 있을 것으로 기대된다.

  • PDF

Detecting and Interpreting Terms: Focusing Korean Medical Terms (전문용어 탐지와 해석 모델: 한국어 의학용어 중심으로 )

  • Haram-Yeom;Jae-Hoon Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.407-411
    • /
    • 2022
  • 최근 COVID-19로 인해 대중의 의학 분야 관심이 증가하고 있다. 대부분의 의학문서는 전문용어인 의학용어로 구성되어 있어 대중이 이를 보고 이해하기에 어려움이 있다. 의학용어를 쉬운 뜻으로 풀이하는 모델을 이용한다면 대중이 의학 문서를 쉽게 이해할 수 있을 것이다. 이런 문제를 완화하기 위해서 본 논문에서는 Transformer 기반 번역 모델을 이용한 의학용어 탐지 및 해석 모델을 제안한다. 번역 모델에 적용하기 위해 병렬말뭉치가 필요하다. 본 논문에서는 다음과 같은 방법으로 병렬말뭉치를 구축한다: 1) 의학용어 사전을 구축한다. 2) 의학 드라마의 자막으로부터 의학용어를 찾아서 그 뜻풀이로 대체한다. 3) 원자막과 뜻풀이가 포함된 자막을 나란히 배열한다. 구축된 병렬말뭉치를 이용해서 Transformer 번역모델에 적용하여 전문용어를 찾아서 해석하는 모델을 구축한다. 각 문장은 음절 단위로 나뉘어 사전학습 된 KoCharELECTRA를 이용해서 임베딩한다. 제안된 모델은 약 69.3%의 어절단위 BLEU 점수를 보였다. 제안된 의학용어 해석기를 통해 대중이 의학문서를 좀 더 쉽게 접근할 수 있을 것이다.

  • PDF

Multi-task Learning Approach for Deep Neural Networks Using Temporal Relations (시간적 관계정보를 활용한 멀티태스크 심층신경망 모델 학습 기법)

  • Lim, Chae-Gyun;Oh, Kyo-Joong;Choi, Ho-Jin
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.211-214
    • /
    • 2021
  • 다수의 태스크를 처리 가능하면서 일반화된 성능을 제공할 수 있는 모델을 구축하는 자연어 이해 분야의 연구에서는 멀티태스크 학습 기법에 대한 연구가 다양하게 시도되고 있다. 또한, 자연어 문장으로 작성된 문서들에는 대체적으로 시간에 관련된 정보가 포함되어 있을 뿐만 아니라, 문서의 전체 내용과 문맥을 이해하기 위해서 이러한 정보를 정확하게 인식하는 것이 중요하다. NLU 분야의 태스크를 더욱 정확하게 수행하려면 모델 내부적으로 시간정보를 반영할 필요가 있으며, 멀티태스크 학습 과정에서 추가적인 태스크로 시간적 관계정보를 추출하여 활용 가능하다. 본 논문에서는, 한국어 입력문장의 시간적 맥락정보를 활용할 수 있도록 NLU 태스크들의 학습 과정에서 시간관계 추출 태스크를 추가한 멀티태스크 학습 기법을 제안한다. 멀티태스크 학습의 특징을 활용하기 위해서 시간적 관계정보를 추출하는 태스크를 설계하고 기존의 NLU 태스크와 조합하여 학습하도록 모델을 구성한다. 실험에서는 학습 태스크들을 다양하게 조합하여 성능 차이를 분석하며, 기존의 NLU 태스크만 사용했을 경우에 비해 추가된 시간적 관계정보가 어떤 영향을 미치는지 확인한다. 실험결과를 통하여 전반적으로 멀티태스크 조합의 성능이 개별 태스크의 성능보다 높은 경향을 확인하며, 특히 개체명 인식에서 시간관계가 반영될 경우에 크게 성능이 향상되는 결과를 볼 수 있다.

  • PDF

Optimizing Language Models through Dataset-Specific Post-Training: A Focus on Financial Sentiment Analysis (데이터 세트별 Post-Training을 통한 언어 모델 최적화 연구: 금융 감성 분석을 중심으로)

  • Hui Do Jung;Jae Heon Kim;Beakcheol Jang
    • Journal of Internet Computing and Services
    • /
    • v.25 no.1
    • /
    • pp.57-67
    • /
    • 2024
  • This research investigates training methods for large language models to accurately identify sentiments and comprehend information about increasing and decreasing fluctuations in the financial domain. The main goal is to identify suitable datasets that enable these models to effectively understand expressions related to financial increases and decreases. For this purpose, we selected sentences from Wall Street Journal that included relevant financial terms and sentences generated by GPT-3.5-turbo-1106 for post-training. We assessed the impact of these datasets on language model performance using Financial PhraseBank, a benchmark dataset for financial sentiment analysis. Our findings demonstrate that post-training FinBERT, a model specialized in finance, outperformed the similarly post-trained BERT, a general domain model. Moreover, post-training with actual financial news proved to be more effective than using generated sentences, though in scenarios requiring higher generalization, models trained on generated sentences performed better. This suggests that aligning the model's domain with the domain of the area intended for improvement and choosing the right dataset are crucial for enhancing a language model's understanding and sentiment prediction accuracy. These results offer a methodology for optimizing language model performance in financial sentiment analysis tasks and suggest future research directions for more nuanced language understanding and sentiment analysis in finance. This research provides valuable insights not only for the financial sector but also for language model training across various domains.