• Title/Summary/Keyword: 생성형 모델

Search Result 811, Processing Time 0.034 seconds

Research on the use of educational content in generative AI (생성형 AI 의 교육용 컨텐츠 활용을 위한 연구)

  • Lee-Seung Ryul;Oh-Tae hoon
    • Annual Conference of KIPS
    • /
    • 2023.11a
    • /
    • pp.936-937
    • /
    • 2023
  • 본 논문에서는 LLM(Large Language Model) 모델의 fine-tuning 을 통한, 기초 수리 서술형 문항 풀이용 모델 및 Dall-E2 등 이미지 생성형 모델을 활용한 따른 영어 퀴즈풀이용 이미지 생성형 모델을 생성하여, 한국어 기반 LLM 자체 모델 학습 및 교육용 이미지 생성에 대한 방법을 고찰하였다.

Relation Extraction using Generative Language Models (생성형 언어모델을 이용한 관계추출)

  • Jeong Heo;Jong-Hun Shin;Soo-Jong Lim;Oh-Woog Kwon
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.707-710
    • /
    • 2023
  • 관계추출은 문장 내 두 개체 간의 의미적 관계를 추론하는 자연어분석 태스크이다. 딥러닝의 발전과 더불어 관계추출은 BERT 계열의 이해형 언어모델을 이용하였다. 그러나, ChatGPT의 혁신적인 등장과 함께, GPT계열의 생성형 언어모델에 대한 연구가 활발해졌다. 본 논문에서는 소규모의 생성형 언어모델(Kebyt5)을 이용하여 관계추출 성능개선을 위한 프롬프트 구성 및 생각의 사슬(CoT) 학습 방법을 제안한다. 실험결과 Kebyt5-large 모델에서 CoT 학습을 수행하였을 경우, Klue-RoBERTa-base 모델보다 3.05%의 성능개선이 있었다.

  • PDF

Interactions of Retriever and LLM on Chain-of-Thought Reasoning for Korean Question Answering (검색모델과 LLM의 상호작용을 활용한 사고사슬 기반의 한국어 질의응답)

  • Minjun Park;Myoseop Sim;Kyungkoo Min;Jooyoung Choi;Haemin Jung;Stanley Jungkyu Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.618-621
    • /
    • 2023
  • 최근 거대언어모델(LLM)이 기계 번역 및 기계 독해를 포함한 다양한 문제들에서 높은 성능을 보이고 있다. 특히 프롬프트 기반의 대규모 언어 모델은 사고사슬 방식으로 적절한 프롬프팅을 통해 원하는 형식의 답변을 생성할 수 있으며 자연어 추론 단계에서도 높은 정확도를 보여주고 있다. 그러나 근본적으로 LLM의 매개변수에 질문에 관련된 지식이 없거나 최신 정보로 업데이트 되지 않은 경우 추론이 어렵다. 이를 해결하기 위해, 본 연구는 검색문서와 생성모델의 상호작용을 통해 답변하는 한국어 질의응답 모델을 제안한다. 검색이 어려운 경우 생성형 모델을 통해 질문과 관련된 문장을 생성하며, 이는 다시 검색모델과 추론 과정에서 활용된다. 추가로 "판단불가"라는 프롬프팅을 통해 모델이 답변할 수 없는 경우를 스스로 판단하게 한다. 본 연구결과에서 GPT3를 활용한 사고사슬 모델이 63.4의 F1 점수를 보여주며 생성형 모델과 검색모델의 융합이 적절한 프롬프팅을 통해 오픈-도메인 질의응답에서 성능의 향상을 보여준다.

  • PDF

Evaluating Table QA with Generative Language Models (생성형 언어모델을 이용한 테이블 질의응답 평가)

  • Kyungkoo Min;Jooyoung Choi;Myoseop Sim;Haemin Jung;Minjun Park;Jungkyu Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.75-79
    • /
    • 2023
  • 문서에서 테이블은 중요한 정보들을 축약하여 모아 놓은 정보 집합체라고 할 수 있다. 이러한 테이블을 대상으로 질의응답하는 테이블 질의응답 기술이 연구되고 있으며, 이 중 언어모델을 이용한 연구가 좋은 결과를 보이고 있다. 본 연구에서는 최근 주목받고 있는 생성형 언어모델 기술을 테이블 질의응답에 적용하여 언어모델과 프롬프트의 변경에 따른 결과를 살펴보고, 단답형 정답과 생성형 결과의 특성에 적합한 평가방법으로 측정해 보았다. 자체 개발한 EXAONE 1.7B 모델의 경우 KorWiki 데이터셋에 대해 적용하여 EM 92.49, F1 94.81의 결과를 얻었으며, 이를 통해 작은 크기의 모델을 파인튜닝하여 GPT-4와 같은 초거대 모델보다 좋은 성능을 보일 수 있음을 확인하였다.

  • PDF

Generating a Correct Environment Model for Reactive System (반응형 시스템을 위한 올바른 환경 모델의 생성)

  • Kwon, Ryoungkwo;Kwon, Gihwon
    • Annual Conference of KIPS
    • /
    • 2012.11a
    • /
    • pp.1543-1546
    • /
    • 2012
  • 반응형 시스템은 외부 환경과 지속적으로 상호작용하는 시스템이다. 반응형 시스템이 요구 사항을 만족하는지를 검사하기 위해서 상호 작용을 수행할 환경 모델을 구축 해야 한다. 환경 모델은 반응형 시스템에게 항상 올바른 입력들을 제공 해야만 검사 결과의 신뢰성을 보장할 수 있기 때문에 올바른 입력들을 포함하는 것은 매우 중요하다. GR(1) Synthesis 는 수학적 정형 기법으로써 논리식으로 표현된 요구 사항을 보장할 수 있는 모델을 자동으로 생성할 수 있다. 이 기법을 이용하여 올바른 환경 모델을 생성하고 반응형 시스템에게 올바른 환경의 입력들을 자동으로 제공 함으로써 반응형 시스템의 행위가 올바른지를 환경 모델 상에서 검사하였다. 또한 사례 연구를 통해 환경 모델을 이용한 검사가 기존 방법에 비해 우수함을 알 수 있었다.

Systematic VxWorks-based Code Generation from Timed Automata Model (타임드 오토마타 모델로부터 체계적인 VxWorks 기반 코드 생성)

  • Choi, Jin-Ho;Jee, Eun-Kyoung;Bae, Doo-Hwan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.138-140
    • /
    • 2012
  • 타임드 오토마타 모델 기반 개발 방법을 지원하는 TIMES 도구는 실시간 소프트웨어에 대한 타임드 오토마타 모델 명세, 시뮬레이션, 검증, BrickOS 기반 코드 생성을 지원한다. 하지만 BrickOS 기반 코드는 엄격한 실시간 제약성 만족을 지원하지 않아서 실시간 내장형 소프트웨어 개발에 그대로 사용하기가 어렵다. 본 논문에서는 타임드 오토마타 모델로부터 실시간 내장형 소프트웨어 구현에 사용될 수 있는 VxWorks 기반 코드를 체계적으로 생성하기 위한 방법을 제안한다. TIMES 도구를 사용해 자동 생성된 BrickOS 기반 코드에서 플랫폼 독립적인 코드는 활용하고, 플랫폼 의존적인 코드들을 분류해 내어 각각 VxWorks 기반 코드로 변환하는 방법을 제안한다. 내장형 소프트웨어 개발시 타임드 오토마타 모델 기반 개발 방법의 적용 가능성을 확인하기 위해 변환 항목들을 통해 생성된 VxWorks 기반 코드에 대한 테스트를 수행하고 결과를 분석한다.

Knowledge-Grounded Dialogue Generation Using Prompts Combined with Expertise and Dialog Policy Prediction (전문 지식 및 대화 정책 예측이 결합된 프롬프트를 활용한 지식 기반 대화 생성)

  • Eojin Joo;Chae-Gyun Lim;DoKyung Lee;JunYoung Youn;Joo-Won Sung;Ho-Jin Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.409-414
    • /
    • 2023
  • 최근 지식 기반 대화 생성에 많은 연구자가 초점을 맞추고 있다. 특히, 특정 도메인에서의 작업 지향형 대화 시스템을 구축하는 것은 다양한 도전 과제가 있으며, 이 중 하나는 거대 언어 모델이 입력과 관련된 지식을 활용하여 응답을 생성하는 데 있다. 하지만 현재 거대 언어 모델은 작업 지향형 대화에서 단순히 정보를 열거하는 방식으로 응답을 생성하는 경향이 있다. 이 논문에서는 전문 지식과 대화 정책 예측 모델을 결합한 프롬프트를 제시하고 작업 지향형 대화에서 사용자의 최근 입력에 대한 정보 제공 및 일상 대화를 지원하는 가능성을 탐구한다. 이러한 새로운 접근법은 모델 파인튜닝에 비해 비용 측면에서 효율적이며, 향후 대화 생성 분야에서 발전 가능성을 제시한다.

  • PDF

Intrusion Detection Model based on Intelligent System (지능형 시스템기반의 침입탐지모델)

  • 김명준;양지흥;한명묵
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.12a
    • /
    • pp.243-248
    • /
    • 2002
  • 빠르게 변해 가는 정보화사회에서 침입 탐지 시스템은 정밀성과 적웅성, 그리고 확장성을 필요로 한다. 또한 복잡한 Network 환경에서 중요하고 기밀성이 유지되어야 할 리소스를 보호하기 위해, 더욱 구조적이고 지능적인 IDS(Intrusion Detection System)개발의 필요성이 요구되고 있다. 본 연구는 이를 위한, 지능적인 IDS를 위해 침입패턴을 생성하기 위한 모델을 도출함에 목적이 있다. 침입 패턴은 방대한 양의 데이터를 갖게 되고, 이를 정확하고 효율적으로 관리하기 위해서 데이터마이닝의 주요 2분야인 Link analysis와 Sequence analysis를 이용하여 정확하고 신뢰성 있는 침입규칙을 생성하기 위한 모델을 도출해낸다 이 모델은 "Time Based Traffic Model", "Host Based Traffic Model", "Content Model"로 각각 상이한 침입 패턴을 생성하게 된다. 이 모델을 이용하면 좀더 효율적이고 안정적으로 패턴을 생성 할 수 있다, 즉 지능형 시스템기반의 침입 탐지 모델을 구현할 수 있다. 이러한 모델로 생성한 규칙은 침입데이터를 대표하는 규칙이 되고, 이는 비정상 사용자와 정상 사용자를 분류하게 된다 모델에 사용된 데이터는 KDD컨테스트의 데이터를 이용하였다. 사용된 데이터는 KDD컨테스트의 데이터를 이용하였다.

In-Context Retrieval-Augmented Korean Language Model (In-Context 검색 증강형 한국어 언어 모델)

  • Sung-Min Lee;Joung Lee;Daeryong Seo;Donghyeon Jeon;Inho Kang;Seung-Hoon Na
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.443-447
    • /
    • 2023
  • 검색 증강형 언어 모델은 입력과 연관된 문서들을 검색하고 텍스트 생성 과정에 통합하여 언어 모델의 생성 능력을 강화한다. 본 논문에서는 사전 학습된 대규모 언어 모델의 추가적인 학습 없이 In-Context 검색 증강으로 한국어 언어 모델의 생성 능력을 강화하고 기존 언어 모델 대비 성능이 증가함을 보인다. 특히 다양한 크기의 사전 학습된 언어 모델을 활용하여 검색 증강 결과를 보여 모든 규모의 사전 학습 모델에서 Perplexity가 크게 개선된 결과를 확인하였다. 또한 오픈 도메인 질의응답(Open-Domain Question Answering) 과업에서도 EM-19, F1-27.8 향상된 결과를 보여 In-Context 검색 증강형 언어 모델의 성능을 입증한다.

  • PDF

Generative Korean Inverse Text Normalization Model Combining a Bi-LSTM Auxiliary Model (Bi-LSTM 보조 신경망 모델을 결합한 생성형 한국어 Inverse Text Normalization 모델)

  • Jeongje Jo;Dongsu Shin;Kyeongbin Jo;Youngsub Han;Byoungki Jeon
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.716-721
    • /
    • 2023
  • Inverse Text Normalization(ITN) 모델은 음성 인식(STT) 엔진의 중요한 후처리 영역 중 하나이며, STT 인식 결과의 가독성을 개선한다. 최근 ITN 모델에 심층신경망을 활용한 연구가 진행되고 있다. 심층 신경망을 사용하는 대부분의 선행연구는 문장 내 변환이 필요한 부분에 토큰 태깅을 진행하는 방식이다. 그러나 이는 Out-of-vocabulary(OOV) 이슈가 있으며, 학습 데이터 구축 시 토큰 단위의 섬세한 태깅 작업이 필요하다는 한계점이 존재한다. 더불어 선행 연구에서는 STT 인식 결과를 그대로 사용하는데, 이는 띄어쓰기가 중요한 한국어 ITN 처리에 변환 성능을 보장할 수 없다. 본 연구에서는 BART 기반 생성 모델로 생성형 ITN 모델을 구축하였고, Bi-LSTM 기반 보조 신경망 모델을 결합하여 STT 인식 결과에 대한 고유명사 처리, 띄어쓰기 교정 기능을 보완한 모델을 제안한다. 또한 보조 신경망을 통해 생성 모델 처리 여부를 판단하여 평균 추론 속도를 개선하였다. 실험을 통해 두 모델의 각 정량 성능 지표에서 우수한 성능을 확인하였고 결과적으로 본 연구에서 제안하는 두 모델의 결합된 방법론의 효과성을 제시하였다.

  • PDF