• Title/Summary/Keyword: 대규모 언어모델

Search Result 84, Processing Time 0.026 seconds

A Study on the Korean Broadcasting Speech Recognition (한국어 방송 음성 인식에 관한 연구)

  • 김석동;송도선;이행세
    • The Journal of the Acoustical Society of Korea
    • /
    • v.18 no.1
    • /
    • pp.53-60
    • /
    • 1999
  • This paper is a study on the korean broadcasting speech recognition. Here we present the methods for the large vocabuary continuous speech recognition. Our main concerns are the language modeling and the search algorithm. The used acoustic model is the uni-phone semi-continuous hidden markov model and the used linguistic model is the N-gram model. The search algorithm consist of three phases in order to utilize all available acoustic and linguistic information. First, we use the forward Viterbi beam search to find word end frames and to estimate related scores. Second, we use the backword Viterbi beam search to find word begin frames and to estimate related scores. Finally, we use A/sup */ search to combine the above two results with the N-grams language model and to get recognition results. Using these methods maximum 96.0% word recognition rate and 99.2% syllable recognition rate are achieved for the speaker-independent continuous speech recognition problem with about 12,000 vocabulary size.

  • PDF

Development of Web-based Construction-Site-Safety-Management Platform Using Artificial Intelligence (인공지능을 이용한 웹기반 건축현장 안전관리 플랫폼 개발)

  • Siuk Kim;Eunseok Kim;Cheekyeong Kim
    • Journal of the Computational Structural Engineering Institute of Korea
    • /
    • v.37 no.2
    • /
    • pp.77-84
    • /
    • 2024
  • In the fourth industrial-revolution era, the construction industry is transitioning from traditional methods to digital processes. This shift has been challenging owing to the industry's employment of diverse processes and extensive human resources, leading to a gradual adoption of digital technologies through trial and error. One critical area of focus is the safety management at construction sites, which is undergoing significant research and efforts towards digitization and automation. Despite these initiatives, recent statistics indicate a persistent occurrence of accidents and fatalities in construction sites. To address this issue, this study utilizes large-scale language-model artificial intelligence to analyze big data from a construction safety-management information network. The findings are integrated into on-site models, which incorporate real-time updates from detailed design models and are enriched with location information and spatial characteristics, for enhanced safety management. This research aims to develop a big-data-driven safety-management platform to bolster facility and worker safety by digitizing construction-site safety data. This platform can help prevent construction accidents and provide effective education for safety practices.

Enhancement of a language model using two separate corpora of distinct characteristics

  • Cho, Sehyeong;Chung, Tae-Sun
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.14 no.3
    • /
    • pp.357-362
    • /
    • 2004
  • Language models are essential in predicting the next word in a spoken sentence, thereby enhancing the speech recognition accuracy, among other things. However, spoken language domains are too numerous, and therefore developers suffer from the lack of corpora with sufficient sizes. This paper proposes a method of combining two n-gram language models, one constructed from a very small corpus of the right domain of interest, the other constructed from a large but less adequate corpus, resulting in a significantly enhanced language model. This method is based on the observation that a small corpus from the right domain has high quality n-grams but has serious sparseness problem, while a large corpus from a different domain has more n-gram statistics but incorrectly biased. With our approach, two n-gram statistics are combined by extending the idea of Katz's backoff and therefore is called a dual-source backoff. We ran experiments with 3-gram language models constructed from newspaper corpora of several million to tens of million words together with models from smaller broadcast news corpora. The target domain was broadcast news. We obtained significant improvement (30%) by incorporating a small corpus around one thirtieth size of the newspaper corpus.

Formal specification and verification of communication driver module in existing SCADA system (기존 SCADA시스템 통신모듈의 정형명세 및 검증)

  • Lee, Hyuk;Je, Jung-Kwang;Choi, Jin-Young
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.244-246
    • /
    • 2012
  • 대규모 실시간 시스템인 SCADA 시스템은 수처리, 발전, 보일러, 제철, 석유화학 등 산업전반에 걸쳐 사용되는 시스템이다. 현재는 국산화가 잘 이루어져 아직까지 큰 문제가 없는 분야이지만, 전통적인 방법론을 통해 개발된 시스템을 사용하고 있다. 복잡하고 규모가 큰 시스템에서는 전통적인 방법론으로는 잠재된 오류나 이로 인한 피해여부를 파악할 수 있는 방법이 없다. 본 논문에서는 모델기반 명세 및 검증 언어인 Statecharts를 이용해 소프트웨어공학적 기법을 SCADA 시스템의 통신 모듈에 적용시켜 시스템의 안전성과 신뢰성을 향상시키고자 한다.

Improving a CNN-based Image Annotation System Using Multi-Labeled Images (다중 레이블 이미지를 활용한 CNN기반 이미지 어노테이션 시스템의 개선)

  • Kim, Taeksoo;Kim, Sangbum
    • Annual Conference on Human and Language Technology
    • /
    • 2015.10a
    • /
    • pp.99-103
    • /
    • 2015
  • 최근 딥러닝 기술의 발전에 힘입어 이미지로부터 자동으로 관련된 단어 혹은 문장을 생성하는 연구들이 진행되고 있는데, 많은 연구들은 이미지와 단어가 1:1로 대응된 잘 정련된 학습 집합을 필요로 한다. 한편 스마트폰 보급의 확산으로 인스타그램, 폴라 등의 이미지 기반 SNS가 급속하게 성장함에 따라 인터넷에는 한 이미지의 복수개의 단어(태그)가 부착되어있는 데이터들이 폭증하고 있는 것이 현실이다. 본 논문에서는 소규모의 잘 정련된 학습 집합뿐 아니라 이러한 대규모의 다중 레이블 데이터를 같이 활용하여 이미지로부터 태그를 생성하는 개선된 CNN구조 및 학습알고리즘을 제안한다. 기존의 분류 기반 모델에 은닉층을 추가하고 새로운 학습 방법을 도입한 결과, 어노테이션 성능이 기존 모델보다 11% 이상 향상되었다.

  • PDF

A study on integration of semantic topic based Knowledge model (의미적 토픽 기반 지식모델의 통합에 관한 연구)

  • Chun, Seung-Su;Lee, Sang-Jin;Bae, Sang-Tea
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.181-183
    • /
    • 2012
  • 최근 자연어 및 정형언어 처리, 인공지능 알고리즘 등을 활용한 효율적인 의미 기반 지식모델의 생성과 분석 방법이 제시되고 있다. 이러한 의미 기반 지식모델은 효율적 의사결정트리(Decision Making Tree)와 특정 상황에 대한 체계적인 문제해결(Problem Solving) 경로 분석에 활용된다. 특히 다양한 복잡계 및 사회 연계망 분석에 있어 정적 지표 생성과 회귀 분석, 행위적 모델을 통한 추이분석, 거시예측을 지원하는 모의실험(Simulation) 모형의 기반이 된다. 본 연구에서는 이러한 의미 기반 지식모델을 통합에 있어 텍스트 마이닝을 통해 도출된 토픽(Topic) 모델 간 통합 방법과 정형적 알고리즘을 제시한다. 이를 위해 먼저, 텍스트 마이닝을 통해 도출되는 키워드 맵을 동치적 지식맵으로 변환하고 이를 의미적 지식모델로 통합하는 방법을 설명한다. 또한 키워드 맵으로부터 유의미한 토픽 맵을 투영하는 방법과 의미적 동치 모델을 유도하는 알고리즘을 제안한다. 통합된 의미 기반 지식모델은 토픽 간의 구조적 규칙과 정도 중심성, 근접 중심성, 매개 중심성 등 관계적 의미분석이 가능하며 대규모 비정형 문서의 의미 분석과 활용에 실질적인 기반 연구가 될 수 있다.

A method for constructing Knowledge of S/W Models in UML (UML 모델의 지식화 방안)

  • 김일석;양성봉
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.528-530
    • /
    • 1999
  • 컴퓨터가 인식할 수 있는 지식의 표현방식에 대한 연구는 오래전부터 인공지능 분야에서 이루어져 왔다. 현재는 대규모의 지식베이스를 구축하고 공유하기 위한 Knowledge Sharing Effort(KSE) 프로젝트가 진행중인데, 여기에서는 도메인별로 어휘와 개념을 체계적으로 정의하여 Ontology로 구축하고 있다. 이 논문에서는 객체지향 소프트웨어 개발 방법론에서 모델링언어로서 널리 받아들여지고 있는 UML을, KSE에서 표준으로 제시하고 있는 컴퓨터가 인식할 수 있는 지식의 형태인 Knowledge Interchange Format 형태로 변환하는 방법을 제시하고 이를 통해 추론과 같은 보다 유연한 지식의 처리가 가능함을 보인다.

  • PDF

High-Quality Multimodal Dataset Construction Methodology for ChatGPT-Based Korean Vision-Language Pre-training (ChatGPT 기반 한국어 Vision-Language Pre-training을 위한 고품질 멀티모달 데이터셋 구축 방법론)

  • Jin Seong;Seung-heon Han;Jong-hun Shin;Soo-jong Lim;Oh-woog Kwon
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.603-608
    • /
    • 2023
  • 본 연구는 한국어 Vision-Language Pre-training 모델 학습을 위한 대규모 시각-언어 멀티모달 데이터셋 구축에 대한 필요성을 연구한다. 현재, 한국어 시각-언어 멀티모달 데이터셋은 부족하며, 양질의 데이터 획득이 어려운 상황이다. 따라서, 본 연구에서는 기계 번역을 활용하여 외국어(영문) 시각-언어 데이터를 한국어로 번역하고 이를 기반으로 생성형 AI를 활용한 데이터셋 구축 방법론을 제안한다. 우리는 다양한 캡션 생성 방법 중, ChatGPT를 활용하여 자연스럽고 고품질의 한국어 캡션을 자동으로 생성하기 위한 새로운 방법을 제안한다. 이를 통해 기존의 기계 번역 방법보다 더 나은 캡션 품질을 보장할 수 있으며, 여러가지 번역 결과를 앙상블하여 멀티모달 데이터셋을 효과적으로 구축하는데 활용한다. 뿐만 아니라, 본 연구에서는 의미론적 유사도 기반 평가 방식인 캡션 투영 일치도(Caption Projection Consistency) 소개하고, 다양한 번역 시스템 간의 영-한 캡션 투영 성능을 비교하며 이를 평가하는 기준을 제시한다. 최종적으로, 본 연구는 ChatGPT를 이용한 한국어 멀티모달 이미지-텍스트 멀티모달 데이터셋 구축을 위한 새로운 방법론을 제시하며, 대표적인 기계 번역기들보다 우수한 영한 캡션 투영 성능을 증명한다. 이를 통해, 우리의 연구는 부족한 High-Quality 한국어 데이터 셋을 자동으로 대량 구축할 수 있는 방향을 보여주며, 이 방법을 통해 딥러닝 기반 한국어 Vision-Language Pre-training 모델의 성능 향상에 기여할 것으로 기대한다.

  • PDF

Generating Sponsored Blog Texts through Fine-Tuning of Korean LLMs (한국어 언어모델 파인튜닝을 통한 협찬 블로그 텍스트 생성)

  • Bo Kyeong Kim;Jae Yeon Byun;Kyung-Ae Cha
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.29 no.3
    • /
    • pp.1-12
    • /
    • 2024
  • In this paper, we fine-tuned KoAlpaca, a large-scale Korean language model, and implemented a blog text generation system utilizing it. Blogs on social media platforms are widely used as a marketing tool for businesses. We constructed training data of positive reviews through emotion analysis and refinement of collected sponsored blog texts and applied QLoRA for the lightweight training of KoAlpaca. QLoRA is a fine-tuning approach that significantly reduces the memory usage required for training, with experiments in an environment with a parameter size of 12.8B showing up to a 58.8% decrease in memory usage compared to LoRA. To evaluate the generative performance of the fine-tuned model, texts generated from 100 inputs not included in the training data produced on average more than twice the number of words compared to the pre-trained model, with texts of positive sentiment also appearing more than twice as often. In a survey conducted for qualitative evaluation of generative performance, responses indicated that the fine-tuned model's generated outputs were more relevant to the given topics on average 77.5% of the time. This demonstrates that the positive review generation language model for sponsored content in this paper can enhance the efficiency of time management for content creation and ensure consistent marketing effects. However, to reduce the generation of content that deviates from the category of positive reviews due to elements of the pre-trained model, we plan to proceed with fine-tuning using the augmentation of training data.

Prompt Engineering Technique for efficient use of ChatGPT (ChatGPT 를 효율적으로 사용하기 위한 Prompt Engineering 기법 )

  • Gyeong-Won Jang;Seong-Soo Han
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.595-597
    • /
    • 2023
  • 대규모 언어 모델에 기반한 AI 챗봇인 ChatGPT 의 사용과 출력 품질을 개선하는 데 있어 Prompt Engineering 의 중요성이 확대되고 있다. Prompt Engineering 은 AI 모델에서 보다 정확하고 관련성 높은 응답을 생성하기 위해 프롬프트의 요소를 선택하고 구성하는 작업을 포함한다. 본 논문에서는 ChatGPT 에서 정보나 답변을 효과적으로 추출하는 데 사용할 수 있는 다양한 Prompt Engineering 기법을 소개하고 이러한 기법이 실제 시나리오에 어떻게 적용될 수 있는지에 대한 예를 제공한다.