• Title/Summary/Keyword: 조정모델

Search Result 1,230, Processing Time 0.026 seconds

Control Net Generation for Parametric control of freeform shape (자유형상의 파라메트릭 변형을 위한 조정 다각형 생성)

  • 박현풍;이관행
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.667-669
    • /
    • 2003
  • 특징 형상의 조합으로 표현될 수 없는 자유 형상을 가진 제품이 늘어남에 따라 자유형상을 효율적으로 변형시키는 기법이 필요하다. 여러 가지 자유형상 변형기법(FFD) 가운데에서 자유 형상을 파라메트릭하게 컨트롤하기 위해서는 조정 다각형 기반의 형상 변형 기법이 적합하다. 이에 따라 본 연구에서는 FFD 기법을 적용하여 자유형상 모델을 파라메트릭하게 컨트롤하기 위해 입력 모델에 대한 조정 다각형을 자동으로 생성하는 알고리즘을 제안하였다. 제안된 알고리즘은 크게 기본 조정 다각형 생성과 조정 다각형 최적화 단계로 나누어진다. 기본 다각형 생성에서는 1)입력모델을 직교 3방향에 투영, 2)투영된 결과에 대해 2차원 조정 다각형을 생성, 3)2차원 조정 다각형을 조합하여 3차원 기본 조정 다각형 생성의 단계를 거친다. 조정 다각형 최적화 단계에서는 기본 조정 다각형에 에지 및 면 연산자를 적용하여 입력 모델에 더욱 근사하는 최종 조정 다각형을 생성한다. 예제에서는 제안된 알고리즘을 통해 자동으로 생성된 조정다각형을 자동차 모델에 적용하여 모델의 형상을 변화시킨 결과를 보였다.

  • PDF

LCCA-embedded Monte Carlo Approach for Modeling Pay Adjustment at the State DOTs (도로공사에서 생애주기비용을 사용한 지급조정모델 개발에 관한 연구)

  • Choi Jae-ho
    • Proceedings of the Korean Institute Of Construction Engineering and Management
    • /
    • autumn
    • /
    • pp.72-77
    • /
    • 2002
  • The development of a Pay Adjustment (PA) procedure for implementing Performance-related Specifications (PRS) is known to be a difficult task faced by most State Highway Agencies (SHAs) due to the difficulty in such areas as selecting pay factor items, modeling the relationship between stochastic variability of pay factor items and pavement performance, and determining an overall lot pay adjustment. This led to the need for an effective way of developing a scientific pay adjustment procedure by incorporating Life Cycle Cost Analysis (LCCA) embedded Monte Carlo approach. In this work, we propose a prototype system to determine a PA specifically using the data in the pavement management information systems at Wisconsin Department of Transportation (WisDOT) as an exemplary to other SHAs. It is believed that the PRS methodology demonstrated in this study can be used in real projects by incorporating the more accurate and reliable performance prediction models and LCC model.

  • PDF

TOEIC Model Training Through Template-Based Fine-Tuning (템플릿 기반 미세조정을 통한 토익 모델 훈련)

  • Jeongwoo Lee;Hyeonseok Moon;Kinam Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.324-328
    • /
    • 2022
  • 기계 독해란 주어진 문서를 이해하고 문서 내의 내용에 대한 질문에 답을 추론하는 연구 분야이며, 기계 독해 문제의 종류 중에는 여러 개의 선택지에서 질문에 대한 답을 선택하는 객관식 형태의 문제가 존재한다. 이러한 자연어 처리 문제를 해결하기 위해 기존 연구에서는 사전학습된 언어 모델을 미세조정하여 사용하는 방법이 널리 활용되고 있으나, 학습 데이터가 부족한 환경에서는 기존의 일반적인 미세조정 방법으로 모델의 성능을 높이는 것이 제한적이며 사전학습된 의미론적인 정보를 충분히 활용하지 못하여 성능 향상에 한계가 있다. 이에 본 연구에서는 기존의 일반적인 미세조정 방법에 템플릿을 적용한 템플릿 기반 미세조정 방법을 통해 사전학습된 의미론적인 정보를 더욱 활용할 수 있도록 한다. 객관식 형태의 기계 독해 문제 중 하나인 토익 문제에 대해 모델을 템플릿 기반 미세조정 방법으로 실험을 진행하여 템플릿이 모델 학습에 어떠한 영향을 주는지 확인하였다.

  • PDF

Development of Reference Epoch Adjustment Model for Correction of GPS Precise Point Positioning Results (GPS 정밀단독측위 성과의 보정을 위한 기준시점 조정모델 개발)

  • Sung, Woo-Jin;Yun, Hong-Sik;Hwang, Jin-Sang;Cho, Jae-Myoung
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.30 no.3
    • /
    • pp.249-258
    • /
    • 2012
  • In this study, the epoch adjustment model was developed to correct GPS precise point positioning result to be suitable for the current geodetic datum of Korea which is tied at past epoch statically. The model is based on the formula describing crustal movements, and the formula is composed of several parameters. To determine the parameters, the data gathered at 14 permanent GPS stations for 10 years, from 2000 to 2011, were processed using GIPSY-OASIS II. It was possible to determine the position of permanent GPS stations with an error range of 16mm and the position of check points with an error range of 12mm by appling the model to GPS precise point positioning result. It is considered that more precise model could be calculated by using GPS data of more permanent GPS stations.

Fine-tuning of Attention-based BART Model for Text Summarization (텍스트 요약을 위한 어텐션 기반 BART 모델 미세조정)

  • Ahn, Young-Pill;Park, Hyun-Jun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.26 no.12
    • /
    • pp.1769-1776
    • /
    • 2022
  • Automatically summarizing long sentences is an important technique. The BART model is one of the widely used models in the summarization task. In general, in order to generate a summarization model of a specific domain, fine-tuning is performed by re-training a language model trained on a large dataset to fit the domain. The fine-tuning is usually done by changing the number of nodes in the last fully connected layer. However, in this paper, we propose a fine-tuning method by adding an attention layer, which has been recently applied to various models and shows good performance. In order to evaluate the performance of the proposed method, various experiments were conducted, such as accumulating layers deeper, fine-tuning without skip connections during the fine tuning process, and so on. As a result, the BART model using two attention layers with skip connection shows the best score.

Efficient Coordinated Checkpointing Scheme based on PWD Model (PWD 모델에 기반한 효율적인 조정검사점 기법)

  • 백맹순;안진호;김기범;황종선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.703-705
    • /
    • 2001
  • 본 논문에서는 PWD 모델을 기반하였을 경우 검사점들에 대한 새로운 일관성 조건이 필요함을 보이고, PWD 모델에 적합한 조정검사점 기법을 제안하고자 한다. 제안된 조정검사점 기법은 전체 프로세스가 일관된 검사점집합을 구성할 때 일관성 조건을 따르는 것이 아니라 PWD 모델에 적합한 새로운 일관성 조건을 따른다. 또한 각 프로세스의 수행상태를 비결정성 사건으로 인해서 발생하는 상태구간으로 구분하여 이전의 검사점 이후에 변화된 상태구간에 새로운 의존성을 생성하는 프로세스만 검사점을 취한다. 제안된 기법은 PWD 모델에 기반한 시스템에서 기존의 조정검사점 기법이 보이는 불필요한 오버헤드를 없애고, 결함발생시 시스템의 제한된 복귀를 보장한다.

  • PDF

Investigation on the Accuracy of bundle Adjustments and Exterior Orientation Parameter Estimation of Linear Pushbroom Sensor Models (선형 푸시브룸 센서모델의 번들조정 정확도 및 외부표정요소추정 정확도 분석)

  • Kim Tae Jung
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.23 no.2
    • /
    • pp.137-145
    • /
    • 2005
  • In this paper, we investigate the accuracy of various sensor models developed for linear pushbroom satellite images. We define the accuracy of a sensor model in two aspects: the accuracy of bundle adjustments and the accuracy of estimating exterior orientation parameters. The first accuracy has been analyzed and reported frequently whereas the second accuracy has somewhat been neglected. We argue that the second accuracy is as important as the first one. The second accuracy describes a model's ability to predict satellite orbit and attitude, which has many direct and indirect applications. Analysis was carried out on the traditional collinearity-based sensor models and orbit-based sensor models. Collinearity-based models were originally developed for aerial photos and modified for linear pushbroom-type satellite images. Orbit-based models have been used within satellite communities for satellite control and orbit determination. Models were tested with two Kompsat-1 EOC scenes and GPS-driven control points. Test results showed that orbit-based models produced better estimation of exterior orientation parameters while maintained comparable accuracy on bundle adjustments.

Parameter-Efficient Prompting for Few-Shot Learning (Prompting 기반 매개변수 효율적인 Few-Shot 학습 연구)

  • Eunhwan Park;Sung-Min Lee;Daeryong Seo;Donghyeon Jeon;Inho Kang;Seung-Hoon Na
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.343-347
    • /
    • 2022
  • 최근 자연어처리 분야에서는 BERT, RoBERTa, 그리고 BART와 같은 사전 학습된 언어 모델 (Pre-trained Language Models, PLM) 기반 미세 조정 학습을 통하여 여러 하위 과업에서 좋은 성능을 거두고 있다. 이는 사전 학습된 언어 모델 및 데이터 집합의 크기, 그리고 모델 구성의 중요성을 보여주며 대규모 사전 학습된 언어 모델이 각광받는 계기가 되었다. 하지만, 거대한 모델의 크기로 인하여 실제 산업에서 쉽게 쓰이기 힘들다는 단점이 명백히 존재함에 따라 최근 매개변수 효율적인 미세 조정 및 Few-Shot 학습 연구가 많은 주목을 받고 있다. 본 논문은 Prompt tuning, Prefix tuning와 프롬프트 기반 미세 조정 (Prompt-based fine-tuning)을 결합한 Few-Shot 학습 연구를 제안한다. 제안한 방법은 미세 조정 ←→ 사전 학습 간의 지식 격차를 줄일 뿐만 아니라 기존의 일반적인 미세 조정 기반 Few-Shot 학습 성능보다 크게 향상됨을 보인다.

  • PDF

Privacy-Preserving Language Model Fine-Tuning Using Offsite Tuning (프라이버시 보호를 위한 오프사이트 튜닝 기반 언어모델 미세 조정 방법론)

  • Jinmyung Jeong;Namgyu Kim
    • Journal of Intelligence and Information Systems
    • /
    • v.29 no.4
    • /
    • pp.165-184
    • /
    • 2023
  • Recently, Deep learning analysis of unstructured text data using language models, such as Google's BERT and OpenAI's GPT has shown remarkable results in various applications. Most language models are used to learn generalized linguistic information from pre-training data and then update their weights for downstream tasks through a fine-tuning process. However, some concerns have been raised that privacy may be violated in the process of using these language models, i.e., data privacy may be violated when data owner provides large amounts of data to the model owner to perform fine-tuning of the language model. Conversely, when the model owner discloses the entire model to the data owner, the structure and weights of the model are disclosed, which may violate the privacy of the model. The concept of offsite tuning has been recently proposed to perform fine-tuning of language models while protecting privacy in such situations. But the study has a limitation that it does not provide a concrete way to apply the proposed methodology to text classification models. In this study, we propose a concrete method to apply offsite tuning with an additional classifier to protect the privacy of the model and data when performing multi-classification fine-tuning on Korean documents. To evaluate the performance of the proposed methodology, we conducted experiments on about 200,000 Korean documents from five major fields, ICT, electrical, electronic, mechanical, and medical, provided by AIHub, and found that the proposed plug-in model outperforms the zero-shot model and the offsite model in terms of classification accuracy.

(Tuning Learning Rate in Neural Network Using Sugeno Fuzzy Model) (Sugeno 퍼지 모델을 이용한 신경망의 학습률 조정)

  • 라혁주;서재용;김성주;전흥태
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.05a
    • /
    • pp.77-80
    • /
    • 2003
  • 신경망의 퍼셉트론 학습법에는 이진 또는 연속 활성화 함수가 사용된다. 초기 연결강도는 임의의 값으로 설정하며, 목표치와 실제 출력과의 차이를 이용하는 것이 주된 특징이다. 즉 구해진 오차는 학습률에 따라서 다음 단계의 연결강도에 영향을 주게 된다. 이런 경우 학습률이 너무 크면 수렴성을 보장할 수 없으며, 반대로 너무 작게 선정하면 학습이 매우 느리게 진행되는 단점이 발생한다. 이런 이유로 능동적인 학습률의 변화는 신경망의 퍼셉트론 학습법에 중요한 관건이 리며, 주어진 문제를 최적으로 학습을 위해서는 결국 상황에 따른 적절한 학습률 조정이 필요하다. 본 논문에서는 학습률 조정에 퍼지 모델을 적용하는 신경망 학습 방법을 제안하고자 한다. 제안한 방법에 의한 학습은 오차의 변화에 따라 학습률을 조정하는 방식을 사용하였고, 그 결과 연결강도를 능동적으로 변화시켜 효과적인 학습 결과를 얻었다. 학습률 변화는 'Sugeno 퍼지 모델'을 이용하여 구현하였다.

  • PDF