• Title/Summary/Keyword: 미세 조정

Search Result 316, Processing Time 0.024 seconds

Deposition of Large Area SiC Thick Films by Low Pressure Chemical Vapor Deposition (LPCVD) Method (저압 화학증착법에 의한 대면적 SiC 후막의 증착)

  • 김원주;박지연;김정일;홍계원;하조웅
    • Journal of the Korean Ceramic Society
    • /
    • v.38 no.5
    • /
    • pp.485-491
    • /
    • 2001
  • 일반 산업 및 원자력 관련 산업용 구조소재의 표면특성 향상을 위해 저압 화학기상 증착법에 의해 15~25cm 직경의 흑연기판 위에 고순도의 치밀한 SiC 증착층을 제조하였다. 미세구조와 두께가 균일한 증착층을 얻기 위하여 증착온도의 균일성, 반응가스 고갈효과, 가스 흐름 형태 등의 영향을 고려하였다. 이중에서 반응 용기내의 가스 흐름 형태가 증착층의 균일도에 가장 큰 영향을 주는 것으로 판단되었으며 가스 주입구의 위치와 크기를 조정함으로써 25cm의 직경을 갖는 흑연 기판에 두께 편차가 $\pm$12% 이내인 SiC 증착막을 제조할 수 있었다.

  • PDF

Design of real-time microvision for edge detection with vertical integration structure of LSIs (LSI 수직적층 구조를 가지는 윤곽검출용 실시간 마이크로 비젼의 설계)

  • Yu, Kee-Ho
    • Journal of Institute of Control, Robotics and Systems
    • /
    • v.4 no.3
    • /
    • pp.329-333
    • /
    • 1998
  • 본 논문에서는, LSI 적층 기술을 이용한 실시간 처리 마이크로 비젼의 개발을 소개하고 있다. 새롭게 개발된 LSI 적층기술을 이용하여, 영상신호의 증폭, 변환, 연산처리등의 기본기능을 가지는 다수의 LSI 웨이퍼를 적층한다. 각 층간의 고밀도 수직배선을 통하여 대량의 영상정보를 동시에 전달하므로써, 대규모 동시 병렬처리를 가능하게 하며, 다수의 층에 걸쳐 파이프 라인 처리가 이루어진다. VLSI 설계시스템을 이용하여, 윤곽 검출기능을 가지는 테스트 칩을 설계(2 .mu.m CMOS design rule)하고, 시뮬레이션을 통하여 양호한 동작(처리시간 10 .mu.s)을 확인하고 있다. 시험제작을 위해서는, 새롭게 개발된 LSI 적층기술이 이용된다. 영상처리의 기본회로가 실려있는 웨이퍼의 기반을 30 .mu.m 의 두께까지 연마하고, 개발된 웨이퍼 aligner를 이용하여 수직배선이 형성된 상하 두 개의 웨이퍼를 미세조정하면서 접착한다. 이상의 제작과정을 반복하여 두께 1mm이하의 인공망막과 같은 마이크로 비젼을 제작한다.

  • PDF

Fabrication of Micro-heaters Using MgO as Medium Layer and It`s Application for Micro-Flowsensors (매개층 산화마그네슘막을 이용한 백금박막 미세발열체의 제작과 마이크로 유량센서에의 응용)

  • 홍석우;조정복;정귀상
    • Proceedings of the Korean Institute of Electrical and Electronic Material Engineers Conference
    • /
    • 1999.11a
    • /
    • pp.358-361
    • /
    • 1999
  • This paper describes on the fabrication and characteristics of hot-film type micro-flowsensors integrated with Pt-RTD\`s and micro-heater on the Si substrate, in which MgO thin-films were used as medium layer in order to improve adhesion of Pt thin-films to SiO$_2$ layer The MgO layer improved adhesion of Pt thin-films to SiO$_2$` layer without any chemical reactions to Pt thin-films under high as gas flow rate and its conductivity increased due to increase of heat-loss from sensor to external. Output voltage was 82 mV at N2 flow rate of 2000 sccm/min, heating power of 1.2W. The respons time was about 100 msec when input flow was step-input

  • PDF

스마트 랩 개념과 도입 사례

  • Kim, Yeong-Su
    • Bulletin of the Korea Photovoltaic Society
    • /
    • v.7 no.1
    • /
    • pp.27-32
    • /
    • 2021
  • 코로나-19 팬데믹으로 인류는 많은 어려움에 처하게 되었다. 그러나 바이러스 감염 예방을 위해 대량 시료에 대한 정확하고 신속한 분석이 필요함에 따라 실험실 자동화 기술의 상용화가 크게 앞당겨졌다. 스마트 랩이란 실험실 자동화를 위한 H/W인 실험실 자동화 시스템(LAS)와 실험 절차 및 데이터를 통합 관리하는 S/W인 실험실 데이터 관리 시스템 (LIMS)의 결합으로 이뤄진 통합 연구 시스템이라고 할 수 있다. 스마트 랩을 통해 사용자는 24시간 연속적인 장비 가동을 통한 분석 물량 확대는 물론 전처리와 같은 반복 작업 감소, 정확도 향상 등의 자동화로 인한 장점과 함께 시험 방법의 동일성 유지, 시료별 이력 추적, 조작 방지 등의 소프트웨어적인 장점을 동시에 얻을 수 있다. 스마트 랩은 지금도 발전하고 있으며 일부 대기업과 연구소에서 도입을 추진하고 있는 태동기라고 할 수 있다. 최근 우리나라가 선도하고 있는 페로브스카이트 태양전지와 같이 수분에 취약한 유무가 복합 재료의 in-line 시험이나 조성의 미세한 조정에 따라 변화하는 물성 변화를 추적 조사하는데 필요한 많은 측정과 데이터 처리 등 태양전지 분야에서도 앞으로 그 활약이 기대된다.

VL-KE-T5: A contrastive learning-based pre-trained model using image-language parallel data composed of Korean and English (VL-KE-T5: 한국어와 영어로 구성된 영상-언어 병렬 데이터를 이용한 대조학습 기반 사전학습모델 구축)

  • San Kim;Saim, Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.337-342
    • /
    • 2022
  • 본 논문은 한국어-영어 기반 영상-언어 모델인 VL-KE-T5를 소개한다. VL-KE-T5는 영상-텍스트 쌍으로 구성된 한국어와 영어 데이터 약 2천 3백만개를 이용하여 영상-언어 모델의 임베딩 벡터들을 정렬시킨 사전학습모델이며, 미세조정을 통하여 여러 영상-언어 작업에 활용할 할 수 있다. VL-KE-T5는 텍스트 기반 영상 검색 작업에서 높은 성능을 보였으나, 세세한 속성을 가진 여러 객체들의 나열이나 객체 간 관계를 포함한 텍스트 기반 영상 검색에서는 비교적 낮은 성능을 보였다.

  • PDF

BERT-based Two-Stage Classification Models for Alzheimer's Disease and Schizophrenia Diagnosis (BERT 기반 2단계 분류 모델을 이용한 알츠하이머병 치매와 조현병 진단)

  • Jung, Min-Kyo;Na, Seung-Hoon;Kim, Ko Woon;Shin, Byong-Soo;Chung, Young-Chul
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.558-563
    • /
    • 2021
  • 알츠하이머병 치매와 조현병 진단을 위한 2단계 분류 모델을 제안한다. 정상군과 환자군의 발화에 나타난 페어 언어 모델 간의 Perplexity 차이에 기반한 분류와 기존 단일 BERT 모델의 미세조정(fine-tuning)을 이용한 분류의 통합을 시도하였다. Perplexity 기반의 분류 성능이 알츠하이머병, 조현병 모두 우수한 결과를 보임을 확인 하였고, 조현병 분류 모델의 성능이 소폭 증가하였다. 향후 설명 가능한 인공지능 기법을 적용에 따른 성능 향상을 기대할 수 있었다.

  • PDF

English-Korean Neural Machine Translation using MASS (MASS를 이용한 영어-한국어 신경망 기계 번역)

  • Jung, Young-Jun;Park, Cheon-Eum;Lee, Chang-Ki;Kim, Jun-Seok
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.236-238
    • /
    • 2019
  • 신경망 기계 번역(Neural Machine Translation)은 주로 지도 학습(Supervised learning)을 이용한 End-to-end 방식의 연구가 이루어지고 있다. 그러나 지도 학습 방법은 데이터가 부족한 경우에는 낮은 성능을 보이기 때문에 BERT와 같은 대량의 단일 언어 데이터로 사전학습(Pre-training)을 한 후에 미세조정(Finetuning)을 하는 Transfer learning 방법이 자연어 처리 분야에서 주로 연구되고 있다. 최근에 발표된 MASS 모델은 언어 생성 작업을 위한 사전학습 방법을 통해 기계 번역과 문서 요약에서 높은 성능을 보였다. 본 논문에서는 영어-한국어 기계 번역 성능 향상을 위해 MASS 모델을 신경망 기계 번역에 적용하였다. 실험 결과 MASS 모델을 이용한 영어-한국어 기계 번역 모델의 성능이 기존 모델들보다 좋은 성능을 보였다.

  • PDF

Korean Named Entity Recognition based on ELECTRA with CRFs (ELECTRA-CRFs 기반 한국어 개체명 인식기)

  • Hong, Jiyeon;Kim, Hyunwoo J
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.473-476
    • /
    • 2020
  • 개체명 인식에 적용된 대부분의 신경망 모델들에서 CRFs와 결합을 통해 성능 향상을 하였다. 그러나 최근 대용량 데이터로 사전 학습한 모델을 활용하는 경우, 기 학습된 많은 유의미한 파라미터들로 인해 CRFs의 영향력이 비교적 작아졌다. 따라서 본 논문에서는 한국어 대용량 말뭉치로 사전 학습한 ELECTRA 모델에서의 CRFs 가 개체명 인식에 미치는 영향을 확인해보고자 한다. 모델의 입력 단위로 음절 단위와 Wordpiece 단위로 사전 학습된 두 가지의 모델을 사용하여 미세 조정을 통해 개체명 인식을 학습하였다. 실험을 통해서 두 모델에 대하여 각각 CRFs 층의 유무에 따른 성능을 비교해 보았다. 그 결과로 ELECTRA 기반으로 사전 학습된 모델에서 CRFs를 통한 F1-점수 향상을 보였다.

  • PDF

Korean ELECTRA for Natural Language Processing Downstream Tasks (한국어 ELECTRA 모델을 이용한 자연어처리 다운스트림 태스크)

  • Whang, Taesun;Kim, Jungwook;Lee, Saebyeok
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.257-260
    • /
    • 2020
  • 사전 학습을 기반으로 하는 BERT계열의 모델들이 다양한 언어 및 자연어 처리 태스크들에서 뛰어난 성능을 보이고 있지만, masked language model의 경우 입력 문장의 15%만 마스킹을 함으로써 학습 효율이 떨어지고 미세 조정 시 마스킹 토큰이 등장하지 않는 불일치 문제도 존재한다. 이러한 문제를 효과적으로 해결한 ELECTRA는 영어 벤치마크에서 기존의 언어모델들 보다 뛰어난 성능을 보여주었지만 한국어에 대한 관련 연구는 부족한 실정이다. 본 연구에서는 ELECTRA를 한국어 코퍼스에 대해 학습시키고, 다양한 한국어 자연어 이해 태스크들에 대해 실험을 진행한다. 실험을 통해 ELECTRA의 모델 크기별 성능 평가를 진행하였고, 여러 한국어 태스크들에 대해서 평가함으로써 ELECTRA 모델이 기존의 언어 모델들보다 좋은 성능을 보인다는 것을 입증하였다.

  • PDF

PALM for Improving Korean T5: Application to Machine Reading Comprehension & Text Summarization (PALM 기반 한국어 T5 개선: 기계독해 및 텍스트 요약으로의 응용)

  • Park, Eunhwan;Na, Seung-Hoon;Lim, Joon-Ho;Kim, Tae-Hyeong;Choi, Yun-Su;Chang, Du-Seong
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.501-504
    • /
    • 2021
  • 최근 언어 모델은 분류, 기계 독해, 생성 등의 태스크에서 성공적인 결과를 보여주고 있다. 본 논문에서는 최근 많은 관심을 받고 있는 인코더-디코더 구조의 언어 모델인 BART, T5 그리고 PALM을 위키피디아 한국어 데이터 집합으로 사전 학습한 후 기계 독해와 문서 생성 요약 태스크에 대하여 미세 조정을 하고 성능 비교를 한다.

  • PDF