• Title/Summary/Keyword: 컴퓨터 모델

Search Result 5,786, Processing Time 0.033 seconds

임베디드 시스템 환경에서의 INT8 및 FP32 기반 Mixed Precision 의 정확도 실험 및 분석 (Accuracy Experiment and Analysis of INT8 and FP32 based Mixed Precision Layer in Embedded System Environments)

  • 장경빈 ;이종은 ;임승호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.534-535
    • /
    • 2023
  • 최근 CNN 기반 객체인식 시스템은 고정밀도 모델을 기반으로 정확도를 높이고 있다. 하지만 고정밀도 모델일수록 모델의 크기가 늘어나고 더 많은 하드웨어 자원을 필요로 한다. 따라서 모델 경량화 기술이 많이 연구되고 있으며, 그 중에 대표적인 경량화 기술이 양자화 기술이다. 양자화 기술은 파라미터의 크기와 연산 오버헤드를 줄이지만, 정확도 역시 줄어들게 된다. 영자화와 정확도의 상관관계를 분석하기 위해서 본 논문에서는 INT8 과 FP32 을 이용한 Mixed precision CNN 을 실행시키기 위한 프레임워크를 구성하고, 임베디드 시스템 환경에서의 INT8 연산에 기반하여 맞추어 각 layer 별 Mixed Precision 연산을 수행하여 보고, 모델의 정확도를 측정하여 분석하여 보았다.

임베디드 환경에서의 다중소리 식별 모델을 위한 경량화 기법 비교 연구 (A Comparative Study of Lightweight Techniques for Multi-sound Recognition Models in Embedded Environments)

  • 하옥균;이태민;성병준;이창헌;김성수
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.39-40
    • /
    • 2023
  • 본 논문은 딥러닝 기반의 소리 인식 모델을 기반으로 실내에서 발생하는 다양한 소리를 시각적인 정보로 제공하는 시스템을 위해 경량화된 CNN ResNet 구조의 인공지능 모델을 제시한다. 적용하는 경량화 기법은 모델의 크기와 연산량을 최적화하여 자원이 제한된 장치에서도 효율적으로 동작할 수 있도록 한다. 이를 위해 마이크로 컴퓨터나 휴대용 기기와 같은 임베디드 장치에서도 원활한 인공지능 추론을 가능하게 하는 모델을 양자화 기법을 적용한 경량화 방법들을 실험적으로 비교한다.

  • PDF

사전학습모델을 활용한 수학학습 도구 자동 생성 시스템 (Automatic Generation System of Mathematical Learning Tools Using Pretrained Models)

  • 노명성
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.713-714
    • /
    • 2023
  • 본 논문에서는 사전학습모델을 활용한 수학학습 도구 자동 생성 시스템을 제안한다. 본 시스템은 사전학습모델을 활용하여 수학학습 도구를 교과과정 및 단원, 유형별로 다각화하여 자동 생성하고 사전학습모델을 자체 구축한 Dataset을 이용해 Fine-tuning하여 학생들에게 적절한 학습 도구와 적절치 않은 학습 도구를 분류하여 학습 도구의 품질을 높이었다. 본 시스템을 활용하여 학생들에게 양질의 수학학습 도구를 많은 양으로 제공해 줄 수 있는 초석을 다지었으며, 추후 AI 교과서와의 융합연구의 가능성도 열게 되었다.

  • PDF

동기식 분산 딥러닝 환경에서 배치 사이즈 변화에 따른 모델 학습 성능 분석 (A Performance Analysis of Model Training Due to Different Batch Sizes in Synchronous Distributed Deep Learning Environments)

  • 김예랑;김형준;유헌창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.79-80
    • /
    • 2023
  • 동기식 분산 딥러닝 기법은 그래디언트 계산 작업을 다수의 워커가 나누어 병렬 처리함으로써 모델 학습 과정을 효율적으로 단축시킨다. 배치 사이즈는 이터레이션 단위로 처리하는 데이터 개수를 의미하며, 학습 속도 및 학습 모델의 품질에 영향을 미치는 중요한 요소이다. 멀티 GPU 환경에서 작동하는 분산 학습의 경우, 가용 GPU 메모리 용량이 커짐에 따라 선택 가능한 배치 사이즈의 상한이 증가한다. 하지만 배치 사이즈가 학습 속도 및 학습 모델 품질에 미치는 영향은 GPU 활용률, 총 에포크 수, 모델 파라미터 개수 등 다양한 변수에 영향을 받으므로 최적값을 찾기 쉽지 않다. 본 연구는 동기식 분산 딥러닝 환경에서 실험을 통해 최적의 배치 사이즈 선택에 영향을 미치는 주요 요인을 분석한다.

CutMix 알고리즘 기반의 일반화된 밀 머리 검출 모델 (Generalized wheat head Detection Model Based on CutMix Algorithm)

  • 여주원;박원준
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.73-75
    • /
    • 2024
  • 본 논문에서는 밀 수확량을 증가시키기 위한 일반화된 검출 모델을 제안한다. 일반화 성능을 높이기 위해 CutMix 알고리즘으로 데이터를 증식시켰고, 라벨링 되지 않은 데이터를 최대한 활용하기 위해 Fast R-CNN 기반 Pseudo labeling을 사용하였다. 학습의 정확성과 효율성을 높이기 위해 사전에 훈련된 EfficientDet 모델로 학습하였으며, OOF를 이용하여 검증하였다. 최신 객체 검출 모델과 IoU(Intersection over Union)를 이용한 성능 평가 결과, 제안된 모델이 가장 높은 성능을 보이는 것을 확인하였다.

  • PDF

연합 학습 환경에서 통합되고 강인한 다중 작업 학습 기법 (Learning Unified and Robust Representations across Various Tasks within a Federated Learning Environment)

  • 안킷 쿠마 싱;최수빈;최봉준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.798-800
    • /
    • 2024
  • 현대의 머신러닝 환경에서는 특히 모바일 컴퓨팅 및 사물 인터넷(IoT)의 애플리케이션 영역에서 개인 정보를 보호하고 효율적이며 확장 가능한 모델에 대한 관심이 높아지고 있다. 본 연구는 연합 학습(FL)과 자기지도 학습(self-supervised learning)을 결합하여 이질적(heterogeneous)인 분산 자원에서 레이블이 없는 데이터를 활용하면서 사용자의 개인 정보를 보호하는 새로운 프레임워크를 소개한다. 이 프레임워크의 핵심은 SimCLR 과 같은 자기지도 학습 기법으로 학습된 공유 인코더로, 입력 데이터에서 고수준 특성을 추출하도록 설계되었다. 또한 이 구조를 통해 주석(annotation)이 없는 방대한 데이터셋을 활용하여 모델 성능을 향상시키고, 여러 개의 격리된 모델이 필요하지 않아 리소스를 크게 최적화할 수 있는 가능성을 확인했다. 본 연구를 통해 생성된 모델은 중앙 집중 방식(CL)이면서 자기지도학습으로 학습되지 않은 기존 모델과 비교하여 전체 평균 정확도가 14.488% 향상됐다.

YOLOv8 을 위한 다중 스케일 Ghost 컨볼루션 기반 경량 키포인트 검출 모델 (Lightweight Key Point Detection Model Based on Multi-Scale Ghost Convolution for YOLOv8)

  • 이자호;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.604-606
    • /
    • 2024
  • 컴퓨터 비전 응용은 우리 생활에서 중요한 역할을 한다. 현재, 대규모 모델의 등장으로 딥 러닝의 훈련 및 운행 비용이 급격히 상승하고 있다. 자원이 제한된 환경에서는 일부 AI 프로그램을 실행할 수 없게 되므로, 경량화 연구가 필요하다. YOLOv8 은 현재 주요 목표 검출 모델 중 하나이며, 본 논문은 다중 스케일 Ghost 컨볼루션 모듈을 사용하여 구축된 새로운 YOLOv8-pose-msg 키포인트 검출 모델을 제안한다. 다양한 사양에서 새 모델의 매개변수 양은 최소 34% 감소할 수 있으며, 최대 59%까지 감소할 수 있다. 종합적인 검출 성능은 비교적 대규모 데이터셋에서 원래의 수준을 유지할 수 있으며, 소규모 데이터셋에서의 키포인트 검출은 30% 이상 증가할 수 있다. 동시에 최대 25%의 훈련 및 추론 시간을 절약할 수 있다.

임베디드 시스템(Raspberry PI 5) 환경에서의 DistilBERT 구현 및 성능 검증에 관한 연구 (A Study on the Implementation and Performance Verification of DistilBERT in an Embedded System(Raspberry PI 5) Environment)

  • 임채우;김은호;서장원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.617-618
    • /
    • 2024
  • 본 논문에서 핵심적으로 연구할 내용은 기존 논문에서 소개된 BERT-base 모델의 경량화 버전인 DistilBERT 모델을 임베디드 시스템(Raspberry PI 5) 환경에 탑재 및 구현하는 것이다. 또한, 본 논문에서는 임베디드 시스템(Raspberry PI 5) 환경에 탑재한 DistilBERT 모델과 BERT-base 모델 간의 성능 비교를 수행하였다. 성능 평가에 사용한 데이터셋은 SQuAD(Standford Question Answering Dataset)로 질의응답 태스크에 대한 데이터셋이며, 성능 검증 지표로는 EM(Exact Match) Score와 F1 Score 그리고 추론시간을 사용하였다. 실험 결과를 통해 DistilBERT와 같은 경량화 모델이 임베디드 시스템(Raspberry PI 5)과 같은 환경에서 온 디바이스 AI(On-Device AI)로 잘 작동함을 증명하였다.

'질문-단락'간 주의 집중을 이용한 검색 모델 재순위화 방법 (Retrieval Model Re-ranking Method using 'Question-Passage' Attention)

  • 장영진;김학수;지혜성;이충희
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.411-414
    • /
    • 2019
  • 검색 모델은 색인된 문서 내에서 입력과 유사한 문서를 검색하는 시스템이다. 최근에는 기계독해 모델과 통합하여 질문에 대한 답을 검색 모델의 결과에서 찾는 연구가 진행되고 있다. 위의 통합 모델이 좋은 결과를 내기 위해서는 검색 모델의 높은 성능이 요구된다. 따라서 본 논문에서는 검색 모델의 성능을 보완해 줄 수 있는 재순위화 모델을 제안한다. 검색 모델의 결과 후보를 일괄적으로 입력받고 '질문-단락'간 주의 집중을 계산하여 재순위화 한다. 실험 결과 P@1 기준으로 기존 검색 모델 성능대비 5.58%의 성능 향상을 보였다.

  • PDF

최신 기계번역 사후 교정 연구 (Recent Automatic Post Editing Research)

  • 문현석;박찬준;어수경;서재형;임희석
    • 디지털융복합연구
    • /
    • 제19권7호
    • /
    • pp.199-208
    • /
    • 2021
  • 기계번역 사후교정이란, 기계번역 문장에 포함된 오류를 자동으로 교정하기 위해 제안된 연구 분야이다. 이는 번역 시스템과 관계없이 번역문의 품질을 높이는 오류 교정 모델을 생성하는 목적을 가진 연구로, 훈련을 위해 소스문장, 번역문, 그리고 이를 사람이 직접 교정한 문장이 활용된다. 특히, 최신 기계번역 사후교정 연구에서는 사후교정 데이터를 통한 학습을 진행하기 이전에, 사전학습된 다국어 언어모델을 활용하는 방법이 적용되고 있다. 이에 본 논문은 최신 연구들에서 활용되고 있는 다국어 사전학습 언어모델들과 함께, 해당 모델을 도입한 각 연구에서의 구체적인 적용방법을 소개한다. 나아가 이를 기반으로, 번역 모델과 mBART모델을 활용하는 향후 연구 방향을 제안한다.