• 제목/요약/키워드: 딥러닝 융합연구

검색결과 435건 처리시간 0.022초

YOLOv5를 이용한 임베디드 마스크 인식 시스템 (Embedded Mask Recognition System using YOLOv5)

  • 유가원;최은성;강영진;전영준;정석찬
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.63-73
    • /
    • 2022
  • 2020년부터 현재까지 COVID-19가 지속되고 있으며, 사회적으로도 많은 변화가 생겼다. 마스크를 착용하는 것은 필수가 되었고, 마스크 미착용 시, 공공시설이나 식당 등을 이용할 수 없게 되었다. 이로 인해 대부분의 공공시설 출입구에서는 마스크 인식 시스템을 구비하여 마스크 착용 여부를 확인하고 있다. 그러나 목도리로 입을 가린 사람이나 마스크를 제대로 착용하지 않은 사람 등에 대한 판별 여부가 불분명하다. 본 연구에서는 YOLOv5를 이용한 임베디드 마스크 인식 시스템을 제안하였다. 기존 마스크 인식 시스템과는 달리 마스크 착용 여부뿐만 아니라 목도리를 입으로 가린 사람, 손으로 입을 가린 사람 등 다양한 예외 상황에서도 마스크 착용 여부를 구별해낼 수 있었으며, Nvida Jetson Nano Board에 탑재하였을 때 우수한 성능을 보였다.

딥러닝 모형을 이용한 팔당대교 지점에서의 유량 예측 (Flow rate prediction at Paldang Bridge using deep learning models)

  • 성연정;박기두;정영훈
    • 한국수자원학회논문집
    • /
    • 제55권8호
    • /
    • pp.565-575
    • /
    • 2022
  • 최근의 수자원공학 분야는 4차산업혁명과 더불어 비약적으로 발전된 딥러닝 기술을 활용한 시계열 수위 및 유량의 예측에 대한 관심이 높아지고 있다. 또한 시계열 자료의 예측이 가능한 LSTM 모형과 GRU 모형을 활용하여 수위 및 유량 예측을 수행하고 있지만 시간 변동성이 매우 큰 하천에서의 유량 예측 정확도는 수위 예측 정확도에 비해 낮게 예측되는 경향이 있다. 본 연구에서는 유량변동이 크고 하구에서의 조석의 영향이 거의 없는 한강의 팔당대교 관측소를 선택하였다. 또한, LSTM 모형과 GRU 모형의 입력 및 예측 자료로 활용될 유량변동이 큰 시계열 자료를 선택하였고 총 자료의 길이는 비교적 짧은 2년 7개월의 수위 자료 및 유량 자료를 수집하였다. 시간변동성이 큰 시계열 수위를 2개의 모형에서 학습할 경우, 2개의 모형 모두에서 예측되는 수위 결과는 관측 수위와 비교하여 적정한 정확도가 확보되었으나 변동성이 큰 유량 자료를 2개의 모형에서 직접 학습시킬 경우, 예측되는 유량 자료의 정확도는 악화되었다. 따라서, 본 연구에서는 급변하는 유량을 정확히 예측하기 위하여 2개 모형으로 예측된 수위 자료를 수위-유량관계곡선의 입력자료로 활용하여 유량의 예측 정확도를 크게 향상시킬 수 있었다. 마지막으로 본 연구성과는 수문자료의 별도 가공없이 관측 길이가 상대적으로 충분히 길지 않고 유출량이 급변하는 도시하천에서의 홍수예경보 자료로 충분히 활용할 수 있을 것으로 기대된다.

Fourier Ptychographic Microscopy 영상에서의 딥러닝 기반 디지털 염색 방법 연구 (Deep Learning Based Digital Staining Method in Fourier Ptychographic Microscopy Image)

  • 황석민;김동범;김유정;김여린;이종하
    • 융합신호처리학회논문지
    • /
    • 제23권2호
    • /
    • pp.97-106
    • /
    • 2022
  • 본 연구에서 세포를 분별하기 위해 H&E 염색이 필요하다. 그러나 직접 염색하면 많은 비용과 시간이 필요하다. H&E 염색되지 않은 세포의 Phase image에서 H&E 염색이 된 세포의 Amplitude image로 변환 하는 것이 목적이다. FPM으로 촬영한 Image data를 가지고 Matlab을 이용해 매개변수를 변경해 Phase image와 Amplitude image를 만들었다. 정규화를 통해 육안으로 식별이 가능한 이미지를 얻었다. GAN 알고리즘을 이용해 Phase image를 기반으로 Real Amplitude image와 비슷한 Fake Amplitude image를 만들고 Fake Amplitude image를 가지고 MASK R-CNN을 이용하여 세포를 분별하여 객체화를 통해 구분했다. 연구 결과 D loss의 max는 3.3e-1, min은 6.8e-2, G loss max는 6.9e-2, min은 2.9e-2, A loss는 max 5.8e-1, min은 1.2e-1, Mask R-CNN max는 1.9e0, min은 3.2e-1이다.

전이학습 기반 기계번역 사후교정 모델 검증 (The Verification of the Transfer Learning-based Automatic Post Editing Model)

  • 문현석;박찬준;어수경;서재형;임희석
    • 한국융합학회논문지
    • /
    • 제12권10호
    • /
    • pp.27-35
    • /
    • 2021
  • 기계번역 사후교정 (Automatic Post Editing, APE)이란 번역 시스템을 통해 생성한 번역문을 교정하는 연구 분야로, 영어-독일어와 같이 학습데이터가 풍부한 언어쌍을 중심으로 연구가 진행되고 있다. 최근 APE 연구는 전이학습 기반 연구가 주로 이루어지는데, 일반적으로 self supervised learning을 통해 생성된 사전학습 언어모델 혹은 번역모델이 주로 활용된다. 기존 연구에서는 번역모델에 전이학습 시킨 APE모델이 뛰어난 성과를 보였으나, 대용량 언어쌍에 대해서만 이루어진 해당 연구를 저 자원 언어쌍에 곧바로 적용하기는 어렵다. 이에 본 연구에서는 언어 혹은 번역모델의 두 가지 전이학습 전략을 대표적인 저 자원 언어쌍인 한국어-영어 APE 연구에 적용하여 심층적인 모델 검증을 진행하였다. 실험결과 저 자원 언어쌍에서도 APE 학습 이전에 번역을 한차례 학습시키는 것이 유의미하게 APE 성능을 향상시킨다는 것을 확인할 수 있었다.

팽창된 잔차 합성곱신경망을 이용한 KOMPSAT-3A 위성영상의 융합 기법 (A Pansharpening Algorithm of KOMPSAT-3A Satellite Imagery by Using Dilated Residual Convolutional Neural Network)

  • 최호성;서두천;최재완
    • 대한원격탐사학회지
    • /
    • 제36권5_2호
    • /
    • pp.961-973
    • /
    • 2020
  • 본 논문에서는 CNN (Convolutional Neural Network) 기반의 영상융합 기법을 제안하고자 하였다. 딥러닝 구조의 성능을 향상시키기 위하여, CNN 기법에서 대표적인 합성곱(convolution) 방법으로 알려진 팽창된 합성곱(dilated convolution) 모델을 활용하여 모델의 깊이와 복잡성을 증대시키고자 하였다. 팽창된 합성곱을 기반으로 하여 학습과정에서의 효율을 향상시키기 위하여 잔차 네트워크(residual network)도 활용하였다. 또한, 본 연구에서는 모델학습을 위하여 전통적인 L1 노름(norm) 기반의 손실함수와 함께, 공간 상관도를 활용하였다. 본 연구에서는 전정색 영상만을 이용하거나 전정색 영상과 다중분광 영상을 모두 활용하여 구조에 적용한 DRNet을 개발하여 실험을 수행하였다. KOMPSAT-3A를 활용한 전정색 영상과 다중분광 영상을 이용한 DRNet은 융합영상의 분광특성에 과적합되는 결과를 나타냈으며, 전정색 영상만을 이용한 DRNet이 기존 기법들과 비교하여 융합영상의 공간적 특성을 효과적으로 반영함을 확인하였다.

RoutingConvNet: 양방향 MFCC 기반 경량 음성감정인식 모델 (RoutingConvNet: A Light-weight Speech Emotion Recognition Model Based on Bidirectional MFCC)

  • 임현택;김수형;이귀상;양형정
    • 스마트미디어저널
    • /
    • 제12권5호
    • /
    • pp.28-35
    • /
    • 2023
  • 본 연구에서는 음성감정인식의 적용 가능성과 실용성 향상을 위해 적은 수의 파라미터를 가지는 새로운 경량화 모델 RoutingConvNet(Routing Convolutional Neural Network)을 제안한다. 제안모델은 학습 가능한 매개변수를 줄이기 위해 양방향 MFCC(Mel-Frequency Cepstral Coefficient)를 채널 단위로 연결해 장기간의 감정 의존성을 학습하고 상황 특징을 추출한다. 저수준 특징 추출을 위해 경량심층 CNN을 구성하고, 음성신호에서의 채널 및 공간 신호에 대한 정보 확보를 위해 셀프어텐션(Self-attention)을 사용한다. 또한, 정확도 향상을 위해 동적 라우팅을 적용해 특징의 변형에 강인한 모델을 구성하였다. 제안모델은 음성감정 데이터셋(EMO-DB, RAVDESS, IEMOCAP)의 전반적인 실험에서 매개변수 감소와 정확도 향상을 보여주며 약 156,000개의 매개변수로 각각 87.86%, 83.44%, 66.06%의 정확도를 달성하였다. 본 연구에서는 경량화 대비 성능 평가를 위한 매개변수의 수, 정확도간 trade-off를 계산하는 지표를 제안하였다.

새로운 반려견 등록방식 도입을 위한 안면 인식 성능 개선 연구 (A Study on Improving Facial Recognition Performance to Introduce a New Dog Registration Method)

  • 이동수;박구만
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.794-807
    • /
    • 2022
  • 동물보호법 개정에 따라 반려견 등록이 의무화 되었음에도 불구하고, 현재 등록 방법의 불편함으로 등록율이 저조한 상태이다. 본 논문에서는 새로운 등록 방법으로 검토되고 있는 반려견 안면 인식 기술에 대한 성능 개선 연구를 진행하였다. 딥러닝 학습을 통해, 반려견의 안면 인식을 위한 임베딩 벡터를 생성하여 반려견 개체별로 식별하기 위한 방법을 실험하였다. 딥러닝 학습을 위한 반려견 이미지 데이터셋을 구축하고, InceptionNet과 ResNet-50을 백본 네트워크로 사용하여 실험하였다. 삼중항 손실 방법으로 학습하였으며, 안면 검증과 안면 식별로 나뉘어 실험하였다. ResNet-50 기반의 모델에서 최고 93.46%의 안면 검증 성능을 얻을 수 있었으며, 안면 식별 시험에서는 rank-5에서 91.44%의 최고 성능을 각각 얻을 수 있었다. 본 논문에서 제시한 실험 방법과 결과는 반려견의 등록 여부 확인, 반려견 출입시설에서의 개체 확인 등 다양한 분야로 활용이 가능하다.

무장 선택을 위한 딥러닝 기반의 비행체 식별 기법 연구 (A Study on Deep Learning based Aerial Vehicle Classification for Armament Selection)

  • 차은영;김정창
    • 방송공학회논문지
    • /
    • 제27권6호
    • /
    • pp.936-939
    • /
    • 2022
  • 최근 공중 전투체계 기술들이 발전함에 따라 대공방어 시스템의 발전이 요구되고 있다. 대공 방어 시스템의 운용개념에 있어, 표적에 적합한 무장을 선택하는 것은 제한된 대공 전력을 사용하여 위협체에 대해 효율적으로 대응한다는 측면에서 체계에 요구되는 능력 중 하나이다. 비행 위협체의 식별에 있어 많은 부분이 운용자의 육안 식별에 의존하는데 고속으로 기동하고 원거리에 위치한 비행체를 육안으로 판별하는 것은 많은 한계가 있다. 뿐만 아니라, 현대 전장에서 무인화 및 지능화된 무기체계의 수요가 증가함에 따라 운용자의 육안 식별 대신 체계가 자동으로 비행체를 식별하고 분류하는 기술의 개발이 필수적이다. 영상자료를 수집해 딥러닝 기반의 모델을 이용하여 무기체계를 식별한 사례로는 전차와 함정 등이 있지만 비행체의 식별에 대한 연구는 아직 많이 부족한 상황이다. 따라서 본 논문에서는 합성곱 신경망 모델을 이용하여 전투기, 헬기, 드론을 분류하는 모델을 제시하고 제시하는 모델의 성능을 분석한다. 본 논문에서 제시하는 모델은 시험세트에 대해 95% 이상의 정확도를 보이고, precision 0.9579, recall 0.9558, F1-socre 0.9568의 값을 나타내는 것을 확인할 수 있다.

항로표지 기반의 부착생물 정보 생성에 관한 연구 (A Study on the Generation of Fouling Organism Information Based Aids to Navigation)

  • 이신걸;송재욱;유윤재;정민
    • 해양환경안전학회지
    • /
    • 제29권5호
    • /
    • pp.456-461
    • /
    • 2023
  • 우리나라 해양생태계의 현황을 조사 및 분석하여 해양을 지속하게 이용할 수 있도록 하며 해양생태를 보전하고 관리할 수 있도록 국가 해양생태계 종합조사를 해양수산부의 위탁을 받아 해양환경공단에서 진행하고 있다. 국가 해양생태계 종합조사는 주요 조사정점을 설정하여 한반도 주변 해역의 생태계 변화를 조사하고 있지만, 정점이 연안을 중심으로 설정되어 근해역 등 조사범위 확대가 필요한 실정이다. 한편 해양수산부 항로표지과에서는 항로표지 인양점검 시 부착생물의 사진을 촬영하여 제공함으로써 국가 해양생태계 종합 조사를 지원하고 있지만, 해양환경공단과 협의하여 지정된 등부표에 한해서 부착생물 사진을 제공한다. 이에 항로표지를 국가 해양생태계 종합조사의 정점으로 활용할 수 있도록, 항로표지 및 등부표 인양점검 시 딥러닝 기반의 영상처리 알고리즘을 활용하여 부착생물의 정보를 생성하는 연구를 진행했다. 항로표지를 국가 해양생태계 종합조사의 정점으로 활용한다면 항로표지의 활용 가치를 제고하고 우리나라 근해의 이상 해황 및 생태계 변화를 분석할 수 있는 기초자료로 활용할 수 있다.

아웃페인팅 기반 반려동물 자세 추정에 관한 예비 연구 (A Pilot Study on Outpainting-powered Pet Pose Estimation)

  • 이규빈;이영찬;유원상
    • 융합신호처리학회논문지
    • /
    • 제24권1호
    • /
    • pp.69-75
    • /
    • 2023
  • 최근 동물 행동 분석 및 건강관리 분야를 중심으로 딥러닝 기반 동물 자세 추정 기법에 대한 관심이 높아지고 있다. 그러나 기존 동물 자세 추정 기법은 영상에서 신체 부위가 가려지거나 존재하지 않을 경우 좋은 성능을 보이지 않는다. 특히 꼬리나 귀가 가려진 경우, 반려견의 행동 및 감정 분석의 성능에도 심각한 영향을 미친다. 본 논문에서는 이러한 다루기 힘든 문제를 해결하기 위해, 이미지 아웃페인팅 네트워크를 자세 추정 네트워크에 연결하여 이미지 외부에 존재하는 반려견의 신체를 복원한 확장된 이미지를 생성하여 반려견의 자세를 추정하는 단순하면서도 새로운 접근방법을 제안하였고, 제안된 방법의 실현가능성을 검토하는 예비 연구를 수행하였다. 이미지 아웃페인팅 모델로는 CE-GAN과 트랜스포머 기반의 BAT-Fill을 사용하였고, 자세 추정 모델로는 SimpleBaseline을 사용하였다. 실험 결과, 크롭된 입력 이미지에서 반려견의 자세를 추정하였을 때보다, BAT-Fill을 사용하여 아웃페인팅된 확장 이미지에서 반려견의 자세를 추정하였을 때 자세 추정의 성능이 향상되었다.