• 제목/요약/키워드: 딥러닝 융합연구

검색결과 434건 처리시간 0.057초

스마트 자율배송을 위한 클래스 분류와 객체별 학습데이터 유형 (Class Classification and Type of Learning Data by Object for Smart Autonomous Delivery)

  • 강영진;김기환;정석찬
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.37-47
    • /
    • 2022
  • 자율배송 운행 데이터는 코로나 시대의 라스트마일 배송에 대한 패러다임 변화를 주도하는 핵심이다. 국내 자율배송로봇과 해외 기술선도국가 간의 기술격차 해소를 위해서는 인공지능 학습에 사용 가능한 대규모 데이터 수집과 검증이 최우선으로 요구된다. 따라서 해외 기술선도국가에서는 인공지능 학습데이터를 누구든 사용가능한 공공데이터 형태로 오픈하여 검증과 기술발전에 기여하고 있다. 본 논문은 자율배송로봇 학습을 목적으로 326개의 객체를 수집하고 Mask r-cnn, Yolo v3 등의 인공지능 모델을 학습하고 검증하였다. 추가적으로 두 모델을 기반으로 비교하고 향후 자율배송로봇 연구에 요구되는 요소를 고찰하였다.

통합 CNN, LSTM, 및 BERT 모델 기반의 음성 및 텍스트 다중 모달 감정 인식 연구 (Enhancing Multimodal Emotion Recognition in Speech and Text with Integrated CNN, LSTM, and BERT Models)

  • 에드워드 카야디;한스 나타니엘 하디 수실로;송미화
    • 문화기술의 융합
    • /
    • 제10권1호
    • /
    • pp.617-623
    • /
    • 2024
  • 언어와 감정 사이의 복잡한 관계의 특징을 보이며, 우리의 말을 통해 감정을 식별하는 것은 중요한 과제로 인식된다. 이 연구는 음성 및 텍스트 데이터를 모두 포함하는 다중 모드 분류 작업을 통해 음성 언어의 감정을 식별하기 위해 속성 엔지니어링을 사용하여 이러한 과제를 해결하는 것을 목표로 한다. CNN(Convolutional Neural Networks)과 LSTM(Long Short-Term Memory)이라는 두 가지 분류기를 BERT 기반 사전 훈련된 모델과 통합하여 평가하였다. 논문에서 평가는 다양한 실험 설정 전반에 걸쳐 다양한 성능 지표(정확도, F-점수, 정밀도 및 재현율)를 다룬다. 이번 연구 결과는 텍스트와 음성 데이터 모두에서 감정을 정확하게 식별하는 두 모델의 뛰어난 능력을 보인다.

인공신경망 기반 드론 광학영상 및 LiDAR 자료를 활용한 임분단위 식생층위구조 추정 (Estimating the Stand Level Vegetation Structure Map Using Drone Optical Imageries and LiDAR Data based on an Artificial Neural Networks (ANNs))

  • 차성은;조현우;임철희;송철호;이슬기;김지원;박치영;전성우;이우균
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.653-666
    • /
    • 2020
  • 지속가능한 산림 발전을 위해 식생층위구조를 파악하는 것은 산림 자원 관리에 중요한 요소이다. 최근 기술의 발달로 드론, 딥러닝 등 신기술을 산림 부문에 접목한 활용이 늘어났으며, 이를 이용한 식생층위구조 추정이 가능해졌다. 본 연구에서는 드론-광학 및 LiDAR 영상을 융합하여 공주, 삼척, 서귀포 지역에 대해 식생층위구조를 파악하였으며, 각 92.62%(Kappa value: 0.59), 91.57%(Kappa value: 0.53), 86.00%(Kappa value: 0.63)의 정확도를 확인하였다. 딥러닝을 활용한 식생층위구조 분석 기술은 광학 및 LiDAR의 정보량이 많아질수록 모델의 성능을 높일 수 있을 것으로 기대된다. 향후, 식생의 다양한 특성이 반영될 수 있는 복잡도 높은 모델과 충분한 샘플링을 통한 학습자료 구축이 동반되어 모델의 완성도가 높아진다면, 전국단위의 식생층위구조 지도를 구축하여 우리나라 정책·제도의 참고자료로 활용될 수 있을 것이다.

딥러닝 기반 영상처리를 이용한 골재 품질 검사 (Examination of Aggregate Quality Using Image Processing Based on Deep-Learning)

  • 김성규;최우빈;이종세;이원곡;최근오;배유석
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권6호
    • /
    • pp.255-266
    • /
    • 2022
  • 콘크리트의 주재료인 골재 중 굵은 골재의 품질관리는 현재 샘플링을 통한 통계적 공정관리(SPC) 방법으로 하고 있다. 본 논문은 굵은 골재에 대한 품질관리를 현재의 체거름 방식을 대신 카메라를 통해 획득한 영상을 기반으로 굵은 골재를 검사하게 바꾸어 제조 혁신을 위한 스마트팩토리를 구축하였다. 먼저, 얻은 영상을 전처리 하였고, 딥러닝으로 학습된 HED(Holistically-nested Edge Detection)필터는 각각의 물체를 Segmentation하였다. 이 Segmentation한 결과를 영상 처리하여 각각의 골재를 분석 후 이 결과를 바탕으로 조립률, 입형률을 파악한다. 영상을 통해 얻은 골재들의 조립률, 입형률을 계산하여 골재의 품질을 검사하였고 알고리즘의 정확도는 실제로 체 가름 방식을 통해 골재의 품질을 비교한 것과 90% 이상의 정확도를 보이는 결과가 나왔다. 또한 기존의 방법으로는 골재의 입형률을 검사할 수 없었지만 본문의 내용을 통해 골재의 입형률도 측정할 수 있게 되었다. 입형률의 경우 도형을 사용하여 검증하였는데 이는 ±4.5%의 차이를 보였다. 골재의 길이 측정의 경우 실제 골재의 길이를 비교하였는데 ±6%의 차이를 보였다. 실제 3차원의 데이터를 2차원의 영상에서 분석하다보니 실제 데이터와 차이가 생겼는데 이는 추후 연구가 필요하다.

자율주행을 위한 융복합 영상 식별 시스템 개발 (Development of a Multi-disciplinary Video Identification System for Autonomous Driving)

  • 조성윤;김정준
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.65-74
    • /
    • 2024
  • 최근 자율주행 분야에서는 영상 처리 기술이 중요한 역할을 하고 있다. 그 중에서도 영상 식별 기술은 자율주행 차량의 안전성과 성능에 매우 중요한 역할을 한다. 이에 따라 본 논문에서는 융복합 영상 식별 시스템을 개발하여 자율주행 차량의 안전성과 성능을 향상시키는 것을 목표로 한다. 본 연구에서는 다양한 영상 식별 기술을 활용하여 차량주변 환경의 객체를 인식하고 추적하는 시스템을 구축한다. 이를 위해 머신 러닝과 딥 러닝 알고리즘을 활용하며, 이미지처리 및 분석 기술을 통해 실시간으로 객체를 식별하고 분류한다. 또한, 본 연구에서는 영상 처리 기술과 차량 제어 시스템을 융합하여 자율주행 차량의 안전성과 성능을 높이는 것을 목표로 한다. 이를 위해, 식별된 객체의 정보를 차량 제어시스템에 전달하여 자율주행 차량이 적절하게 반응하도록 한다. 본 연구에서 개발된 융복합 영상 식별 시스템은 자율주행 차량의 안전성과 성능을 크게 향상시킬 것으로 기대된다. 이를 통해 자율주행 차량의 상용화가 더욱 가속화될 것으로 기대된다.

RGB-Depth 카메라와 Deep Convolution Neural Networks 기반의 실시간 사람 양손 3D 포즈 추정 (Real-time 3D Pose Estimation of Both Human Hands via RGB-Depth Camera and Deep Convolutional Neural Networks)

  • 박나현;지용빈;기건;김태연;박혜민;김태성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.686-689
    • /
    • 2018
  • 3D 손 포즈 추정(Hand Pose Estimation, HPE)은 스마트 인간 컴퓨터 인터페이스를 위해서 중요한 기술이다. 이 연구에서는 딥러닝 방법을 기반으로 하여 단일 RGB-Depth 카메라로 촬영한 양손의 3D 손 자세를 실시간으로 인식하는 손 포즈 추정 시스템을 제시한다. 손 포즈 추정 시스템은 4단계로 구성된다. 첫째, Skin Detection 및 Depth cutting 알고리즘을 사용하여 양손을 RGB와 깊이 영상에서 감지하고 추출한다. 둘째, Convolutional Neural Network(CNN) Classifier는 오른손과 왼손을 구별하는데 사용된다. CNN Classifier 는 3개의 convolution layer와 2개의 Fully-Connected Layer로 구성되어 있으며, 추출된 깊이 영상을 입력으로 사용한다. 셋째, 학습된 CNN regressor는 추출된 왼쪽 및 오른쪽 손의 깊이 영상에서 손 관절을 추정하기 위해 다수의 Convolutional Layers, Pooling Layers, Fully Connected Layers로 구성된다. CNN classifier와 regressor는 22,000개 깊이 영상 데이터셋으로 학습된다. 마지막으로, 각 손의 3D 손 자세는 추정된 손 관절 정보로부터 재구성된다. 테스트 결과, CNN classifier는 오른쪽 손과 왼쪽 손을 96.9%의 정확도로 구별할 수 있으며, CNN regressor는 형균 8.48mm의 오차 범위로 3D 손 관절 정보를 추정할 수 있다. 본 연구에서 제안하는 손 포즈 추정 시스템은 가상 현실(virtual reality, VR), 증강 현실(Augmented Reality, AR) 및 융합 현실 (Mixed Reality, MR) 응용 프로그램을 포함한 다양한 응용 분야에서 사용할 수 있다.

딥러닝 모델을 이용한 비전이미지 내의 대상체 분류에 관한 연구 (A Study on The Classification of Target-objects with The Deep-learning Model in The Vision-images)

  • 조영준;김종원
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.20-25
    • /
    • 2021
  • 본 논문은 Deep-learning 기반의 검출모델을 이용하여 연속적으로 입력되는 비디오 이미지 내의 해당 대상체를 의미별로 분류해야하는 문제에 대한 구현방법에 관한 논문이다. 기존의 대상체 검출모델은 Deep-learning 기반의 검출모델로서 유사한 대상체 분류를 위해서는 방대한 DATA의 수집과 기계학습과정을 통해서 가능했다. 대상체 검출모델의 구조개선을 통한 유사물체의 인식 및 분류를 위하여 기존의 검출모델을 이용한 분류 문제를 분석하고 처리구조를 변경하여 개선된 비전처리 모듈개발을 통해 이를 기존 인식모델에 접목함으로써 대상체에 대한 인식모델을 구현하였으며, 대상체의 분류를 위하여 검출모델의 구조변경을 통해 고유성과 유사성을 정의하고 이를 검출모델에 적용하였다. 실제 축구경기 영상을 이용하여 대상체의 특징점을 분류의 기준으로 설정하여 실시간으로 분류문제를 해결하여 인식모델의 활용성 검증을 통해 산업에서의 활용도를 확인하였다. 기존의 검출모델과 새롭게 구성한 인식모델을 활용하여 실시간 이미지를 색상과 강도의 구분이 용이한 HSV의 칼라공간으로 변환하는 비전기술을 이용하여 기존모델과 비교 검증하였고, 조도 및 노이즈 환경에서도 높은 검출률을 확보할 수 있는 실시간 환경의 인식모델 최적화를 위한 선행연구를 수행하였다.

가려진 사람의 자세추정을 위한 의미론적 폐색현상 증강기법 (Semantic Occlusion Augmentation for Effective Human Pose Estimation)

  • 배현재;김진평;이지형
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권12호
    • /
    • pp.517-524
    • /
    • 2022
  • 사람의 자세추정(Human pose estimation)은 사람의 관절 키포인트를 추출하여 자세를 추정하는 방법이다. 폐색현상(Occlusion)이 발생하면, 사람의 관절이 가려지므로 관절 키포인트 추출 성능이 낮아진다. 폐색현상은 총 3가지로 행동할 때 스스로 가려짐, 다른 사물에 의해 가려짐과 배경에 의해 가려짐으로 크게 나뉜다. 본 논문에서는 폐색현상 증강기법을 활용하여 효과적인 자세추정방법을 제안한다. 자세추정방법이 지속적으로 연구되어왔지만, 자세추정방법의 가려짐 현상에 관한 연구는 상대적으로 부족한 상태이다. 이를 해결하기 위해 저자는 사람의 관절을 타겟팅하여 의도적으로 가리는 데이터 증강기법을 제안한다. 본 논문에서의 실험 결과는 의도적으로 폐색현상 증강기법을 활용하면 폐색현상에 강인하며 성능이 올라간 것을 보여준다.

한국어 문서 요약 기법을 활용한 휘발유 재고량에 대한 미디어 분석 (Media-based Analysis of Gasoline Inventory with Korean Text Summarization)

  • 윤성연;박민서
    • 문화기술의 융합
    • /
    • 제9권5호
    • /
    • pp.509-515
    • /
    • 2023
  • 국가 차원의 지속적인 대체 에너지 개발에도 석유 제품의 사용량은 지속적으로 증가하고 있다. 특히, 대표적인 석유 제품인 휘발유는 국제유가의 변동에 그 가격이 크게 변동한다. 주유소에서는 휘발유의 가격 변화에 대응하기 위해 휘발유 재고량을 조절한다. 따라서, 휘발유 재고량의 주요 변화 요인을 분석하여 전반적인 휘발유 소비 행태를 분석할 필요가 있다. 본 연구에서는 주유소의 휘발유 재고량 변화에 영향을 미치는 요인을 파악하기 위해 뉴스 기사를 활용한다. 첫째, 웹 크롤링을 통해 자동으로 휘발유와 관련한 기사를 수집한다. 둘째, 수집한 뉴스 기사를 KoBART(Korean Bidirectional and Auto-Regressive Transformers) 텍스트 요약 모델을 활용하여 요약한다. 셋째, 추출한 요약문을 전처리하고, N-Gram 언어 모델과 TF-IDF(Term Frequency Inverse Document Frequency)를 통해 단어 및 구 단위의 주요 요인을 도출한다. 본 연구를 통해 휘발유 소비 형태의 파악 및 예측이 가능하다.

IoT 기반 교통사고 실시간 인지방법론 연구 (A Study on the Real-time Recognition Methodology for IoT-based Traffic Accidents)

  • 오성훈;전영준;권영우;정석찬
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.15-27
    • /
    • 2022
  • 최근 5년간 차량 단독사고 교통사고 치사율이 전체 사고보다 4.7배 높은 것으로 집계되고 있으며, 차량 단독사고를 즉각적으로 감지하고 대응할 수 있는 시스템 구축이 필요하다. 본 연구는 가드레일에 충격과 차량 진입 감지 IoT(Internet of Thing) 센서를 부착하여 가드레일 충격 발생 시 사고 현장의 영상을 인공지능 기술을 통해 분석하고 구조기관에 전송하여 빠른 구조작업을 수행하여 피해를 최소화 시킬 수 있는 방법론을 제시한다. 해당 구간 내 차량 진입과 가드레일 충격 감지를 위한 IoT 센서 모듈과 차량 이미지 데이터 학습을 통한 인공지능 기반 객체 탐지 모듈을 구현하였다. 그리고, 센서 정보와 영상 데이터 등을 통합적으로 관리하는 모니터링 및 운영 모듈도 구현하였다. 시스템 유효성 검증을 위하여 충격 감지 전송속도와 자동차 및 사람 객체 탐지 정확도, 센서 장애감지 정확도를 측정한 결과, 모두 목표치를 충족하였다. 향후에는 실제 도로에 적용하여 실데이터를 적용한 유효성을 검증하고 상용화할 계획이다. 본 시스템은 도로 안전 향상에 이바지할 것이다.