• 제목/요약/키워드: 3D-CNN

검색결과 157건 처리시간 0.027초

Enhanced 3D Residual Network for Human Fall Detection in Video Surveillance

  • Li, Suyuan;Song, Xin;Cao, Jing;Xu, Siyang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권12호
    • /
    • pp.3991-4007
    • /
    • 2022
  • In the public healthcare, a computational system that can automatically and efficiently detect and classify falls from a video sequence has significant potential. With the advancement of deep learning, which can extract temporal and spatial information, has become more widespread. However, traditional 3D CNNs that usually adopt shallow networks cannot obtain higher recognition accuracy than deeper networks. Additionally, some experiences of neural network show that the problem of gradient explosions occurs with increasing the network layers. As a result, an enhanced three-dimensional ResNet-based method for fall detection (3D-ERes-FD) is proposed to directly extract spatio-temporal features to address these issues. In our method, a 50-layer 3D residual network is used to deepen the network for improving fall recognition accuracy. Furthermore, enhanced residual units with four convolutional layers are developed to efficiently reduce the number of parameters and increase the depth of the network. According to the experimental results, the proposed method outperformed several state-of-the-art methods.

Accuracy of artificial intelligence-assisted landmark identification in serial lateral cephalograms of Class III patients who underwent orthodontic treatment and two-jaw orthognathic surgery

  • Hong, Mihee;Kim, Inhwan;Cho, Jin-Hyoung;Kang, Kyung-Hwa;Kim, Minji;Kim, Su-Jung;Kim, Yoon-Ji;Sung, Sang-Jin;Kim, Young Ho;Lim, Sung-Hoon;Kim, Namkug;Baek, Seung-Hak
    • 대한치과교정학회지
    • /
    • 제52권4호
    • /
    • pp.287-297
    • /
    • 2022
  • Objective: To investigate the pattern of accuracy change in artificial intelligence-assisted landmark identification (LI) using a convolutional neural network (CNN) algorithm in serial lateral cephalograms (Lat-cephs) of Class III (C-III) patients who underwent two-jaw orthognathic surgery. Methods: A total of 3,188 Lat-cephs of C-III patients were allocated into the training and validation sets (3,004 Lat-cephs of 751 patients) and test set (184 Lat-cephs of 46 patients; subdivided into the genioplasty and non-genioplasty groups, n = 23 per group) for LI. Each C-III patient in the test set had four Lat-cephs: initial (T0), pre-surgery (T1, presence of orthodontic brackets [OBs]), post-surgery (T2, presence of OBs and surgical plates and screws [S-PS]), and debonding (T3, presence of S-PS and fixed retainers [FR]). After mean errors of 20 landmarks between human gold standard and the CNN model were calculated, statistical analysis was performed. Results: The total mean error was 1.17 mm without significant difference among the four time-points (T0, 1.20 mm; T1, 1.14 mm; T2, 1.18 mm; T3, 1.15 mm). In comparison of two time-points ([T0, T1] vs. [T2, T3]), ANS, A point, and B point showed an increase in error (p < 0.01, 0.05, 0.01, respectively), while Mx6D and Md6D showeda decrease in error (all p < 0.01). No difference in errors existed at B point, Pogonion, Menton, Md1C, and Md1R between the genioplasty and non-genioplasty groups. Conclusions: The CNN model can be used for LI in serial Lat-cephs despite the presence of OB, S-PS, FR, genioplasty, and bone remodeling.

Recognition of Virtual Written Characters Based on Convolutional Neural Network

  • Leem, Seungmin;Kim, Sungyoung
    • Journal of Platform Technology
    • /
    • 제6권1호
    • /
    • pp.3-8
    • /
    • 2018
  • This paper proposes a technique for recognizing online handwritten cursive data obtained by tracing a motion trajectory while a user is in the 3D space based on a convolution neural network (CNN) algorithm. There is a difficulty in recognizing the virtual character input by the user in the 3D space because it includes both the character stroke and the movement stroke. In this paper, we divide syllable into consonant and vowel units by using labeling technique in addition to the result of localizing letter stroke and movement stroke in the previous study. The coordinate information of the separated consonants and vowels are converted into image data, and Korean handwriting recognition was performed using a convolutional neural network. After learning the neural network using 1,680 syllables written by five hand writers, the accuracy is calculated by using the new hand writers who did not participate in the writing of training data. The accuracy of phoneme-based recognition is 98.9% based on convolutional neural network. The proposed method has the advantage of drastically reducing learning data compared to syllable-based learning.

딥러닝 기반 실시간 손 제스처 인식 (Real-Time Hand Gesture Recognition Based on Deep Learning)

  • 김규민;백중환
    • 한국멀티미디어학회논문지
    • /
    • 제22권4호
    • /
    • pp.424-431
    • /
    • 2019
  • In this paper, we propose a real-time hand gesture recognition algorithm to eliminate the inconvenience of using hand controllers in VR applications. The user's 3D hand coordinate information is detected by leap motion sensor and then the coordinates are generated into two dimensional image. We classify hand gestures in real-time by learning the imaged 3D hand coordinate information through SSD(Single Shot multibox Detector) model which is one of CNN(Convolutional Neural Networks) models. We propose to use all 3 channels rather than only one channel. A sliding window technique is also proposed to recognize the gesture in real time when the user actually makes a gesture. An experiment was conducted to measure the recognition rate and learning performance of the proposed model. Our proposed model showed 99.88% recognition accuracy and showed higher usability than the existing algorithm.

위성 영상을 위한 경량화된 CNN 기반의 보간 기술 연구 (A Study on Lightweight CNN-based Interpolation Method for Satellite Images)

  • 김현호;서두천;정재헌;김용우
    • 대한원격탐사학회지
    • /
    • 제38권2호
    • /
    • pp.167-177
    • /
    • 2022
  • 위성 영상 촬영 후 지상국에 전송된 영상을 이용하여 최종 위성 영상을 획득하기 위해 많은 영상 전/후 처리 과정이 수반된다. 전/후처리 과정 중 레벨 1R 영상에서 레벨 1G 영상으로 변환 시 기하 보정은 필수적으로 요구된다. 기하 보정 알고리즘에서는 보간 기법을 필연적으로 사용하게 되며, 보간 기법의 정확도에 따라서 레벨 1G 영상의 품질이 결정된다. 또한, 레벨 프로세서에서 수행되는 보간 알고리즘의 고속화 역시 매우 중요하다. 본 논문에서는 레벨 1R에서 레벨 1G로 변환 시 기하 보정에 필요한 경량화된 심층 컨볼루션 신경망 기반 보간 기법에 대해 제안하였다. 제안한 기법은 위성 영상의 해상도를 2배 향상하며, 빠른 처리 속도를 위해 경량화된 심층 컨볼루션 신경망으로 딥러닝 네트워크를 구성하였다. 또한, panchromatic (PAN) 밴드 정보를 활용하여 multispectral (MS) 밴드의 영상 품질 개선이 가능한 피처 맵 융합 방법을 제안하였다. 제안된 보간 기술을 통해 획득한 영상은 기존의 딥러닝 기반 보간 기법에 비해 정량적인 peak signal-to-noise ratio (PSNR) 지표에서 PAN 영상은 약 0.4 dB, MS 영상은 약 4.9 dB 개선된 결과를 보여주었으며, PAN 영상 크기 기준 36,500×36,500 입력 영상의 해상도를 2배 향상된 영상 획득 시 기존 딥러닝 기반 보간 기법 대비 처리 속도가 약 1.6배 향상됨을 확인하였다.

불균형 블랙박스 동영상 데이터에서 충돌 상황의 다중 분류를 위한 손실 함수 비교 (Comparison of Loss Function for Multi-Class Classification of Collision Events in Imbalanced Black-Box Video Data)

  • 이의상;한석민
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.49-54
    • /
    • 2024
  • 데이터 불균형은 분류 문제에서 흔히 마주치는 문제로, 데이터셋 내의 클래스간 샘플 수의 현저한 차이에서 기인한다. 이러한 데이터 불균형은 일반적으로 분류 모델에서 과적합, 과소적합, 성능 지표의 오해 등의 문제를 야기한다. 이를 해결하기 위한 방법으로는 Resampling, Augmentation, 규제 기법, 손실 함수 조정 등이 있다. 본 논문에서는 손실 함수 조정에 대해 다루며 특히, 불균형 문제를 가진 Multi-Class 블랙박스 동영상 데이터에서 여러 구성의 손실 함수(Cross Entropy, Balanced Cross Entropy, 두 가지 Focal Loss 설정: 𝛼 = 1 및 𝛼 = Balanced, Asymmetric Loss)의 성능을 I3D, R3D_18 모델을 활용하여 비교하였다.

ADD-Net: Attention Based 3D Dense Network for Action Recognition

  • Man, Qiaoyue;Cho, Young Im
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.21-28
    • /
    • 2019
  • Recent years with the development of artificial intelligence and the success of the deep model, they have been deployed in all fields of computer vision. Action recognition, as an important branch of human perception and computer vision system research, has attracted more and more attention. Action recognition is a challenging task due to the special complexity of human movement, the same movement may exist between multiple individuals. The human action exists as a continuous image frame in the video, so action recognition requires more computational power than processing static images. And the simple use of the CNN network cannot achieve the desired results. Recently, the attention model has achieved good results in computer vision and natural language processing. In particular, for video action classification, after adding the attention model, it is more effective to focus on motion features and improve performance. It intuitively explains which part the model attends to when making a particular decision, which is very helpful in real applications. In this paper, we proposed a 3D dense convolutional network based on attention mechanism(ADD-Net), recognition of human motion behavior in the video.

A Deep Learning Model for Disaster Alerts Classification

  • Park, Soonwook;Jun, Hyeyoon;Kim, Yoonsoo;Lee, Soowon
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권12호
    • /
    • pp.1-9
    • /
    • 2021
  • 재난문자는 재난 발생 시 국가에서 해당 지역에 있는 시민들에게 보내는 문자 메시지다. 재난문자의 발송 건수는 점점 증가하여, 불필요한 재난문자가 많이 수신됨에 따라 재난문자를 차단하는 사람들이 증가하고 있다. 이와 같은 문제를 해결하기 위하여, 본 연구에서는 재난문자를 재난 유형별로 자동으로 분류하고 수신자에 따라 필요한 재난의 재난문자만 수신하게 하는 딥러닝 모델을 제안한다. 제안 모델은 재난문자를 KoBERT를 통해 임베딩하고, LSTM을 통해 재난 유형별로 분류한다. [명사], [명사 + 형용사 + 동사], [모든 품사]의 3가지 품사 조합과 제안 모델, 키워드 분류, Word2Vec + 1D-CNN 및 KoBERT + FFNN의 4종류 분류 모델을 활용하여 재난문자를 분류한 결과, 제안 모델이 0.988954의 정확도로 가장 높은 성능을 달성하였다.

자동 잔향 편집을 위한 컬러 및 깊이 정보 기반 실내 장면 분류 (Indoor Scene Classification based on Color and Depth Images for Automated Reverberation Sound Editing)

  • 정민혁;유용현;박성준;황승준;백중환
    • 한국정보통신학회논문지
    • /
    • 제24권3호
    • /
    • pp.384-390
    • /
    • 2020
  • 영화나 VR 콘텐츠 제작 시 음향에 잔향 효과를 주는 것은 현장감과 생동감을 느끼게 하는데 매우 중요한 요소이다. 공간에 따른 음향의 잔향 시간은 RT60(Reverberation Time 60dB)이라는 표준에서 권고된다. 본 논문에서는 음향 편집 시 자동 잔향 편집을 위한 장면 인식 기법을 제안한다. 이를 위해 컬러 이미지와 예측된 깊이 이미지를 동일한 모델에 독립적으로 학습하는 분류 모델을 설계하였다. 실내 장면 분류는 내부 구조가 유사한 클래스가 존재하여 컬러 정보 학습만으로는 인식률의 한계가 존재한다. 공간의 깊이 정보를 사용하기 위해 딥러닝 기반의 깊이 정보 추출 기술을 사용하였다. RT60을 기반으로 총 10개의 장면 클래스를 구성하고 모델 학습 및 평가를 진행하였다. 최종적으로 제안하는 SCR+DNet(Scene Classification for Reverb+Depth Net) 분류기는 92.4%의 정확도로 기존의 CNN 분류기들보다 더 높은 성능을 달성하였다.

CNN 및 SVM 기반의 개인 맞춤형 피복추천 시스템: 군(軍) 장병 중심으로 (CNN and SVM-Based Personalized Clothing Recommendation System: Focused on Military Personnel)

  • 박건우
    • 문화기술의 융합
    • /
    • 제9권1호
    • /
    • pp.347-353
    • /
    • 2023
  • 현재 軍(육군) 입대 장병은 신병훈련소에서 신체에 대한 치수 측정(자동, 수동) 및 샘플 피복을 착용해 본 후, 희망하는 치수로 피복을 지급받고 있다. 하지만, 민간 평상복보다 상대적으로 매우 세분화된 치수 체계를 적용하고 있는 軍에서는 이와 같은 치수 측정 과정에서 발생하는 측정된 치수의 낮은 정확도로 인해 지급받은 피복이 제대로 맞지 않아 피복을 교체하는 빈도가 매우 빈번히 발생하고 있다. 뿐만 아니라 서구적으로 변화된 MZ 세대의 체형변화를 반영하지 않고, 10여 년 전(前)에 수집된 구세대 체형 데이터 기반의 치수 체계를 적용함으로써 재고량이 비효율적으로 관리되는 문제점이 있다. 즉, 필요한 규격의 피복은 부족하고 불필요한 규격의 피복재고는 다수 발생하고 있다. 따라서, 피복 교체빈도를 감소시키고 재고관리의 효율성을 향상하기 위해 딥러닝 기반의 신체 치수 자동측정과 빅데이터 분석 및 머신러닝 기반의 "입대 장병 개인 맞춤형 피복 자동 추천 시스템"을 제안한다.