• 제목/요약/키워드: Image Deep Learning

검색결과 1,827건 처리시간 0.028초

딥 러닝과 파노라마 영상 스티칭 기법을 이용한 송전선 늘어짐 모니터링 시스템 (The Power Line Deflection Monitoring System using Panoramic Video Stitching and Deep Learning)

  • 박은수;김승환;이상순;류은석
    • 방송공학회논문지
    • /
    • 제25권1호
    • /
    • pp.13-24
    • /
    • 2020
  • 한국에는 전력 분배를 위하여 약 9백만 개의 전신주와 1.3백만 킬로미터의 송전선이 있다. 이러한 많은 전력 설비의 유지보수를 위해서는 많은 인력과 시간이 소요된다. 최근 인공지능을 사용한 여러 고장진단 기술들이 연구되어 오고 있기 때문에 본 논문에서는 송전선의 여러 요인으로 인한 늘어짐을 감지하기 위해 기존의 현장에서의 검증 방법이 아닌 카메라 시스템으로 촬영한 영상에서의 인공 지능 기술을 활용한 송전선 늘어짐 감지 시스템을 제안한다. 제안하는 시스템은 (i) 객체 탐지 시스템을 이용한 송전탑 감지 (ii) 동영상 촬영 데이터의 화질 저하 문제를 해결하기 위한 히스토그램 평활화 기법 (iii) 송전선 전체를 파악하기 위한 파노라마 영상 스티칭(iv) 송전선 탐지 알고리즘 적용 후 파노라마 영상 스티칭 기술을 이용한 늘어짐 판단 과정으로 진행된다. 본 논문에서는 각각의 과정들에 대한 설명 및 실험 결과를 보인다.

가상 데이터를 활용한 번호판 문자 인식 및 차종 인식 시스템 제안 (Proposal for License Plate Recognition Using Synthetic Data and Vehicle Type Recognition System)

  • 이승주;박구만
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.776-788
    • /
    • 2020
  • 본 논문에서는 딥러닝을 이용한 차종 인식과 자동차 번호판 문자 인식 시스템을 제안한다. 기존 시스템에서는 영상처리를 통한 번호판 영역 추출과 DNN을 이용한 문자 인식 방법을 사용하였다. 이러한 시스템은 환경이 변화되면 인식률이 하락되는 문제가 있다. 따라서, 제안하는 시스템은 실시간 검출과 환경 변화에 따른 정확도 하락에 초점을 맞춰 1-stage 객체 검출 방법인 YOLO v3를 사용하였으며, RGB 카메라 한 대로 실시간 차종 및 번호판 문자 인식이 가능하다. 학습데이터는 차종 인식과 자동차 번호판 영역 검출의 경우 실제 데이터를 사용하며, 자동차 번호판 문자 인식의 경우 가상 데이터만을 사용하였다. 각 모듈별 정확도는 차종 검출은 96.39%, 번호판 검출은 99.94%, 번호판 검출은 79.06%를 기록하였다. 이외에도 YOLO v3의 경량화 네트워크인 YOLO v3 tiny를 이용하여 정확도를 측정하였다.

라이트필드 초해상도와 블러 제거의 동시 수행을 위한 적대적 신경망 모델 (Adversarial Framework for Joint Light Field Super-resolution and Deblurring)

  • 조나단 사무엘;백형선;박인규
    • 방송공학회논문지
    • /
    • 제25권5호
    • /
    • pp.672-684
    • /
    • 2020
  • 시차 기반 영상처리에 대한 연구들이 증가함에 따라 저해상도 및 모션 블러된 라이트필드 영상을 복원하는 연구는 필수적이 되었다. 이러한 기법들은 라이트필드 영상 향상 과정으로 알려져 있으나 두 개 이상의 문제를 동시에 해결하는 기존의 연구는 거의 존재하지 않는다. 본 논문에서는 라이트필드 공간 영역 초해상도 복원과 모션 블러 제거를 동시 수행하는 프레임워크를 제안한다. 특히, 저해상도 및 6-DOF 모션 블러된 라이트필드 데이터셋으로 훈련하는 간단한 네트워크를 생성한다. 또한 성능을 향상하기 위해 생성적 적대 신경망의 지역 영역 최적화 기법을 제안하였다. 제안한 프레임워크는 정량적, 정성적 측정을 통해 평가하고 기존의 state-of-the-art 기법들과 비교하여 우수한 성능을 나타냄을 보인다.

Potential of Bidirectional Long Short-Term Memory Networks for Crop Classification with Multitemporal Remote Sensing Images

  • Kwak, Geun-Ho;Park, Chan-Won;Ahn, Ho-Yong;Na, Sang-Il;Lee, Kyung-Do;Park, No-Wook
    • 대한원격탐사학회지
    • /
    • 제36권4호
    • /
    • pp.515-525
    • /
    • 2020
  • This study investigates the potential of bidirectional long short-term memory (Bi-LSTM) for efficient modeling of temporal information in crop classification using multitemporal remote sensing images. Unlike unidirectional LSTM models that consider only either forward or backward states, Bi-LSTM could account for temporal dependency of time-series images in both forward and backward directions. This property of Bi-LSTM can be effectively applied to crop classification when it is difficult to obtain full time-series images covering the entire growth cycle of crops. The classification performance of the Bi-LSTM is compared with that of two unidirectional LSTM architectures (forward and backward) with respect to different input image combinations via a case study of crop classification in Anbadegi, Korea. When full time-series images were used as inputs for classification, the Bi-LSTM outperformed the other unidirectional LSTM architectures; however, the difference in classification accuracy from unidirectional LSTM was not substantial. On the contrary, when using multitemporal images that did not include useful information for the discrimination of crops, the Bi-LSTM could compensate for the information deficiency by including temporal information from both forward and backward states, thereby achieving the best classification accuracy, compared with the unidirectional LSTM. These case study results indicate the efficiency of the Bi-LSTM for crop classification, particularly when limited input images are available.

Improved STGAN for Facial Attribute Editing by Utilizing Mask Information

  • Yang, Hyeon Seok;Han, Jeong Hoon;Moon, Young Shik
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권5호
    • /
    • pp.1-9
    • /
    • 2020
  • 본 논문에서는 머리카락과 모자 영역의 마스크 정보를 활용하여 더 자연스러운 얼굴 속성 편집(facial attribute editing)을 수행하는 모델을 제안한다. 최신 얼굴 속성 편집 연구인 STGAN은 다중 얼굴 속성을 자연스럽게 편집하는 성과를 보였다. 그러나 머리카락과 관련된 속성을 편집할 때 부자연스러운 결과를 생성할 수 있다. 제안하는 방법의 핵심 아이디어는 기존 모델에서 부족했던 얼굴 영역의 정보를 모델에 추가로 반영하는 것이다. 이를 위해 세 가지 아이디어를 적용한다. 첫째로 마스크를 통해 머리카락 면적 속성을 추가하여 머리카락 정보를 보완한다. 둘째로 순환 일관성 손실(cycle consistency loss)을 추가하여 영상의 불필요한 변화를 억제한다. 셋째로 모자 분할 신경망을 추가하여 모자 영역 왜곡을 방지한다. 정성적 평가를 통해 제안하는 방법 적용 여부에 따른 유효성을 평가 및 분석한다. 실험 결과에서 제안하는 방법이 머리카락 및 얼굴 영역을 더 자연스럽게 생성하고, 모자 영역의 왜곡을 성공적으로 방지했다.

CNN을 적용한 조명변화에 강인한 얼굴인식 연구 (Research on Robust Face Recognition against Lighting Variation using CNN)

  • 김연호;박성욱;김도연
    • 한국전자통신학회논문지
    • /
    • 제12권2호
    • /
    • pp.325-330
    • /
    • 2017
  • 얼굴인식 기술은 지난 수십 년간 연구되어온 분야로서 보안, 엔터테인먼트, 모바일 서비스 등 다양한 영역에서 활용되고 있다. 얼굴인식 기술이 가진 주된 문제점은 밝기, 조명각도, 영상 회전등의 환경적 변화 요소에 따라 인식률이 현저하게 감소된다는 것이다. 따라서 본 논문에서는 최근 많은 계산량을 처리할 수 있는 컴퓨터 하드웨어와 알고리즘의 발전으로 재조명 받고 있는 CNN을 이용해 조명변화에 강인한 얼굴인식 방법을 제안하였다. 이후 성능검증을 위해 기존의 얼굴인식 알고리즘인 PCA, LBP, DCT와 결과 비교를 진행하였으며, 각각 9.82%, 11.6%, 4.54%의 성능 향상을 보였다. 또한 기존 신경망을 적용한 얼굴인식 연구결과 비교에서도 5.24%의 성능 향상을 기록하여 최종 인식률 99.25%를 달성하는 결과를 보였다.

눈 영상비를 이용한 운전자 상태 경고 시스템 (A Driver's Condition Warning System using Eye Aspect Ratio)

  • 신문창;이원영
    • 한국전자통신학회논문지
    • /
    • 제15권2호
    • /
    • pp.349-356
    • /
    • 2020
  • 본 논문은 교통사고 방지를 위한 운전자의 눈 영상비를 이용한 상태 경고시스템의 설계에 대해 소개하고 있다. 제안하는 운전자 상태 경고 시스템은 눈 인식을 위한 카메라, 카메라를 통해 들어오는 정보를 처리하는 라즈베리파이, 그리고 그 정보를 통해 운전자에게 경고를 줄 때 필요한 부저와 진동기로 구성되어 있다. 운전자의 눈을 인식하기 위해서 기울기 방향성 히스토그램 기술과 딥러닝 기반의 얼굴 표지점 추정 기법을 사용하였다. 동작을 시작하면, 시스템은 눈 주변의 6개의 좌표를 통해 눈 영상비를 계산한다. 그리고 눈을 뜬 상태와 감은 상태의 눈 영상비를 각각 계산한 후 이 두 값으로부터 눈의 상태를 판단하는데 사용하는 문턱 값을 설정한다. 문턱 값이 운전자의 눈 크기에 적응하면서 설정되기 때문에 시스템은 최적의 문턱 값을 사용하여 운전자의 상태를 판단할 수 있다. 또한 낮은 조도에서도 눈을 인식할 수 있도록 회색조 변환 이미지와 LAB모델 이미지를 합성하여 사용하였다.

아동 그림 심리분석을 위한 인공지능 기반 객체 탐지 알고리즘 응용 (Application of object detection algorithm for psychological analysis of children's drawing)

  • 임지연;이성옥;김경표;유용균
    • 한국산업정보학회논문지
    • /
    • 제26권5호
    • /
    • pp.1-9
    • /
    • 2021
  • 아동 그림은 내면의 감정을 표현할 수 있는 수단으로 아동 심리 진단에 널리 이용되고 있다. 본 논문에서는 아동 그림 분석에 적용할 수 있는 아동 그림 기반의 객체 탐지 알고리즘을 제안한다. 먼저 사진에서의 그림 영역을 추출하였고 데이터 라벨링 과정을 수행하였다. 이후 라벨링된 데이터 셋를 사용하여 Faster R-CNN 기반 객체 탐지모델을 학습하고 평가하였다. 탐지된 객체 결과를 기반으로 그림 면적 및 위치 또는 색상 정보를 계산하여 그림에 대한 기초정보를 쉽고 빠르게 분석할 수 있도록 설계하였다. 이를 통해 아동 그림을 이용한 심리분석에 있어 인공지능 기반 객체 탐지 알고리즘의 활용성을 보였다.

영유아 이상징후 감지를 위한 표정 인식 알고리즘 개선 (The improved facial expression recognition algorithm for detecting abnormal symptoms in infants and young children)

  • 김윤수;이수인;석종원
    • 전기전자학회논문지
    • /
    • 제25권3호
    • /
    • pp.430-436
    • /
    • 2021
  • 비접촉형 체온 측정 시스템은 광학 및 열화상 카메라를 활용하여 집단시설의 발열성 질병을 관리하는 핵심 요소 중 하나이다. 기존 체온 측정 시스템은 딥러닝 기반 얼굴검출 알고리즘이 사용되어 얼굴영역의 단순 체온 측정에는 활용할 수 있지만, 의사표현이 어려운 영유아의 이상 징후를 인지하는데 한계가 있다. 본 논문에서는 기존의 체온 측정 시스템에서 영유아의 이상징후 감지를 위해 표정인식 알고리즘을 개선한다. 제안된 방법은 객체탐지 모델을 사용하여 영상에서 영유아를 검출한 후 얼굴영역을 추출하고 표정인식의 핵심 요소인 눈, 코, 입의 좌표를 획득한다. 이후 획득된 좌표를 기반으로 선택적 샤프닝 필터를 적용하여 표정인식을 진행한다. 실험결과에 따르면 제안된 알고리즘은 UTK 데이터셋에서 무표정, 웃음, 슬픔 3가지 표정에 대해 각각 2.52%, 1.12%, 2.29%가 향상되었다.

카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion (Camera and LiDAR Sensor Fusion for Improving Object Detection)

  • 이종서;김만규;김학일
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.580-591
    • /
    • 2019
  • 본 논문의 목적은 자율주행을 위하여 카메라와 라이다를 이용하여 객체를 검출하고 각 센서에서 검출된 객체를 late fusion 방식으로 융합을 하여 성능을 향상하는 것을 목적으로 한다. 카메라를 이용한 객체 검출은 one-stage 검출인 YOLOv3을, 검출된 객체의 거리 추정은 perspective matrix를, 라이다의 객체 검출은 K-means 군집화 기반 객체 검출을 각각 이용하였다. 카메라와 라이다 calibration은 PnP-RANSAC을 이용하여 회전, 변환 행렬을 구하였다. 센서 융합은 라이다에서 검출된 객체를 이미지 평면에 옮겨 Intersection over union(IoU)을 계산하고, 카메라에서 검출된 객체를 월드 좌표에 옮겨 거리, 각도를 계산하여 IoU, 거리 그리고 각도 세 가지 속성을 로지스틱 회귀를 이용하여 융합을 하였다. 융합을 통하여 각 센서에서 검출되지 않은 객체를 보완해주어 성능이 약 5% 증가하였다.