• 제목/요약/키워드: Image deep learning

검색결과 1,852건 처리시간 0.028초

인조 번호판을 이용한 자동차 번호인식 성능 향상 기법 (Improved Method of License Plate Detection and Recognition using Synthetic Number Plate)

  • 장일식;박구만
    • 방송공학회논문지
    • /
    • 제26권4호
    • /
    • pp.453-462
    • /
    • 2021
  • 자동차 번호인식을 위해선 수많은 번호판 데이터가 필요하다. 번호판 데이터는 과거의 번호판부터 최신의 번호판까지 균형 있는 데이터의 확보가 필요하다. 하지만 실제 과거의 번호판부터 최신의 번호판의 데이터를 획득하는데 어려움이 있다. 이러한 문제를 해결하기 위해 인조 번호판을 이용하여 자동차 번호판을 생성하여 딥러닝을 통한 번호판 인식 연구가 진행되고 있다. 하지만 인조 데이터는 실제 데이터와 차이가 존재하며, 이러한 문제를 해결하기 위해 다양한 데이터 증강 기법을 사용한다. 기존 데이터 증강 방식은 단순히 밝기, 회전, 어파인 변환, 블러, 노이즈등의 방법을 사용하였다. 본 논문에서는 데이터 증강 방법으로 인조데이터를 실제 데이터 스타일로 변환하는 스타일 변환 방법을 적용한다. 또한 실제 번호판 데이터는 원거리가 많고 어두운 경우 잡음이 많이 존재한다. 단순히 입력데이터를 가지고 문자를 인식할 경우 오인식의 가능성이 높다. 이러한 경우 문자인식 향상을 위해 본 논문에서는 문자인식을 위하여 화질개선 방법으로 DeblurGANv2 방법을 적용하여 번호판 인식 정확도를 높였다. 번호판 검출 및 번호판 번호인식을 위한 딥러닝의 방식은 YOLO-V5를 사용하였다. 인조 번호판 데이터 성능을 판단하기 위해 자체적으로 확보한 자동차 번호판을 수집하여 테스트 셋을 구성하였다. 스타일 변환을 적용하지 않은 번호판 검출이 0.614mAP를 기록하였다. 스타일 변환을 적용한 결과 번호판 검출 성능이 0.679mAP 기록하여 성능이 향상되었음을 확인하였다. 또한 번호판 문자인식에는 화질 개선을 하지 않은 검출 성공률은 0.872를 기록하였으며, 화질 개선 후 검출 성능이 0.915를 기록하여 성능 향상이 되었음을 확인 하였다.

역 원근변환 기법을 이용한 터널 영상유고시스템의 원거리 감지 성능 향상에 관한 연구 (A study for improvement of far-distance performance of a tunnel accident detection system by using an inverse perspective transformation)

  • 이규범;신휴성
    • 한국터널지하공간학회 논문집
    • /
    • 제24권3호
    • /
    • pp.247-262
    • /
    • 2022
  • 국내 200 m 이상 연장의 터널에서는 CCTV 설치가 의무화되어 있으며, 터널 내 돌발 상황을 자동으로 인지한 다음 터널 관리자에게 알릴 수 있는 터널 영상유고시스템의 운영이 권고된다. 여기서 터널 내 설치된 CCTV는 터널 구조물의 공간적인 한계로 인해 낮은 높이로 설치된다. 이에 따라 이동차량과 매우 인접하므로, 이동차량과 CCTV와의 거리에 따른 원근현상이 매우 심하다. 이로 인해, 기존 터널 영상유고시스템은 터널 CCTV로부터 멀리 떨어질수록 차량의 정차 및 역주행, 보행자 출현 및 화재 발생과 같은 터널 내 유고상황을 인지하기 매우 어려우며, 100 m 이상의 거리에서는 높은 유고상황 인지 성능을 기대하기 어려운 것으로 알려져 있다. 이 문제를 해결하기 위해 관심영역 설정 및 역 원근변환(Inverse perspective transform)을 도입하였으며, 이 과정을 통해 얻은 변환영상은 먼 거리에 있는 객체의 크기가 확대된다. 이에 따라 거리에 따라 객체의 크기가 비교적 일정하게 유지되므로, 거리에 따른 객체 인식 성능과 영상에서 보이는 차량의 이동속도 또한 일관성을 유지할 수 있다. 이를 증명하기 위해 본 논문에서는 터널 CCTV의 원본영상과 변환영상을 바탕으로 동일한 조건을 가지는 데이터셋을 각각 제작 및 구성하였으며, 영상 내 차량의 실제 위치의 변화에 따른 겉보기 속도와 객체 크기를 비교하였다. 그 다음 딥러닝 객체인식 모델의 학습 및 추론을 통해 각 영상 데이터셋에 대한 거리에 따른 객체인식 성능을 비교하였다. 결과적으로 변환영상을 사용한 모델은 200 m 이상의 거리에서도 객체인식 성능과 이동차량의 유고상황 인지 성능을 확보할 수 있음을 보였다.

Curve Number 및 Convolution Neural Network를 이용한 유출모형의 적용성 평가 (Applicability Evaluation for Discharge Model Using Curve Number and Convolution Neural Network)

  • 송철민;이광현
    • Ecology and Resilient Infrastructure
    • /
    • 제7권2호
    • /
    • pp.114-125
    • /
    • 2020
  • 본 연구는 유출모형 연구를 위해 주로 사용되었던 DNN에서 벗어나, 다양한 신경망을 이용하여 유출모형을 개발하고 모형의 적합성을 나타내고자 하였다. 이를 위해 분류문제에만 사용되었던 CNN을 활용하였는데, 본 모형의 입력자료로 일반적으로 CNN에서 사용하는 사진을 이용할 수 없으며, 연구의 특성상 유역조건 및 강우 등의 영향이 반영된 수치적(numerical) 이미지(image)를 사용해야 하는 난해점이 있다. 이를 해결하고자 NRCS의 CN을 사용하여 이미지를 생성했으며, CNN 모형의 입력자료로 충분히 활용 가능함을 나타냈다. 이에 더하여, 유출 추정을 위해서만 사용되어왔던 CN의 새로운 용도를 제시할 수 있었다. 모형의 학습 및 검정 결과, 전반적으로 안정적으로 모형의 학습 및 일반화가 이루어졌으며, 관측값과 산정값간의 관계를 나타내는 R2는 0.79로 비교적 높은 값이 나타났다. 또한, 모형의 평가결과는 Pearson 상관계수, NSE, 및 RMSE 등이 각각 0.84, 0.65 및 24.54 ㎥/s으로 나타나, 전반적으로 양호한 모형의 산정성능을 보인것으로 나타났다.

HRNet-OCR과 Swin-L 모델을 이용한 조식동물 서식지 수중영상의 의미론적 분할 (Semantic Segmentation of the Habitats of Ecklonia Cava and Sargassum in Undersea Images Using HRNet-OCR and Swin-L Models)

  • 김형우;장선웅;박수호;공신우;곽지우;김진수;이양원
    • 대한원격탐사학회지
    • /
    • 제38권5_3호
    • /
    • pp.913-924
    • /
    • 2022
  • 이 연구에서는 국내 연안어장을 대상으로 조식동물 및 서식지에 대한 수중영상 기반의 인공지능 학습자료를 구축하고, state-of-the-art (SOTA) 모델인 High Resolution Network-Object Contextual Representation(HRNet-OCR)과 Shifted Windows-L (Swin-L)을 이용하여, 조식동물 서식지 수중영상의 의미론적 분할을 수행함으로써 화소 또는 화소군 간의 공간적 맥락(상관성)을 반영하는 보다 실제적인 탐지 결과를 제시하였다. 조식동물 서식지인 감태, 모자반의 수중영상 레이블 중 1,390장을 셔플링(shuffling)하여 시험평가를 수행한 결과, 한국수산자원공단의 DeepLabV3+ 사례에 비해 약 29% 향상된 정확도를 도출하였다. 모든 클래스에 대해 Swin-L이 HRNet-OCR보다 판별율이 더 좋게 나타났으며, 특히 데이터가 적은 감태의 경우, Swin-L이 해당 클래스에 대한 특징을 더 풍부하게 반영할 수 있는 것으로 나타났다. 영상분할 결과 대상물과 배경이 정교하게 분리되는 것을 확인되었는데, 이는 Transformer 계열 백본을 활용하면서 특징 추출능력이 더욱 향상된 것으로 보인다. 향후 10,000장의 레이블 데이터베이스가 완성되면 추가적인 정확도 향상이 가능할 것으로 기대된다.

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

실생활 음향 데이터 기반 이중 CNN 구조를 특징으로 하는 음향 이벤트 인식 알고리즘 (Dual CNN Structured Sound Event Detection Algorithm Based on Real Life Acoustic Dataset)

  • 서상원;임우택;정영호;이태진;김휘용
    • 방송공학회논문지
    • /
    • 제23권6호
    • /
    • pp.855-865
    • /
    • 2018
  • 음향 이벤트 인식은 다수의 음향 이벤트가 발생하는 환경에서 이를 인식하고 각각의 발생과 소멸 시점을 판단하는 기술로써 인간의 청각적 인지 특성을 모델화하는 연구다. 음향 장면 및 이벤트 인식 연구 그룹인 DCASE는 연구자들의 참여 유도와 더불어 음향 인식 연구의 활성화를 위해 챌린지를 진행하고 있다. 그러나 DCASE 챌린지에서 제공하는 데이터 세트는 이미지 인식 분야의 대표적인 데이터 세트인 이미지넷에 비해 상대적으로 작은 규모이며, 이 외에 공개된 음향 데이터 세트는 많지 않아 알고리즘 개발에 어려움이 있다. 본 연구에서는 음향 이벤트 인식 기술 개발을 위해 실내외에서 발생할 수 있는 이벤트를 정의하고 수집을 진행하였으며, 보다 큰 규모의 데이터 세트를 확보하였다. 또한, 인식 성능 개선을 위해 음향 이벤트 존재 여부를 판단하는 보조 신경망을 추가한 이중 CNN 구조의 알고리즘을 개발하였고, 2016년과 2017년의 DCASE 챌린지 기준 시스템과 성능 비교 실험을 진행하였다.

편광현미경 이미지 기반 염기성 화산암 분류를 위한 인공지능 모델의 효용성 평가 (Evaluating the Effectiveness of an Artificial Intelligence Model for Classification of Basic Volcanic Rocks Based on Polarized Microscope Image)

  • 심호;정원우;홍성식;서재원;박창윤;송윤구
    • 자원환경지질
    • /
    • 제55권3호
    • /
    • pp.309-316
    • /
    • 2022
  • 암석 분류에 필요한 인적, 시간적 소모를 최소화하기 위해 최근 인공지능을 활용한 암석 분류 연구가 대두되었다. 이에 본 연구에서는 편광현미경 박편 이미지를 활용하여 염기성 화산암을 세분류하고자 하였다. 분류에 사용된 인공지능 모델은 Tensorflow, Keras 라이브러리를 기반으로 합성곱 신경망 모델을 자체 제작하였다. Olivine basalt, basaltic andesite, olivine tholeiite, trachytic olivine basalt 기준시료 박편을 개방 니콜, 직교 니콜, 그리고 gypsum plate를 장착하고 촬영한 이미지 총 720장을 인공지능 모델에 training : test = 7 : 3 비율로 학습시켰다. 학습결과, 80~90%이상의 분류 정확도를 보였다. 각각의 인공지능 모델의 분류 정확도를 확인하였을 때, 본 모델의 암석분류 방식이 지질학자의 암석 분류 프로세스와 크게 다르지 않을 것으로 예상된다. 나아가 본 모델 뿐 아니라 보다 다양한 암석종을 세분시키는 모델을 제작하여 통합한다면, 데이터 분류의 신속성과 비전문가의 접근성 모두를 만족시키는 인공지능 모델을 개발할 수 있으며, 이를 통해 암석학 기초연구의 새로운 틀을 마련할 수 있을 것으로 생각된다.

Faster R-CNN을 이용한 갓길 차로 위반 차량 검출 (Detecting Vehicles That Are Illegally Driving on Road Shoulders Using Faster R-CNN)

  • 고명진;박민주;여지호
    • 한국ITS학회 논문지
    • /
    • 제21권1호
    • /
    • pp.105-122
    • /
    • 2022
  • 최근 5년간 고속도로에서 발생한 사망 사고의 통계를 살펴보면, 고속도로 전체 사망자 중 갓길에서 발생한 사망자의 사망률이 약 3배 높은 것으로 나타났다. 이는 갓길 사고 발생 시 사고의 심각도가 매우 높다는 것을 보여주며, 갓길 차로 위반 차량을 단속하여 사고를 미연에 방지하는 것이 중요하다는 것을 시시한다. 이에 본 연구는 Faster R-CNN 기법을 활용하여 갓길 차로 위반 차량을 검출할 수 있는 방법을 제안하였다. Faster R-CNN 기법을 기반으로 차량을 탐지하고, 추가적인 판독 모듈을 구성하여 갓길 위반 여부를 판단하였다. 실험 및 평가를 위해 현실세계와 유사하게 상황을 재현할 수 있는 시뮬레이션 게임인 GTAV를 활용하였다. 이미지 형태의 학습데이터 1,800장과 평가데이터 800장을 가공 및 생성하였으며, ZFNet과 VGG16에서 Threshold 값의 변화에 따른 성능을 측정하였다. 그 결과 Threshold 0.8 기준 ZFNet 99.2%, Threshold 0.7 기준 VGG16 93.9%의 검출율을 보였고, 모델 별 평균 검출 속도는 ZFNet 0.0468초, VGG16 0.16초를 기록하여 ZFNet의 검출율이 약 7% 정도 높았으며, 검출 속도 또한 약 3.4배 빠름을 확인하였다. 이는 비교적 복잡하지 않은 네트워크에서도 입력 영상의 전처리 없이 빠른 속도로 갓길 차로 위반 차량의 검출이 가능함을 보여주며, 실제 영상자료 기반의 학습데이터셋을 충분히 확보한다면 지정 차로 위반 검출에 본 알고리즘을 활용할 수 있다는 것을 시사한다.

컴퓨터 비전 기술 기반 건설장비 객체 추출 모델 적용 분석 연구 (A Study on the Construction Equipment Object Extraction Model Based on Computer Vision Technology)

  • 강성원;유위성;신윤석
    • 한국재난정보학회 논문집
    • /
    • 제19권4호
    • /
    • pp.916-923
    • /
    • 2023
  • 연구목적: 2022년 산업재해 현황 부가통계에서 건설업 사망사고자 현황을 보면 건설업 전체 사망사고자의 27.8%가 건설장비로 인해 발생하고 있다. 현장 대형화, 고층화 등으로 발생하는 순회 및 점검의 한계를 극복하기 위해 컴퓨터 비전 기술을 활용해 건설장비를 추출할 수 있는 모델을 구축하고 해당 모델의 정확도 및 현장 적용성에 대해 분석하고자 한다. 연구방법:본 연구에서는 건설장비 중 굴착기, 덤프트럭, 이동식 크레인의 이미지 데이터를 딥러닝 학습시킨 뒤 학습 결과를 평가 및 분석하고 건설현장에 적용하여 분석한다. 연구결과: 'A' 현장에서는 굴착기 및 덤프트럭의 객체를 추출하였으며, 평균 추출 정확도는 굴착기 81.42%, 덤프트럭 78.23%를 나타냈다. 'B' 현장의 이동식 크레인은 78.14%의 평균 정확도를 보여줬다. 결론: 현장 안전관리의 효율성이 증가할 수 있고, 재해발생 위험요인을 최소화 할 수 있을것이라 본다. 또한, 본 연구를 기반으로 건설현장에 스마트 건설기술 도입에 관한 기초적인 자료로 활용이 가능하다.

합성곱 신경망 기반 맨하탄 좌표계 추정 (Estimation of Manhattan Coordinate System using Convolutional Neural Network)

  • 이진우;이현준;김준호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.31-38
    • /
    • 2017
  • 본 논문에서는 도심 영상에 대해 맨하탄 좌표계를 추정하는 합성곱 신경망(Convolutional Neural Network) 기반의 시스템을 제안한다. 도심 영상에서 맨하탄 좌표계를 추정하는 것은 영상 조정, 3차원 장면 복원 등 컴퓨터 그래픽스 및 비전 문제 해결의 기본이 된다. 제안하는 합성곱 신경망은 GoogLeNet[1]을 기반으로 구성한다. 합성곱 신경망을 훈련하기 위해 구글 스트리트 뷰 API로 영상을 수집하고 기존 캘리브레이션 방법으로 맨하탄 좌표계를 계산하여 데이터셋을 생성한다. 장면마다 새롭게 합성곱 신경망을 학습해야하는 PoseNet[2]과 달리, 본 논문에서 제안하는 시스템은 장면의 구조를 학습하여 맨하탄 좌표계를 추정하기 때문에 학습되지 않은 새로운 장면에 대해서도 맨하탄 좌표계를 추정한다. 제안하는 방법은 학습에 참여하지 않은 구글 스트리트 뷰 영상을 검증 데이터로 테스트하였을 때 $3.157^{\circ}$의 중간 오차로 맨하탄 좌표계를 추정하였다. 또한, 동일 검증 데이터에 대해 제안하는 방법이 기존 맨하탄 좌표계 추정 알고리즘[3]보다 더 낮은 중간 오차를 보이는 것을 확인하였다.