• 제목/요약/키워드: 프레임촬영

검색결과 198건 처리시간 0.02초

분할영역의 3차원 스캐닝을 이용한 홀로그래픽 비디오 신호의 효율적인 부호화 기술 (An Efficient Coding Technique of Holographic Video Signal using 3D Segment Scanning)

  • 서영호;최현준;김동욱
    • 한국통신학회논문지
    • /
    • 제32권2C호
    • /
    • pp.132-140
    • /
    • 2007
  • 본 논문에서는 디지털화된 형태로 취득 및 저장된 홀로그램 신호를 부호화하는 새로운 기술을 제안한다. 디지털 홀로그램의 독특한 특성을 파악하여 적절한 형태의 데이터로 변환한 후에 현재 널리 사용되고 있는 표준 압축 기술들에 적용하고자 한다. 전처리과정 이후에 부호화를 위해 추출된 홀로그램은 위치적인 다시점 특성을 이용하여 분할된다. 분할된 홀로그램은 2차원의 여러 시점에서 객체를 촬영한 것과 유사한 특성을 보인다. 시각적으로 잡음과 유사한 형태로 관찰되는 홀로그램의 회절 패턴은 그 자체로써 압축에 이용하기 어렵다. 따라서 홀로그램 생성 원리와 유사하면서 고속 변환이 가능한 2차원 DCT (Discrete Cosine Transform)를 이용하여 분할된 홀로그램을 주파수 변환한다. 주파수 변환된 분할 영역들은 시간적 및 공간적 상관도에 따라서 3차원 스캔 과정을 거치면서 하나의 비디오 스트림으로 구성된다. 비디오 스트림의 한 프레임에 해당하는 분할된 영역들은 다양한 범위를 가지는 계수들로 구성되는데 이를 재구성한 후에 부호화 알고리즘을 이용하여 압축한다. 실험 결과를 살펴보면 제안한 알고리즘은 기존의 기술에 비해서 16배 이상의 높은 압축율에서 더 좋은 복원 성능을 보였다.

폴립 가중치 영상 생성을 통한 캡슐내시경 영상의 학습 성능 비교 연구 (A Study on the Comparison of Learning Performance in Capsule Endoscopy by Generating of PSR-Weigted Image)

  • 임창남;박예슬;이정원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권6호
    • /
    • pp.251-256
    • /
    • 2019
  • 캡슐 내시경은 식도부터 항문까지 소화기관 전체를 한 번에 촬영할 수 있는 의료기기로, 한 번의 검사에서 평균 8~12시간의 길이와 5만장 이상의 프레임으로 구성된 영상을 생성한다. 그러나 생성된 영상에 대한 분석은 전문가에 의해 수작업으로 진행되고 있어서, 질병 영상 진단을 돕기 위한 영상 분석 자동화에 대한 수요가 증가하고 있다. 그 중에서도 본 연구에서는 위장관 내에서 발견될 수 있는 융기성 병변인 폴립 영상 자동 검출에 초점을 맞추었다. 본 연구에서는 멀티 스케일 분석을 통해 폴립 의심 영역을 추출하고, 이것을 원본 영상과 합성하여 폴립 학습을 강화시킬 수 있는 가중치 영상을 생성하는 기법을 제안한다. 수집한 452장의 데이터에 대해 머신 러닝 기법중 하나인 SVM과 RF로 실험한 결과, 원본 영상을 이용한 폴립 검출의 F1점수는 89.3%였지만, 생성된 가중치 영상을 통해 학습한 결과 F1점수가 93.1%로 향상된 것을 확인하였다.

스마트 양식을 위한 딥러닝 기반 어류 검출 및 이동경로 추적 (Deep Learning based Fish Object Detection and Tracking for Smart Aqua Farm)

  • 신영학;최정현;최한석
    • 한국콘텐츠학회논문지
    • /
    • 제21권1호
    • /
    • pp.552-560
    • /
    • 2021
  • 현재 국내 수산 양식업은 스마트화를 추진하고 있지만, 여전히 양식 단계의 많은 과정에서 사람의 주관적인 판단으로 진행되고 있다. 수산 양식업 스마트화를 위해서 선행되어야 할 부분은 양식장 내 물고기들의 상태를 효과적으로 파악하는 것이다. 어류 개체 수, 크기, 이동경로, 이동속도 등을 파악하여 실시간 모니터링 할 수 있게 된다면 사료 자동 급이, 질병유무판단 등 다양한 양식자동화를 진행할 수 있을 것이다. 본 연구에서는 수중 촬영한 어류비디오 데이터를 이용하여 실시간으로 어류의 상태를 파악 할 수 있는 알고리즘을 제안하였다. 어류 객체검출을 위해 딥러닝 기반 최신 객체검출 모델들을 적용하여 검출 성능을 비교 평가 하였고, 검출 결과를 이용하여 비디오내의 연속적인 이미지 프레임에서 어류 객체 ID부여, 이동경로 추적 및 이동속도를 측정할 수 있는 알고리즘을 제안하였다. 제안한 알고리즘은 객체 검출 성능 92%(F1-score 기준)를 보였으며, 실제 테스트비디오 상에서 실시간으로 다수의 어류 객체를 효과적으로 추적하는 것을 확인하였다. 본 논문에서 제안하는 알고리즘을 이용하여 향후 사료 자동 급이, 어류 질병 예측 등 다양한 스마트양식 기술에 효과적으로 활용될 수 있을 것으로 기대한다.

개발제한구역 모니터링체계 개선방안 연구 (A study on The Improvement Plan of The Restricted Development Zone Monitoring system)

  • 이세원
    • 지적과 국토정보
    • /
    • 제52권1호
    • /
    • pp.17-36
    • /
    • 2022
  • 본 연구의 목적은 현행 개발제한구역 단속 및 관리체계의 문제점을 진단하고 데이터 기반 모니터링 체계로 전환할 수 있도록 구축방안을 마련하는 것이다. 개발제한구역은 타 용도지역지구와 달리 최소한의 유지 외 모든 개발행위를 금지하고 지자체에서 엄격히 단속 및 관리해야 하는 구역이다. 그러나 현재의 개발제한구역 관리체계는 지자체별 여건에 따라 분산 운영되고, 설문 결과와 같이 전체 개발제한구역의 변화를 모니터링하기보다 민원(신고)에 의존하거나 단속업무 수행에 어려움을 겪는 등 데이터 기반의 모니터링체계를 필요로 하고 있다. 특히 본 연구에서는 AI 기반 모니터링체계를 도입하여 국토교통부에서 매년 정기적 시점(월별·분기별)을 두고 동일한 단속 기준으로 전국 권역별 변화를 탐지한 결과를 지자체에 송부하고 지자체에서는 단속 결과를 입력하면서 신뢰할 수 있는 개발제한구역 관리현황 통계정보가 생산될 수 있는 체계로의 전환 방법을 구체적으로 제안하였다. 이러한 방법론 제안을 위해 첫째, 지자체와 관련 전문가를 대상으로 설문조사 및 인터뷰를 수행하였다. 설문 결과 현장 단속과 인허가 관련 행정업무에 어려움을 겪고 있으며, AI 기반 모니터링체계 도입에 대해서는 긍정적 답변이 우세하였다. 둘째, AI 영상분석을 통한 객체 검출 방법론을 실증 지자체에 적용한 사례를 분석하여 모니터링체계 도입에 따른 단속업무 효율화 방안을 제안하였다. 셋째, (현(現))개발제한구역관리정보시스템의 고도화를 기반으로 한 개발제한구역 모니터링체계 구축방안을 마련하였다. 지자체업무 수요에 기반해 드론 촬영 및 분석, 모바일 단속지원체계 등 필요한 서비스들이 지원될 수 있도록 프레임워크를 구성하였다. 이러한 모니터링체계는 향후 주기적 단속과 관리가 필요한 토지를 대상으로 확대 적용이 가능하며 본 연구에서는 이를 실현하기 위한 방법론과 정책을 제안하고자 하였다.

딥러닝 기반 다중 객체 추적 모델을 활용한 조식성 무척추동물 현존량 추정 기법 연구 (A Study on Biomass Estimation Technique of Invertebrate Grazers Using Multi-object Tracking Model Based on Deep Learning)

  • 박수호;김흥민;이희원;한정익;김탁영;임재영;장선웅
    • 대한원격탐사학회지
    • /
    • 제38권3호
    • /
    • pp.237-250
    • /
    • 2022
  • 본 연구에서는 딥러닝 기반 다중 객체 추적 모델을 활용하여 수중드론으로 촬영된 영상으로부터 특정 해역의 조식동물 현존량을 추정하는 방법을 제안한다. 수중드론 영상 내에 포함된 조식동물을 클래스 별로 탐지하기 위해 YOLOv5 (You Only Look Once version 5)를 활용하였으며, 개체수 집계를 위해 DeepSORT (Deep Simple Online and real-time tracking)를 활용하였다. GPU 가속기를 활용할 수 있는 워크스테이션 환경에서 두 모델의 성능 평가를 수행하였으며, YOLOv5 모델은 평균 0.9 이상의 모델의 정확도(mean Average Precision, mAP)를 보였으며, YOLOv5s 모델과 DeepSORT 알고리즘을 활용하였을 때, 4 k 해상도 기준 약 59 fps의 속도를 보이는 것을 확인하였다. 실해역 적용 결과 약 28%의 과대 추정하는 경향이 있었으나 객체 탐지 모델만 활용하여 현존량을 추정하는 것과 비교했을 때 오차 수준이 낮은 것을 확인하였다. 초점을 상실한 프레임이 연속해서 발생할 때와 수중드론의 조사 방향이 급격히 전환되는 환경에서의 정확도 향상을 위한 후속 연구가 필요하지만 해당 문제에 대한 개선이 이루어진다면, 추후 조식동물 구제 사업 및 모니터링 분야의 의사결정 지원자료 생산에 활용될 수 있을 것으로 판단된다.

스포츠 경기에서 지능인식모델을 이용하기 위한 대상체 인식오류 보상방법에 관한 연구 (A Study on the Compensation Methods of Object Recognition Errors for Using Intelligent Recognition Model in Sports Games)

  • 한준수;김종원
    • 한국산학기술학회논문지
    • /
    • 제22권5호
    • /
    • pp.537-542
    • /
    • 2021
  • 본 논문은 인공지능 모델의 하나인 YOLO(You Only Look Once) 인식모델 기반의 이미지 내 객체인식을 위한 활용 환경에서 딥 러닝 네트워크를 통한 고속 이동 대상체 인식의 가능성 향상과 생활 속에서 쉽게 활용될 수 있도록 2차적인 정보의 가공을 통한 의미적 데이터 수집 방법을 연구하는데 그 목적이 있다. 인식모델에서 이동 대상체 인식오류는 카메라의 프레임 속도와 대상체의 이동속도 차이에서 발생하는 미인식과 대상체와 인접한 환경에서의 유사물체가 존재로 인한 오인식으로 확인되었으며 이를 보상하는 데이터 수집 방법을 제안했다. 실제 유사환경을 대표할 수 있는 스포츠(테니스 경기)를 대상으로 획득된 이미지에서 오류의 원인요소를 비전처리 기술을 적용하여 해당오류를 최소화하기 위한 방법과 처리구조를 연구하여 유효한 2차적인 데이터 수집의 효과성을 향상시켰다. 따라서 본 연구에서 제안된 데이터 수집 방법을 적용함으로써 일반인도 스마트폰 카메라의 간단한 촬영을 통해 스스로 건강 및 경기력 향상을 위한 스포츠 및 건강관련 산업에 적용될 수 있는 데이터의 수집 및 관리가 가능함을 보였다.

임베디드 기기를 위한 딥러닝 점자블록 인식 방법 (Deep Learning Braille Block Recognition Method for Embedded Devices)

  • 김희진;윤재혁;권순각
    • 한국산업정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.1-9
    • /
    • 2023
  • 본 논문은 딥러닝을 통해 실시간으로 임베디드 기기에서 점자 블록을 인식하는 방법을 제안한다. 먼저 고성능 컴퓨터에서 점자 블록 인식을 위한 딥러닝 모델을 학습시키고, 임베디드 기기에 적용하기 위하여 학습 모델을 경량화 도구에 적용한다. 점자 블록의 보행 정보를 인식하기 위해 영상에서 점자블록과의 거리를 이용하여 경로를 판별하는 알고리즘을 사용한다. 임베디드 기기를 통해 촬영한 영상에서 YOLOv8 모델을 통해 점자 블록, 볼라드, 횡단보도를 검출한 후 점자블록 경로 판별 알고리즘을 거쳐 보행정보를 인식한다. 실시간으로 점자 블록을 검출하기 위해 모델 경량화 도구를 YOLOv8에 적용한다. YOLOv8 모델 가중치의 정밀도를 기존 32비트에서 8비트로 낮추고, TensorRT 최적화 엔진을 적용하여 모델의 최적화를 진행한다. 제안된 방법을 통해 경량화 된 모델을 기존 모델과 비교한 결과, 경로 인식 정확도는 99.05%로 기존 모델과 거의 차이가 없지만, 인식 속도는 기존 모델 대비 59% 단축되어 1초에 약 15개의 프레임을 처리할 수 있다.

전동 이동 보조기기 주행 안전성 향상을 위한 AI기반 객체 인식 모델의 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 우제승;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.166-172
    • /
    • 2022
  • 본 연구에서는 전동 이동 보조기기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기기의 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.

HD 해상도에서 실시간 구동이 가능한 딥러닝 기반 블러 제거 알고리즘 (A Deep Learning-based Real-time Deblurring Algorithm on HD Resolution)

  • 심규진;고강욱;윤성준;하남구;이민석;장현성;권구용;김은준;김창익
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.3-12
    • /
    • 2022
  • 영상 블러 제거(deblurring)는 피사체의 움직임, 카메라의 흔들림, 초점의 흐림 등으로 인해 촬영 도중 발생한 영상 블러(blur)를 제거하는 것을 목표로 한다. 최근 스마트폰이 보급되며 휴대용 디지털카메라를 들고 다니는 것이 일상인 시대가 오면서 영상 블러 제거 기술은 그 필요성을 점점 더해가고 있다. 기존의 영상 블러 제거 기술들은 전통적인 최적화 기법을 활용하여 연구되어 오다가 최근에는 딥러닝이 주목받으며 합성곱 신경망 기반의 블러 제거 방법들이 활발하게 제안되고 있다. 하지만 많은 방법들이 성능에 먼저 초점을 맞추어 개발되어 알고리즘의 속도로 인하여 현실에서 실시간 활용이 어렵다는 문제점을 안고 있다. 이를 해결하고자 본 논문에서는여러 신경망 설계 기법을 활용하여 HD 영상에서도 30 FPS 이상의 실시간 구동이 가능한 딥러닝 기반 블러 제거 알고리즘을 설계하여 이를 제안한다. 또한 학습 및 추론 과정을 개선하여 속도에 별다른 영향 없이 신경망의 성능을 높이고 동시에 성능에 별다른 영향없이 신경망의 속도를 높였다. 이를 통해 최종적으로 1280×720 해상도에서 초당 33.74장의 프레임을 처리하며 실시간 동작이 가능함을 보여주었고 GoPro 데이터 세트를 기준으로 PSNR 29.79, SSIM 0.9287의 속도 대비 우수한 성능을 보여주었다.

객체 인식 모델과 지면 투영기법을 활용한 영상 내 다중 객체의 위치 보정 알고리즘 구현 (Implementation of AI-based Object Recognition Model for Improving Driving Safety of Electric Mobility Aids)

  • 박동석;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제24권2호
    • /
    • pp.119-125
    • /
    • 2023
  • 본 연구에서는 전동 이동 보조기를 이용하는 교통약자의 이동을 저해하거나 불편을 초래하는 횡단 보도, 측구, 맨홀, 점자블록, 부분 경사로, 임시안전 방호벽, 계단, 경사형 연석과 같은 주행 장애물 객체를 촬영한 뒤 객체를 분류하고 이를 자동 인식하는 최적의 AI 모델을 개발하여 주행 중인 전동 이동 보조기 전방에 나타난 장애물을 효율적으로 판단할 수 있는 알고리즘을 구현하고자 한다. 객체 검출을 높은 확률로 AI 학습이 될 수 있도록 데이터 셋 구축 시 라벨링 형태를 폴리곤 형태로 라벨링 하며, 폴리곤 형태로 라벨링 된 객체를 탐지할 수 있는 Detectron2 프레임워크를 활용하여 Mask R-CNN 모델을 활용하여 개발을 진행하였다. 영상 획득은 일반인과 교통약자의 두 개 그룹으로 구분하여 진행하였고 테스트베드 2개 지역에서 얻어진 영상정보를 확보하였다. Mask R-CNN 학습 결과 파라미터 설정은 IMAGES_PER _BATCH : 2, BASE_LEARNING_RATE 0.001, MAX_ITERATION : 10,000으로 학습한 모델이 68.532로 가장 높은 성능을 보인 것이 확인되어 주행 위험, 장애 요소를 빠르고 정확하게 사용자가 인지할 수 있도록 하는 딥러닝 모델을 구축이 가능한 것을 확인할 수 있었다.