• 제목/요약/키워드: 자동 방송

검색결과 541건 처리시간 0.024초

단안 영상의 입체 자유시점 Tour-Into-Picture (Stereoscopic Free-viewpoint Tour-Into-Picture Generation from a Single Image)

  • 김제동;이광훈;김만배
    • 방송공학회논문지
    • /
    • 제15권2호
    • /
    • pp.163-172
    • /
    • 2010
  • 자유시점 비디오는 원하는 시점을 자유로이 선택하여 보는 능동형 비디오이다. 이 기술은 박물관 투어, 엔터테인먼트 등의 다양한 분야에서 활용된다. 본 논문에서는 자유시점 비디오의 새로운 분야로 가상 카메라와 깊이맵을 이용하여 한 장의 영상 내부를 항해하는 입체 자유시점 Tour-Into-Picture (TIP)을 제안한다. 오래전부터 TIP가 연구되어 왔는데, 이 분야는 한 장의 단안 사진 내부를 항해하면서 애니메이션으로 볼 수 있게 하는 기술이다. 제안 방법은 전경 마스크, 배경영상, 및 깊이맵을 반자동 방법으로 구한다. 다음에는 영상 내부를 항해하면서 입체 원근투영 영상들을 획득한다. 배경영상과 전경객체의 3D 데이터를 기반으로 가상 카메라의 3차원 공간이동, 요/피치/롤링 등의 회전, 룩어라운드, 줌 등의 다양한 카메라 기능을 활용하여 입체 자유시점 비디오를 구현한다. 원근투영은 직교투형보다 우수한 입체감을 전달하며, 기존 방법과 비교하여 텍스쳐의 3D 데이터를 직접 원근투영하여 처리속도를 향상시켰다. 소프트웨어는 MFC Visual C++ 및 OpenGL 기반으로 구축되었으며, 실험영상으로 신윤복의 단오풍정을 사용하여 고전화의 입체 자유시점 비디오를 시청이 가능하다.

지능형 u-Life 서비스를 위한 단계적 예측 (Multi-Level Prediction for Intelligent u-life Services)

  • 홍인화;강명석
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권3호
    • /
    • pp.123-129
    • /
    • 2009
  • 유비쿼터스 홈은 가정 내의 다양한 가전기기 및 센서들로 구성된 유무선 네트워크를 통해 u-Life, u-Health등의 다양한 유비쿼터스 서비스를 제공하는 미래의 디지털 가정환경으로 부상하고 있다. 유비쿼터스 홈서비스는 센서들로부터 수집된 정보를 통해 사용자의 상황을 자동으로 인지하여 가전기기들을 상황에 맞게 적응하도록 함으로써 사용자 편의성을 극대화 한다. 이러한 상황인지 홈 환경에서 집안을 미리 사용자가 원하는 상태로 조절하기 위해 사용자의 미래 행위를 예측하는 것을 미래 유비쿼터스 홈에 가장 핵심적인 기능 중 하나이다. 본 논문은 유비쿼터스 홈 환경에서 상황인지 서비스를 위한 단계적 예측 알고리즘을 제안한다. 본 알고리즘은 예측과 실행의 두 단계로 이루어 진다. 첫 번째 예측단계에서 트리구조를 이용하여 사용자가 이동할 다음 위치를 예측하고, 두 번째 실행 단계에서는 테이블 매칭 방법을 이용하여 각각의 위치에 있는 가전기기들을 사용자가 원하는 대로 미리 예측하고 구동시켜 사용자에게 서비스를 제공할 수 있도록 설계하였다. 일반적으로 가전기기들은 한 개씩 독립적으로 동작하기보다 여러 기기가 함께 동작하여 특정 목적에 이용된다는 점에 착안하여, 모드서비스 개념을 도입함으로써 사용자가 동작시키고자 하는 기기들을 한꺼번에 예측할 수 있는 장점을 가진다. 또한 시뮬레이션을 통해 본 논문이 제안한 단계적 예측 알고리즘의 성능을 검증한다.

  • PDF

MME 도메인간 핸드오버 지원을 위한 키캐싱 기반 인증비용의 감소기법 (Reduction of Authentication Cost Based on Key Caching for Inter-MME Handover Support)

  • 황학선;정종필
    • 한국인터넷방송통신학회논문지
    • /
    • 제13권5호
    • /
    • pp.209-220
    • /
    • 2013
  • 핸드오버는 통신 중인 무선 단말이 데이터의 손실을 최소화 하면서 현재 접속하고 있는 기지국/셀에서 다른 기지국/셀로 이동을 하여도 연속적으로 통신이 가능하게 하는 기술이다. 즉, 이동통신 가입자가 특정 무선통신 구역에서 다른 무선통신 구역으로 이동할 때, 통화 채널을 자동으로 전환시켜 통화를 끊어지지 않게 해주는 기능을 말한다. 현재 모바일 네트워크의 가장 큰 문제점으로 지적되고 있는 핸드오버 시 통화 지연 현상 및 끊김 현상을 해결하기위해 빠르고 효율적인 핸드오버를 위한 많은 연구가 진행되고 있으며, 이러한 통화지연 및 끊김 현상은 모든 모바일 네트워크에서 필수적으로 해결해야 할 부분이다. 최근 모바일 네트워크의 기술 발달로 LTE(Long Term Evolution) 네트워크가 상용화되어 모바일에서도 고속의 데이터처리가 가능한 시대를 열었다. 하지만 LTE 네트워크 환경에서는 핸드오버 시 새로운 인증키가 생성되어야 한다. 이런 경우 핸드오버에 의해 인증 과정이 수행되어 인증 비용 및 지연시간이 발생하는 문제점이 있다. 본 논문에서는 UE가 oMME에서 nMME로 핸드오버 시 oMME는 인증키를 일정 시간동안 저장하여 인증키의 Life Time내에 기존의 MME로 다시 복귀한다면 저장된 인증키를 재사용을 하여 인증 절차를 간소화하는 효율적인 키캐싱 핸드오버 기법을 제안한다.

인공신경망을 이용한 샷 사이즈 분류를 위한 ROI 탐지 기반의 익스트림 클로즈업 샷 데이터 셋 생성 (Generating Extreme Close-up Shot Dataset Based On ROI Detection For Classifying Shots Using Artificial Neural Network)

  • 강동완;임양미
    • 방송공학회논문지
    • /
    • 제24권6호
    • /
    • pp.983-991
    • /
    • 2019
  • 본 연구는 영상 샷의 크기에 따라 다양한 스토리를 갖고 있는 영상들을 분석하는 것을 목표로 한다. 따라서 영상 분석에 앞서, 익스트림 클로즈업 샷, 클로즈업 샷, 미디엄 샷, 풀 샷, 롱 샷 등 샷 사이즈에 따라 데이터셋을 분류하는 것이 선행되어야 한다. 하지만 일반적인 비디오 스토리 내의 샷 분포는 클로즈업 샷, 미들 샷, 풀 샷, 롱 샷 위주로 구성되어 있기 때문에 충분한 양의 익스트림 클로즈업 샷 데이터를 얻는 것이 상대적으로 쉽지 않다. 이를 해결하기 위해 본 연구에서는 관심 영역 (Region Of Interest: ROI) 탐지 기반의 이미지 크롭핑을 통해 익스트림 클로즈업 샷을 생성함으로써 영상 분석을 위한 데이터셋을 확보 방법을 제안한다. 제안 방법은 얼굴 인식과 세일리언시(Saliency)를 활용하여 이미지로부터 얼굴 영역 위주의 관심 영역을 탐지한다. 이를 통해 확보된 데이터셋은 인공신경망의 학습 데이터로 사용되어 샷 분류 모델 구축에 활용된다. 이러한 연구는 비디오 스토리에서 캐릭터들의 감정적 변화를 분석하고 시간이 지남에 따라 이야기의 구성이 어떻게 변화하는지 예측 가능하도록 도움을 줄 수 있다. 향후의 엔터테인먼트 분야에 AI 활용이 적극적으로 활용되어질 때 캐릭터, 대화, 이미지 편집 등의 자동 조정, 생성 등에 영향을 줄 것이라 예상한다.

YOLOv2 기반의 영상워핑을 이용한 강인한 오토바이 번호판 검출 및 인식 (Robust Motorbike License Plate Detection and Recognition using Image Warping based on YOLOv2)

  • 당순정;김응태
    • 방송공학회논문지
    • /
    • 제24권5호
    • /
    • pp.713-725
    • /
    • 2019
  • 번호판 자동인식(ALPR: Automatic License Plate Recognition)은 지능형 교통시스템 및 비디오 감시 시스템 등 많은 응용 분야에서 필요한 기술이다. 대부분의 연구는 자동차를 대상으로 번호판 감지 및 인식을 연구하였고, 오토바이를 대상으로 번호판 감지 및 인식은 매우 적은 편이다. 자동차의 경우 번호판이 차량의 전방 또는 후방 중앙에 위치하며 번호판의 뒷배경은 주로 단색으로 덜 복잡한 편이다. 그러나 오토바이의 경우 킥 스탠드를 이용하여 세우기 때문에 주차할 때 오토바이는 다양한 각도로 기울어져 있으므로 번호판의 글자 및 숫자 인식하는 과정이 훨씬 더 복잡하다. 본 논문에서는 다양한 각도로 주차된 오토바이 데이터세트에 대하여 번호판의 문자 인식 정확도를 높이기 위하여 2-스테이지 YOLOv2 알고리즘을 사용하여 오토바이 영역을 선 검출 후 번호판 영역을 검지한다. 인식률을 높이기 위해 앵커박스의 사이즈와 개수를 오토바이 특성에 맞추어 조절하였다. 그 후 기울어진 번호판을 검출한 후 영상 워핑 알고리즘을 적용하였다. 모의실험 결과, 기존 방식의 인식률이 47.74%에 비해 제안된 방식은 80.23%의 번호판의 인식률을 얻었다. 제안된 방법은 전체적으로 오토바이 번호판 특성에 맞는 앵커박스와 이미지 워핑을 통해서 다양한 기울기의 오토바이 번호판 문자 인식을 높일 수 있었다.

중앙 집중식 OPC UA 서버와 통합 된 CPPS 아키텍처에 관한 연구 (A Study on CPPS Architecture integrated with Centralized OPC UA Server)

  • 조규종;장수환;정종필
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.73-82
    • /
    • 2019
  • 스마트팩토리를 구축하기 위해서는 CPPS(Cyber Physical Production System)의 구축은 필수적으로 동반되어야 하는 중요한 시스템이다. CPPS를 통해서 물리적 공장을 디지털 기반의 사이버 세상으로 옮겨오고 이를 지능적, 자율적으로 모니터링하고 제어하는 것이 스마트팩토리의 실체이다. 하지만 기존에 제시된 CPPS의 아키텍처들은 추상적인 모델링 형태의 아키텍처만 제시하고 있으며, 스마트팩토리에서 데이터를 수 집 교환을 위한 국제 표준인 OPC UA Framework(Open Platform Communication Unified Architecture)을 CPPS의 기본적인 체계로 적용한 연구는 부족하였다. 이에 아키텍처 구성 실제 공장에 적용 가능한 CPPS 아키텍처로 분산되어진 필드 데이터를 수집하여 중앙에 집중화 된 서버에서 집중된 데이터 처리가 되어야만 클라우드와 IoT를 모두 포함할 수 있는 CPPS를 구현 가능하다. 본 연구에서는 중앙 처리 OPC UA Framework을 준수한 OPC UA를 기술 체계를 기반으로 중앙의 OPC UA Server를 통해 CPPS 아키텍처를 구현하고 OPC UA 모델링 처리를 통해 CPPS 논리 프로세스와 데이터 처리 프로세스가 자동으로 생성되는 방법을 포함한 CPPS 아키텍처를 제안하고 모델 공장을 실제로 구현하여 그 성능과 가용성에 대해서 연구하였다.

딥 러닝 및 칼만 필터를 이용한 객체 추적 방법 (Object Tracking Method using Deep Learning and Kalman Filter)

  • 김기철;손소희;김민섭;전진우;이인재;차지훈;최해철
    • 방송공학회논문지
    • /
    • 제24권3호
    • /
    • pp.495-505
    • /
    • 2019
  • 딥 러닝의 대표 알고리즘에는 영상 인식에 주로 사용되는 CNN(Convolutional Neural Networks), 음성인식 및 자연어 처리에 주로 사용되는 RNN(Recurrent Neural Networks) 등이 있다. 이 중 CNN은 데이터로부터 자동으로 특징을 학습하는 알고리즘으로 특징 맵을 생성하는 필터까지 학습할 수 있어 영상 인식 분야에서 우수한 성능을 보이면서 주류를 이루게 되었다. 이후, 객체 탐지 분야에서는 CNN의 성능을 향상하고자 R-CNN 등 다양한 알고리즘이 등장하였으며, 최근에는 검출 속도 향상을 위해 YOLO(You Only Look Once), SSD(Single Shot Multi-box Detector) 등의 알고리즘이 제안되고 있다. 하지만 이러한 딥러닝 기반 탐지 네트워크는 정지 영상에서 탐지의 성공 여부를 결정하기 때문에 동영상에서의 안정적인 객체 추적 및 탐지를 위해서는 별도의 추적 기능이 필요하다. 따라서 본 논문에서는 동영상에서의 객체 추적 및 탐지 성능 향상을 위해 딥 러닝 기반 탐지 네트워크에 칼만 필터를 결합한 방법을 제안한다. 탐지 네트워크는 실시간 처리가 가능한 YOLO v2를 이용하였으며, 실험 결과 제안한 방법은 기존 YOLO v2 네트워크에 비교하여 7.7%의 IoU 성능 향상 결과를 보였고 FHD 영상에서 20 fps의 처리 속도를 보였다.

중소기업 스마트공장 구축을 위한 OpenCV 기반 재고관리 시스템의 설계 및 구현 (Design and Implementation of OpenCV-based Inventory Management System to build Small and Medium Enterprise Smart Factory)

  • 장수환;정종필
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.161-170
    • /
    • 2019
  • 다품종 대량 생산 중소기업 공장에서는 제품의 종류가 다양하고 그 수량이 많기 때문에 재고의 관리를 위한 인력과 경비가 낭비되고 있다. 또한 재고의 현황을 실시간으로 확인 할 방법이 마련 되있지 않아서 재고의 과적재, 과부족 현상으로 인한 경제적 피해를 받고 있다. 실시간 데이터 수집 환경을 구축하기 위한 많은 방안이 있지만 대부분 구축비용과 시간이 중소 중견기업이 감당하기 어려운 수준이다. 그렇기 때문에 중소 중견기업의 스마트 공장은 구현되기 어려운 현실을 마주하고 있으며, 적절한 대책을 찾기 힘든 실정이다. 따라서 본 논문에서는 현재 생산품 관리 기술로 많이 채택되는 바코드, QR코드와 함께 라벨에 표기되어 있는 글자추출을 통해 기존 재고관리 방법의 확장에 대한 내용을 구현하고 그 효과를 평가하였다. 기술적으로는 컴퓨터 이미지 처리를 통해서 기존의 생산품의 입출고 관리를 위한 방법인 재고라벨 및 바코드에 대한 자동인식 및 분류를 하기 위한 OpenCV를 이용한 전처리, 구글 비젼 API의 OCR(Optical Character Recognition)기능을 통해서 글자를 추출하고, Zbar를 통해서 바코드를 인식할 수 있게 설계하였고, 값비싼 장비를 사용하지 않고 라즈베리파이를 통해 실시간 영상을 통한 인식으로 재고를 관리할 수 있는 방법을 제안한다.

지능형 행동인식 기술을 이용한 실시간 동영상 감시 시스템 개발 (Development of Real-time Video Surveillance System Using the Intelligent Behavior Recognition Technique)

  • 장재영;홍성문;손다미;유호진;안형우
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권2호
    • /
    • pp.161-168
    • /
    • 2019
  • 최근에 빠르게 확산되고 있는 CCTV와 같은 영상기기들은 거의 모든 공공기관, 기업, 가정 등에서 비정상적인 상황을 감시하고 대처하기 위한 수단으로 활용되고 있다. 그러나 대부분의 경우 이상상황에 대한 인식은 모니터링하고 있는 사람에 의해 수동적으로 이루어지고 있어 즉각적인 대처가 미흡하며 사후 분석용으로만 활용되고 있다. 본 논문에서는 최신 딥러닝 기술과 실시간 전송기술을 활용하여 이벤트 발생시 스마트폰으로 이상 상황을 동영상과 함께 실시간으로 전송하는 동영상 감시 시스템의 개발 결과를 제시한다. 개발된 시스템은 오픈포즈 라이브러리를 이용하여 실시간으로 동영상으로 부터 인간 객체를 스켈레톤으로 모델링한 후, 딥러닝 기술을 이용하여 인간의 행동을 자동으로 인식하도록 구현하였다. 이를 위해 Caffe 프레임워크를 개발된 오픈포즈 라이브러리를 다크넷 기반으로 재구축하여 실시간 처리 능력을 대폭 향상 시켰으며, 실험을 통해 성능을 검증하였다. 본 논문에서 소개할 시스템은 정확하고 빠른 행동인식 성능과 확장성을 갖추고 있어 다양한 용도의 동영상 감시 시스템에 활용될 수 있을 것으로 기대된다.

지능형 객체 인식 기술을 이용한 실시간 동영상 검색시스템 (Development of Real-time Video Search System Using the Intelligent Object Recognition Technology)

  • 장재영;강찬혁;윤재민;조재원;정지성;전종훈
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.85-91
    • /
    • 2020
  • 최근 범죄예방과 안전문제 등으로 CCTV와 같은 영상장비가 다양하게 활용되고 있다. 영상기기들은 대부분 24시간 작동되기 때문에 경비 인력을 절감할 수 있지만, 녹화된 영상에서 특정 인물과 같은 객체를 검색하는 업무는 여전히 수동으로 이루어지고 있어, 실시간 검색이 요구되는 상황에서는 정확하고 빠른 대처가 미흡하다. 본 논문에서는 최신 딥러닝 기술과 OpenCV 라이브러리를 이용하여 사용자의 의해 입력된 의상정보를 바탕으로 특정인물을 영상에서 빠르게 검색하고, 그 결과를 실시간으로 전송하는 기술을 제안한다. 개발된 시스템은 YOLO 라이브러리를 이용하여 실시간으로 인물객체를 탐지한 후, 딥러닝 기술을 이용하여 인간의 의상을 상/하의로 구분하고 OpenCV 라이브러리를 통해 색을 검출하여 특정 인물 객체를 자동으로 인식하도록 구현하였다. 본 논문에서 개발한 시스템은 특정 의상을 갖춘 인물객체를 정확하고 빠르게 인식할 뿐만 아니라 기타 객체 인식에도 활용할 수 있는 확장성을 갖추고 있어 다양한 용도의 영상감시시스템에 활용될 수 있을 것으로 기대된다.