• Title/Summary/Keyword: 프레임 정보

Search Result 5,828, Processing Time 0.038 seconds

A Practical Approach to Framing In Interface Specifications (인터페이스 명세에서 효과적인 프레임 방법)

  • Cheon, Yoon-Sik;Kim, Heung-Nam
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.04a
    • /
    • pp.745-750
    • /
    • 2000
  • 인터페이스 명세에서 프레임문제(frame problem)란 "특정부분 이외의 모든 프로그램 상태는 변화되지 않는다"는 것을 기술하는 문제이다. 본 논문에서는 프레임문제를 상속을 지원하는 객체지향명세에서 재조명하고 이에 대한 현실적인 접근방법을 제시한다. 먼저 프레임문제를 정형적으로 다루기 위하여 프레임관계(frame relation)라는 개념을 도입한다. 프레임관계는 연산자와 변수간의 관계로 특정 연산자가 어떤 변수를 수정할 수 있는가를 나타낸다. 슈퍼클래스의 프레임관계는 앵커관계(anchoring relation)를 통하여 서브클래스로 확장되는데, 앵커관계는 서브클래스 변수에서 슈퍼클래스 변수로의 사상이다. 앵커관계는 프레임문제 해결의 핵심적인 역할을 한다. 즉, 연산자가 슈퍼클래스의 특정 변수를 수정할 수 있다는 것은 그 변수에 앵커 된 모든 서브클래스 변수를 수정할 수 있다는 것을 의미한다. 앵커관계는 프레임문제의 현실적이고 효과적인 접근방법으로, 널리 보급된 선.후조건문 방식의 인터페이스명세에 잘 접목된다는 부가적인 장점을 가진다.

  • PDF

Implementation of Motion Detector using Edge Information & Average Pixel Difference (화소 평균 및 에지 정보를 이용한 움직임 검출기 구현)

  • 이승준;최철호;최명렬;권병헌
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04a
    • /
    • pp.736-738
    • /
    • 2002
  • 본 논문에서는 카메라 이동 및 피사체의 움직임 특성을 이용한 움직인 검출 방식을 제안한다. 카메라 이동 및 피사체의 움직임 특성을 파악하여 움직임을 검출하기 위해 이전 프레임과 현재 프레임 간의 화소 차이의 평균 및 화면 내의 물체의 에지 정보를 이용하여 현재 프레임의 움직임 정도를 판단한다. 그리고 움직임 검출의 정확도를 높이기 위해 화소 차이의 평균을 3단계로 나누어 연산한다. 제안된 움직임 검출 방식은 기존의 움직임 검출 방식에서 나타난 문제점을 보완하며 움직임 검출 범위를 높일 수 있음을 컴퓨터 시뮬레이션을 통해 확인할 수 있었으며, 아남 0.25$\mu$m 공정 라이브러리와 Synopsys 툴을 이용해 VHDL로 구현하였다.

  • PDF

Convert 2D Video Frames into 3D Video Frames (2차원 동영상의 3차원 동영상 변화)

  • Lee, Hee-Man
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.6
    • /
    • pp.117-123
    • /
    • 2009
  • In this paper, An algorithm which converts 2D video frames into 3D video frames of parallel looking stereo camea is proposed. The proposed algorithm finds the disparity information between two consecutive video frames and generates 3D video frames from the obtained disparity maps. The disparity information is obtained from the modified iterative convergence algorithm. The method of generating 3D video frames from the disparity information is also proposed. The proposed algorithm uses coherence method which overcomes the video pattern based algorithms.

Robust Multiple Object Tracking Algorithm for Occlusion Handling using LSTM and Kalman Filter (LSTM과 칼만 필터를 활용한 폐색에 강인한 다중 객체 추적 알고리즘)

  • Lee, Jaehoon;Park, Gyoungsoo;Kim, Byeongjo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.251-254
    • /
    • 2020
  • 비디오 영상으로부터 객체를 추적하는 문제에 있어서 폐색은 오늘날까지도 해결해야하는 문제 중 하나다. 폐색이란 영상 속 찾고자 하는 객체가 이전 프레임에서는 존재했지만 특정 프레임에서는 전경 혹은 다른 객체에 의해 가려져 모습이 보이지 않는 것을 의미한다. 폐색이 나타난 상황에서 해당 객체를 추적하기 위해서는 이전 프레임까지 추적된 정보를 바탕으로 영상에 다시 객체가 나타날 때까지 위치를 잘 예측해야 한다. 본 논문은 비디오 영상의 폐색 환경에 강인한 다중 객체 추적 알고리즘을 제시한다. 이를 위해 딥러닝 기반의 LSTM 구조를 활용하여 객체의 형태 정보를 학습하고 칼만 필터를 이용해 객체의 속도 정보를 학습한다. 두 정보를 조합하여 폐색이 발생하였을 때 객체의 형태와 위치를 예측하여 영상 속에 객체가 다시 등장하더라도 추적 성능을 최대화 한다.

  • PDF

Video anomaly detection using multi-frame prediction error (다중 프레임 예측 에러를 활용한 영상 이상 탐지)

  • Kim, Yujun;Kim, Young-Gab
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.498-500
    • /
    • 2022
  • 공공 안전을 위한 영상 감시 시스템이 증가함에 따라 CCTV 관제사가 관제해야 할 영상의 수가 증가하고 있다. 점점 증가하는 관제 영상 수로 인해 CCTV 관제사는 수많은 영상 사이에서 발생하는 살인, 강도, 폭력 등 위급한 이상 상황을 놓치는 문제가 발생할 수 있다. 이러한 문제를 해결하기 위해 최근에는 영상에서 발생하는 이상 상황을 자동으로 탐지하고 CCTV 관제사에게 알려 관제 효율을 향상시키는 연구가 진행되고 있다. 본 논문은 영상에서 발생하는 이상 상황을 자동으로 탐지하기 위해 예측 기반 이상 탐지 방법에 다중 프레임 예측 에러를 활용해서 영상 이상 탐지 정확도를 향상시키는 방법을 제안한다. 결과적으로 제안한 방법을 사용함으로써 프레임 레벨 AUC가 Ped2 데이터 셋에서 92.70%에서 94.56%, Avenue 데이터셋에서 87.37%에서 89.17%로 상승하였다.

Fast Scene Change Detection Algorithm in Compressed Video by a phased-approach Method (압축 비디오에서 단계적 접근방법에 의한 빠른 장면전환검출 알고리듬)

  • 이재승;천이진;윤정오
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.6 no.3
    • /
    • pp.115-122
    • /
    • 2001
  • A scene change detection is an important step for video indexing and retrieval. This paper proposes an algorithm by a phased algorithm for fast and accurate detection of abrupt scene changes in an MPEG compressed domain with minimal decoding requirements and computational effort. The proposed method compares two successive I-frames for locating a scene change occurring within the GOP and uses macroblock-coded type information contained in B-frames to detect the exact frame where the scene change occurred. The algorithm has the advantage of speed, simplicity and accuracy. In addition, it requires less amount of storage. The experiment results demonstrate that the proposed algorithm has better detection performance, such as precision and recall rate, than the existing method using all DC images.

  • PDF

Sensor Pattern Noise Characteristics depending on Video Frame Type (동영상 프레임 종류에 따른 센서 패턴 노이즈 특성에 관한 연구)

  • Kim, Dong-Hyun;Lee, Sang-Hyeong;Lee, Hae-Yeoun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1502-1505
    • /
    • 2015
  • 디지털 처리 기술이 발전함에 따라 멀티미디어 장치 및 소프트웨어의 활용도가 증가하고 있다. 특히 이들 장치 및 소프트웨어는 저비용으로 고품질 및 고성능을 갖는 형태로 발전하고 있다. 그러나 본래의 의도와 다르게 불법적인 목적으로 디지털 획득 장치를 이용하는 범죄가 증가하고 있으며, 본 연구팀에서는 이를 차단하기 위하여 센서 패턴 노이즈를 이용한 디지털 영상 획득 장치 판별 기술을 연구해오고 있다. 최근 다양한 범죄에 있어서 동영상이 증거 자료로 활용되고 있으며, 본 논문에서는 동영상에 적용이 가능한 디지털 영상 획득 장치 기술을 연구하는데 있어서 동영상이 갖고 있는 프레임별 특성에 따른 판별 성능에 대하여 실험하고 분석하였다. 실시간으로 촬영한 동영상의 경우 B 프레임이 포함되지 않아, I 프레임과 P 프레임, 그리고 두 프레임을 함께 사용하여 각각에 대한 판별 성능에 대한 비교를 수행하였다. 그 결과 I 프레임과 P 프레임의 차이에 의한 성능의 차이는 있었으나, 장치 판별에 대한 영향은 충분히 무시할 수 있음을 확인할 수 있었다.

Key Frame Detection Using Contrastive Learning (대조적 학습을 활용한 주요 프레임 검출 방법)

  • Kyoungtae, Park;Wonjun, Kim;Ryong, Lee;Rae-young, Lee;Myung-Seok, Choi
    • Journal of Broadcast Engineering
    • /
    • v.27 no.6
    • /
    • pp.897-905
    • /
    • 2022
  • Research for video key frame detection has been actively conducted in the fields of computer vision. Recently with the advances on deep learning techniques, performance of key frame detection has been improved, but the various type of video content and complicated background are still a problem for efficient learning. In this paper, we propose a novel method for key frame detection, witch utilizes contrastive learning and memory bank module. The proposed method trains the feature extracting network based on the difference between neighboring frames and frames from separate videos. Founded on the contrastive learning, the method saves and updates key frames in the memory bank, witch efficiently reduce redundancy from the video. Experimental results on video dataset show the effectiveness of the proposed method for key frame detection.

Video Caption Extraction and Image Enhancement (비디오 자막 추출 및 이미지 향상에 관한 연구)

  • 김소명;최영우;정규식
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.359-361
    • /
    • 2000
  • 본 논문에서는 비디오 자막 이미지를 인식하기 위해 필요한 영상 향상의 단계로서 다중 결합을 적용한다. 또한 다중 결합을 위한 동일한 자막의 판단 및 결합된 결과를 재평가하기 위한 방법을 제안한다. 입력된 칼라 이미지로부터 RLS(Run Length Smearing)가 적용된 에지 이미지를 얻고, 수직 및 수평 히스토그램 분포를 이용하여 자막과 자막 영역에 대한 정보를 추출한다. 프레임 내의 자막 영역의 중첩 정도를 이용하여 동일 자막을 판단하고, 동일한 자막을 갖는 프레임들끼리 다중 결합을 수행함으로써 향상된 이미지를 얻는다. 끝으로 결합된 영상에 대한 평가를 수행하여 잘못 결합된 이미지들로 인한 오류를 해결하고 재평가한다. 제안한 방법을 통해, 배경 부분의 잡영이 완화된 자막 이미지를 추출하여 인식의 정확성과 신뢰성을 높일 수 있었다. 또한 동일한 자막의 시작 프레임과 끝 프레임의 위치 파악은 디지털 비디오의 색인 및 검색에 효과적으로 이용될 수 있을 것이다.

  • PDF

Deep Learning Framework for 5D Light Field Synthesis from Single Video (단안 비디오로부터의 5D 라이트필드 비디오 합성 프레임워크)

  • Bae, Kyuho;Ivan, Andre;Park, In Kyu
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.06a
    • /
    • pp.150-152
    • /
    • 2019
  • 본 논문에서는 기존의 연구를 극복하여 단일 영상이 아닌 단안 비디오로부터 5D 라이트필드 영상을 합성하는 딥러닝 프레임워크를 제안한다. 현재 일반적으로 사용 가능한 Lytro Illum 카메라 등은 초당 3프레임의 비디오만을 취득할 수 있기 때문에 학습용 데이터로 사용하기에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 가상 환경 데이터를 구성하며 이를 위해 UnrealCV를 활용하여 사실적 그래픽 렌더링에 의한 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 두 개의 입력 단안 비디오에서 $5{\times}5$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 luminance 영상으로 변환된 입력 영상으로부터 appearance flow를 추측하는 플로우 추측 네트워크(flow estimation network), appearance flow로부터 얻어진 두 개의 라이트필드 비디오 프레임 간의 optical flow를 추측하는 광학 플로우 추측 네트워크(optical flow estimation network)로 구성되어있다.

  • PDF