• 제목/요약/키워드: Optical flow algorithm

검색결과 189건 처리시간 0.035초

저비트율 동영상 전송을 위한 움직임 기반 동영상 분할 (The Motion-Based Video Segmentation for Low Bit Rate Transmission)

  • 이범로;정진현
    • 한국정보처리학회논문지
    • /
    • 제6권10호
    • /
    • pp.2838-2844
    • /
    • 1999
  • The motion-based video segmentation provides a powerful method of video compression, because it defines a region with similar motion, and it makes video compression system to more efficiently describe motion video. In this paper, we propose the Modified Fuzzy Competitive Learning Algorithm (MFCLA) to improve the traditional K-menas clustering algorithm to implement the motion-based video segmentation efficiently. The segmented region is described with the affine model, which consists of only six parameters. This affine model was calculated with optical flow, describing the movements of pixels by frames. This method could be applied in the low bit rate video transmission, such as video conferencing system.

  • PDF

Background Subtraction for Moving Cameras based on trajectory-controlled segmentation and Label Inference

  • Yin, Xiaoqing;Wang, Bin;Li, Weili;Liu, Yu;Zhang, Maojun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권10호
    • /
    • pp.4092-4107
    • /
    • 2015
  • We propose a background subtraction method for moving cameras based on trajectory classification, image segmentation and label inference. In the trajectory classification process, PCA-based outlier detection strategy is used to remove the outliers in the foreground trajectories. Combining optical flow trajectory with watershed algorithm, we propose a trajectory-controlled watershed segmentation algorithm which effectively improves the edge-preserving performance and prevents the over-smooth problem. Finally, label inference based on Markov Random field is conducted for labeling the unlabeled pixels. Experimental results on the motionseg database demonstrate the promising performance of the proposed approach compared with other competing methods.

가려짐 영역 검출 및 스테레오 영상 내의 특징들을 이용한 다시점 영상 생성 (Multi-view Image Generation from Stereoscopic Image Features and the Occlusion Region Extraction)

  • 이왕로;고민수;엄기문;정원식;허남호;유지상
    • 방송공학회논문지
    • /
    • 제17권5호
    • /
    • pp.838-850
    • /
    • 2012
  • 본 논문에서는 스테레오 영상에서 얻은 다양한 특징들을 이용하여 다시점 영상을 생성하는 방법을 제안한다. 제안된 기법에서는 먼저 주어진 스테레오 영상에서 명암변화 주목도 지도(intensity gradient saliency map)를 생성한다. 다음으로 좌우 영상 간에 블럭 단위의 움직임을 나타내는 광류(optical flow)를 계산하고 scale-invariant feature transform(SIFT) 기법을 통해 사물의 크기와 회전에 변하지 않는 영상의 특징 점을 구하여 이 특징점 간의 변이를 구한 다음, 이 두 변이 정보들을 결합하여 변이 주목도 지도(disparity saliency map)를 생성 한다. 생성된 변이 주목도 지도는 가려짐 영역 검출을 통해 오류 변이가 제거된다. 세 번째로 영상 워핑시에 직선의 왜곡을 최소화하기 위해 직선 세그먼트를 얻는다. 마지막으로 다시점 영상은 이렇게 추출된 영상 특징들을 제한 조건으로 사용하여 그리드 메쉬(grid-mesh) 기반 영상 워핑(warping) 기법에 의해 생성된다. 실험 결과를 통해 제안한 기법으로 생성된 다시점 영상의 화질이 기존 DIBR 기법보다 우수한 것을 확인할 수 있었다.

Automatic Object Segmentation and Background Composition for Interactive Video Communications over Mobile Phones

  • Kim, Daehee;Oh, Jahwan;Jeon, Jieun;Lee, Junghyun
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제1권3호
    • /
    • pp.125-132
    • /
    • 2012
  • This paper proposes an automatic object segmentation and background composition method for video communication over consumer mobile phones. The object regions were extracted based on the motion and color variance of the first two frames. To combine the motion and variance information, the Euclidean distance between the motion boundary pixel and the neighboring color variance edge pixels was calculated, and the nearest edge pixel was labeled to the object boundary. The labeling results were refined using the morphology for a more accurate and natural-looking boundary. The grow-cut segmentation algorithm begins in the expanded label map, where the inner and outer boundary belongs to the foreground and background, respectively. The segmented object region and a new background image stored a priori in the mobile phone was then composed. In the background composition process, the background motion was measured using the optical-flow, and the final result was synthesized by accurately locating the object region according to the motion information. This study can be considered an extended, improved version of the existing background composition algorithm by considering motion information in a video. The proposed segmentation algorithm reduces the computational complexity significantly by choosing the minimum resolution at each segmentation step. The experimental results showed that the proposed algorithm can generate a fast, accurate and natural-looking background composition.

  • PDF

무인 영상 감시 시스템을 위한 실시간 얼굴 영역 추출 알고리즘 (Real-time Face Localization for Video Monitoring)

  • 주영현;이정훈;문영식
    • 전자공학회논문지C
    • /
    • 제35C권11호
    • /
    • pp.48-56
    • /
    • 1998
  • 본 논문에서는 영상 감시 시스템을 위한 이동물체 추적 및 얼굴 영역 추출 알고리즘을 제안한다. 제안된 방법은 두 단계로 구성되어 있으며, 첫 번째의 이동 물체 감지 단계에서는 각각의 입력 프레임에 대하여 화소값의 변화를 기반으로 한 세 종류의 특징값들을 추출한 다음, 그 값들에 의하여 입력 프레임을 다섯 종류의 클래스로 분류한다. 분류 결과 현재의 프레임이 이동물체를 포함하고 있다면 두 번째의 얼굴 영역 분리 단계에서 컬러 정보와 프레임간의 차이를 이용하여 그 얼굴 영역을 추출하게 된다. 제안된 알고리즘은 광류등 계산시간이 많이 걸리는 특징값들에 의존하지 않으므로 실시간 처리에 적합하다. 또한 여러 테스트 영상시퀀스에 대하여 실험을 수행한 결과 본 논문에서 제안된 알고리즘의 유용성이 입증되었다.

  • PDF

3차원 다중 기선을 사용만 비데오 영상 모자이크 기술 (Video Image Mosaicing Technique Using 3 Dimensional Multi Base Lines)

  • 전재춘;서용철
    • 대한원격탐사학회지
    • /
    • 제20권2호
    • /
    • pp.125-137
    • /
    • 2004
  • 하나의 기선에 작은 여러 영상을 투영하여 하나의 영상 모자이크를 생성하는 2차원 영상 모자이크 기법은 비데오 카메라가 도심지역을 이동하여 얻은 영상을 하나의 모자이크 영상을 생성할 수 없다. 본 논문에서는, 3차원 다중 기준선을 이용함으로서 3차원 공간에서 영상 모자이크를 생성시킬 수 있는 새로운 기법을 제안하였다. 제안된 방법은 각 영상 프레임마다 독립적인 기선을 가지도록 하여 3차원 공간에서 영상 모자이크를 생성 제안하는 것으로서, 독립적인 기선은 각 영상 프레임에서 추출된 광류의 지상 기준점들을 1차 방정식으로 표현한 것이다. 제안한 방법은 계층적 방법을 이용한 광류(Optical Flow)계산, 카메라 외부표정(Exterior Orientation)계산, 다중 기선(Multi-baselines)계산과 모자이크 된 영상들간의 경계를 감지 못하는 화소(Optimal Seamline Detection)의한 영상 모자이크 재생성 과정을 통해 구현되며, 실제 영상 프레임을 이용한 실험을 통해 효과적으로 3차원 공간에서 영상 모자이크 제작이 가능함을 입증하였다.

Region growing 기법을 적용한 영상기반 수위감지 알고리즘 개선에 대한 연구 (A Study on the Improvement of Image-Based Water Level Detection Algorithm Using the Region growing)

  • 김옥주;이준우;박진이;조명흠
    • 대한원격탐사학회지
    • /
    • 제36권5_4호
    • /
    • pp.1245-1254
    • /
    • 2020
  • 본 연구에서는 CCTV 영상을 이용한 기존 수위감지 알고리즘의 한계점을 보완하기 위하여 Region growing 기법을 적용하였다. 먼저 세 가지 기법(수평 투영 프로파일, Texture 분석, Optical flow)을 적용해 물 영역을 추정하고, 기법별 결과를 종합 분석하여 최초 수위를 설정하였다. 이후 최초 수위를 기준으로 Region growing을 통해 수위 변화를 지속적으로 감지하도록 하였다. 그 결과, 주변 환경요인에 영향 없이 수위를 올바르게 감지하였으며, 영상분석 결과에 대한 전반적인 오차 평균은 5% 미만인 것을 확인할 수 있었다. 또한, 본 알고리즘이 하천이 아닌 도심지 내 침수 도로 영상에서도 물 영역이 감지되는 것을 확인할 수 있었다. 이러한 결과는 전국에 설치된 수많은 CCTV 영상을 통해 자동적으로 수위를 감지함으로써 제한된 인력으로 상시 모니터링이 어려웠던 점을 보완할 수 있으며, 집중호우, 태풍 등으로 인해 발생되는 사고발생 위험성을 사전에 인지하여 예방할 수 있는 기반을 마련하는데 기여할 수 있을 것으로 생각된다.

안정적 보행을 위한 이족 로봇의 환경 인식 시스템 연구 (A Study on the Environment Recognition System of Biped Robot for Stable Walking)

  • 송희준;이선구;강태구;김동원;박귀태
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 제37회 하계학술대회 논문집 D
    • /
    • pp.1977-1978
    • /
    • 2006
  • This paper discusses the method of vision based sensor fusion system for biped robot walking. Most researches on biped walking robot have mostly focused on walking algorithm itself. However, developing vision systems for biped walking robot is an important and urgent issue since biped walking robots are ultimately developed not only for researches but to be utilized in real life. In the research, systems for environment recognition and tele-operation have been developed for task assignment and execution of biped robot as well as for human robot interaction (HRI) system. For carrying out certain tasks, an object tracking system using modified optical flow algorithm and obstacle recognition system using enhanced template matching and hierarchical support vector machine algorithm by wireless vision camera are implemented with sensor fusion system using other sensors installed in a biped walking robot. Also systems for robot manipulating and communication with user have been developed for robot.

  • PDF

다중선형회귀모델을 이용한 움직임 추정방법 (Motion estimation method using multiple linear regression model)

  • 김학수;임원택;이재철;이규원;박규택
    • 전자공학회논문지S
    • /
    • 제34S권10호
    • /
    • pp.98-103
    • /
    • 1997
  • Given the small bit allocation for motion information in very low bit-rate coding, motion estimation using the block matching algorithm(BMA) fails to maintain an acceptable level of prediction errors. The reson is that the motion model, or spatial transformation, assumed in block matching cannot approximate the motion in the real world precisely with a small number of parameters. In order to overcome the drawback of the conventional block matching algorithm, several triangle-based methods which utilize triangular patches insead of blocks have been proposed. To estimate the motions of image sequences, these methods usually have been based on the combination of optical flow equation, affine transform, and iteration. But the compuataional cost of these methods is expensive. This paper presents a fast motion estimation algorithm using a multiple linear regression model to solve the defects of the BMA and the triange-based methods. After describing the basic 2-D triangle-based method, the details of the proposed multiple linear regression model are presented along with the motion estimation results from one standard video sequence, representative of MPEG-4 class A data. The simulationresuls show that in the proposed method, the average PSNR is improved about 1.24 dB in comparison with the BMA method, and the computational cost is reduced about 25% in comparison with the 2-D triangle-based method.

  • PDF

어안 이미지의 배경 제거 기법을 이용한 실시간 전방향 장애물 감지 (Real time Omni-directional Object Detection Using Background Subtraction of Fisheye Image)

  • 최윤원;권기구;김종효;나경진;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권8호
    • /
    • pp.766-772
    • /
    • 2015
  • This paper proposes an object detection method based on motion estimation using background subtraction in the fisheye images obtained through omni-directional camera mounted on the vehicle. Recently, most of the vehicles installed with rear camera as a standard option, as well as various camera systems for safety. However, differently from the conventional object detection using the image obtained from the camera, the embedded system installed in the vehicle is difficult to apply a complicated algorithm because of its inherent low processing performance. In general, the embedded system needs system-dependent algorithm because it has lower processing performance than the computer. In this paper, the location of object is estimated from the information of object's motion obtained by applying a background subtraction method which compares the previous frames with the current ones. The real-time detection performance of the proposed method for object detection is verified experimentally on embedded board by comparing the proposed algorithm with the object detection based on LKOF (Lucas-Kanade optical flow).