• Title/Summary/Keyword: 경계 중요도 맵

Search Result 14, Processing Time 0.028 seconds

Color Image Segmentation Based on Edge Salience Map and Region Merging (경계 중요도 맵 및 영역 병합에 기반한 칼라 영상 분할)

  • Kim, Sung-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.12 no.3
    • /
    • pp.105-113
    • /
    • 2007
  • In this paper, an image segmentation method which is based on edge salience map and region merging is presented. The edge salience map is calculated by combining a texture edge map with a color edge map. The texture edge map is computed over multiple spatial orientations and frequencies by using Gabor filter. A color edge is computed over the H component of the HSI color model. Then the Watershed transformation technique is applied to the edge salience map to and homogeneous regions where the dissimilarity of color and texture distribution is relatively low. The Watershed transformation tends to over-segment images. To merge the over-segmented regions, first of all, morphological operation is applied to the edge salience map to enhance a contrast of it and also to find mark regions. Then the region characteristics, a Gabor texture vector and a mean color, in the segmented regions is defined and regions that have the similar characteristics, are merged. Experimental results have demonstrated the superiority in segmentation results for various images.

  • PDF

Depth Map Upsampling via Markov Random Field without Color Boundary Noise Effect (컬러경계 잡음 현상을 제거한 Markov 랜덤 필드 기반 깊이맵 업샘플링)

  • Mun, Ji-Hun;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.06a
    • /
    • pp.101-104
    • /
    • 2014
  • 3차원 영상 제작을 위해서는 장면의 색상 영상과 함께 깊이 정보가 필요하다. 일반적으로 깊이를 측정하는 TOF 카메라에 의해 획득된 깊이 영상은 컬러 영상에 비해 매우 작은 해상도의 영상을 갖게 되는 문제가 있다. 따라서 색상 영상과 함께 3차원 영상 제작에 깊이 영상을 사용하기 위해서는 저해상도 깊이 영상의 업샘플링 방법이 필요하다. 특히 컬러 영상에서 사물 간의 경계에 해당하는 부분에서 색상 차이를 인지하지 못하여 깊이 맵을 부적절하게 처리하게 되는 경우가 발생한다. 본 논문에서는 색상 영상에서 경계부분에 해당하는 영역을 이용하여 저해상도 깊이 영상을 업샘플링 하는 방법을 제안한다. 깊이 영상을 업샘플링 할 때 중요하게 다루어야 할 경계 부분을, 고해상도 색상 영상과 저해상도 깊이 영상을 이용하여 찾아낸다. 색상 경계 부분을 고려하여 깊이 영상 업샘플링을 위한 에너지 함수를 MRF를 이용하여 모델링하고, 신뢰 확산(belief propagation)방법을 이용하여 에너지 함수 최적화를 수행한다. 제안한 방법은 기존의 다른 에너지 함수나 필터 기반 업샘플링 방법보다 우수한 성능을 나타내었다.

  • PDF

Specification and Limitation of ToF Cameras (ToF 카메라의 특성과 그 한계)

  • Hong, Su-Min;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.12-15
    • /
    • 2016
  • 요즘 들어, 3차원 콘텐츠의 수요는 지속적으로 증가하고 있다. 3차원 콘텐츠의 품질은 해당 장면의 깊이 정보에 큰 영향을 받기 때문에 정확한 깊이 정보를 얻는 방법이 매우 중요하다. 깊이 정보를 얻는 방법은 크게 수동형 방식과 능동형 방식으로 나뉘는데, 수동형 방식은 계산 과정이 복잡하고 깊이맵의 품질이 보장되지 않는 단점을 갖기 때문에 능동형 방식이 많이 사용되고 있다. 능동형 방식은 깊이 카메라를 이용하여 직접적인 깊이 정보를 얻는 방식으로, 대게 ToF(Time-of-flight) 기술이 사용된다. 이 논문에서는 ToF 깊이 카메라로 촬영된 실제 깊이맵의 특성을 분석하기 위해 여러 가지 촬영 환경과 객체에 대해서 SR4000 깊이 카메라와 키넥트 v2 센서를 이용하여 깊이맵 품질을 비교했다. 실험 결과, 적외선이 제대로 반사되기 어려운 방사성 물질이나 표면, 경계 영역, 어두운 영역, 머리 영역 등에서 정확한 깊이 정보를 얻기 어려웠으며, 실외 환경에서 정확한 깊이 정보가 획득되지 않는 것을 확인할 수 있었다.

  • PDF

Tracking a Moving Object Using an Active Contour Model Based on a Frame Difference Map (차 영상 맵 기반의 능동 윤곽선 모델을 이용한 이동 물체 추적)

  • 이부환;김도종;최일;전기준
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.41 no.5
    • /
    • pp.153-163
    • /
    • 2004
  • This paper presents a video tracking method for a deformable moving object using an active contour model in the image sequences. It is quite important to decide the local convergence directions of the contour points for correctly extracting the boundary of the moving object with deformable shape. For this purpose, an energy function for the active contour model is newly proposed by adding a directional energy term using a frame difference map to tile Greedy algorithm. In addition, an updating rule of tile frame difference map is developed to encourage the stable convergence of the contour points. Experimental results on a set of synthetic and real image sequences showed that the proposed method can fully track the deformable object while extracting the boundary of the object elaborately in every frame.

Depth Upsampling Method Using Total Generalized Variation (일반적 총변이를 이용한 깊이맵 업샘플링 방법)

  • Hong, Su-Min;Ho, Yo-Sung
    • Journal of Broadcast Engineering
    • /
    • v.21 no.6
    • /
    • pp.957-964
    • /
    • 2016
  • Acquisition of reliable depth maps is a critical requirement in many applications such as 3D videos and free-viewpoint TV. Depth information can be obtained from the object directly using physical sensors, such as infrared ray (IR) sensors. Recently, Time-of-Flight (ToF) range camera including KINECT depth camera became popular alternatives for dense depth sensing. Although ToF cameras can capture depth information for object in real time, but are noisy and subject to low resolutions. Recently, filter-based depth up-sampling algorithms such as joint bilateral upsampling (JBU) and noise-aware filter for depth up-sampling (NAFDU) have been proposed to get high quality depth information. However, these methods often lead to texture copying in the upsampled depth map. To overcome this limitation, we formulate a convex optimization problem using higher order regularization for depth map upsampling. We decrease the texture copying problem of the upsampled depth map by using edge weighting term that chosen by the edge information. Experimental results have shown that our scheme produced more reliable depth maps compared with previous methods.

Boundary-enhanced SAR Water Segmentation using Adversarial Learning of Deep Neural Networks (적대적 학습 개념을 도입한 경계 강화 SAR 수체탐지 딥러닝 모델)

  • Hwisong Kim;Duk-jin Kim;Junwoo Kim;Seungwoo Lee
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.2-2
    • /
    • 2023
  • 기후변화가 가속화로 인해 수재해의 빈도와 강도 예측이 어려워짐에 따라 실시간 홍수 모니터링에 대한 수요가 증가하고 있다. 합성개구레이다는 광원과 날씨에 무관하게 촬영이 가능하여 수재해 발생시에도 영상을 확보할 수 있다. 합성개구레이다를 활용한 수체 탐지 알고리즘 개발이 활발히 연구되어 왔고, 딥러닝의 발달로 CNN을 활용하여 높은 정확도로 수체 탐지가 기능해졌다. 하지만, CNN 기반 수체 탐지 모델은 훈련시 높은 정량적 정확성 지표를 달성하여도 추론 후 정성적 평가시 경계와 소하천에 대한 탐지 정확성이 떨어진다. 홍수 모니터링에서 특히 중요한 정보인 경계와 좁은 하천에 대해서 정확성이 떨어짐에 따라 실생활 적용이 어렵다. 이에 경계를 강화한 적대적 학습 기반의 수체 탐지 모델을 개발하여 더 세밀하고 정확하게 탐지하고자 한다. 적대적 학습은 생성적 적대 신경망(GAN)의 두 개의 모델인 생성자와 판별자가 서로 관여하며 더 높은 정확도를 달성할 수 있도록 학습이다. 이러한 적대적 학습 개념을 수체 탐지 모델에 처음으로 도입하여, 생성자는 실제 라벨 데이터와 유사하게 수체 경계와 소하천까지 탐지하고자 학습한다. 반면 판별자는 경계 거리 변환 맵과 합성개구레이다 영상을 기반으로 라벨데이터와 수체 탐지 결과를 구분한다. 경계가 강화될 수 있도록, 면적과 경계를 모두 고려할 수 있는 손실함수 조합을 구성하였다. 제안 모델이 경계와 소하천을 정확히 탐지하는지 판단하기 위해, 정량적 지표로 F1-score를 사용하였으며, 육안 판독을 통해 정성적 평가도 진행하였다. 기존 U-Net 모델이 탐지하지 못하던 영역에 대해 제안한 경계 강화 적대적 수체 탐지 모델이 수체의 세밀한 부분까지 탐지할 수 있음을 증명하였다.

  • PDF

SOM-Based $R^{*}-Tree$ for Similarity Retrieval (자기 조직화 맵 기반 유사 검색 시스템)

  • O, Chang-Yun;Im, Dong-Ju;O, Gun-Seok;Bae, Sang-Hyeon
    • The KIPS Transactions:PartD
    • /
    • v.8D no.5
    • /
    • pp.507-512
    • /
    • 2001
  • Feature-based similarity has become an important research issue in multimedia database systems. The features of multimedia data are useful for discriminating between multimedia objects. the performance of conventional multidimensional data structures tends to deteriorate as the number of dimensions of feature vectors increase. The $R^{*}-Tree$ is the most successful variant of the R-Tree. In this paper, we propose a SOM-based $R^{*}-Tree$ as a new indexing method for high-dimensional feature vectors. The SOM-based $R^{*}-Tree$ combines SOM and $R^{*}-Tree$ to achieve search performance more scalable to high-dimensionalties. Self-Organizingf Maps (SOMs) provide mapping from high-dimensional feature vectors onto a two-dimensional space. The map is called a topological feature map, and preserves the mutual relationships (similarity) in the feature spaces of input data, clustering mutually similar feature vectors in neighboring nodes. Each node of the topological feature map holds a codebook vector. We experimentally compare the retrieval time cost of a SOM-based $R^{*}-Tree$ with of an SOM and $R^{*}-Tree$ using color feature vectors extracted from 40,000 images. The results show that the SOM-based $R^{*}-Tree$ outperform both the SOM and $R^{*}-Tree$ due to reduction of the number of nodes to build $R^{*}-Tree$ and retrieval time cost.

  • PDF

View Synthesis Error Removal for Comfortable 3D Video Systems (편안한 3차원 비디오 시스템을 위한 영상 합성 오류 제거)

  • Lee, Cheon;Ho, Yo-Sung
    • Smart Media Journal
    • /
    • v.1 no.3
    • /
    • pp.36-42
    • /
    • 2012
  • Recently, the smart applications, such as smart phone and smart TV, become a hot issue in IT consumer markets. In particular, the smart TV provides 3D video services, hence efficient coding methods for 3D video data are required. Three-dimensional (3D) video involves stereoscopic or multi-view images to provide depth experience through 3D display systems. Binocular cues are perceived by rendering proper viewpoint images obtained at slightly different view angles. Since the number of viewpoints of the multi-view video is limited, 3D display devices should generate arbitrary viewpoint images using available adjacent view images. In this paper, after we explain a view synthesis method briefly, we propose a new algorithm to compensate view synthesis errors around object boundaries. We describe a 3D warping technique exploiting the depth map for viewpoint shifting and a hole filling method using multi-view images. Then, we propose an algorithm to remove boundary noises that are generated due to mismatches of object edges in the color and depth images. The proposed method reduces annoying boundary noises near object edges by replacing erroneous textures with alternative textures from the other reference image. Using the proposed method, we can generate perceptually inproved images for 3D video systems.

  • PDF

A Study on Synthetic Techniques Utilizing Map of 3D Animation - A Case of Occlusion Properties (오클루전 맵(Occlusion Map)을 활용한 3D애니메이션 합성 기법 연구)

  • Park, Sung-Won
    • Cartoon and Animation Studies
    • /
    • s.40
    • /
    • pp.157-176
    • /
    • 2015
  • This research describes render pass synthetic techniques required to use for the effectiveness of them in 3D animation synthetic technology. As the render pass is divided by property and synthesized after rendering, elaborate, rapid synthesis can be achieved. In particular, occlusion pass creates a screen as if it had a soft, light shading, expressing a sense of depth and boundary softness. It is converted into 2D image through a process of pass rendering of animation projects created in 3D space, then completed in synthetic software. Namely, 3D animation realizes the completeness of work originally planned through compositing, a synthetic process in the last half. To complete in-depth image, a scene manufactured in 3D software can be sent as a synthetic program by rendering the scene by layer and property. As recently the occlusion pass can express depth notwithstanding conducting GI rendering of 3D graphic outputs, it is an important synthetic map not omitted in the post-production process. Nonetheless, for the importance of it, currently the occlusion pass leaves much to be desired for research support and books summarizing and analyzing the characteristics of properties, and the principles and usages of them. Hence, this research was aimed to summarize the principles and usages of occlusion map, and analyze differences in the results of synthesis. Furthermore, it also summarized a process designating renderers and the map utilizing the properties, and synthetic software usages. For the future, it is hoped that effective and diverse latter expression techniques will be studied beyond the limitation of graphic expression based on trends diversifying technique development.

Face Detection in Color images (컬러이미지에서의 얼굴검출)

  • 박동희;박호식;남기환;한준희;나상동;배철수
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.10a
    • /
    • pp.236-238
    • /
    • 2003
  • Human face detection is often the first step in applications such as video surveillance, human computer interface, fare recognition, and image database management. We have constructed a simple and fast system to detect frontal human faces in complex environment and different illumination. This paper presents a fast segmentation method to combine neighboring pixels with similar hue. The algorithm constructs eye, mouth, and boundary maps for verifying each fare candidate. We test the system on images in complex environment and with confusing objects. The experiment shows a robust detection result with few false detected fates.

  • PDF