• 제목/요약/키워드: Redundancy resolution

검색결과 56건 처리시간 0.025초

Automatic Generation of GCP Chips from High Resolution Images using SUSAN Algorithms

  • Um Yong-Jo;Kim Moon-Gyu;Kim Taejung;Cho Seong-Ik
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2004년도 Proceedings of ISRS 2004
    • /
    • pp.220-223
    • /
    • 2004
  • Automatic image registration is an essential element of remote sensing because remote sensing system generates enormous amount of data, which are multiple observations of the same features at different times and by different sensor. The general process of automatic image registration includes three steps: 1) The extraction of features to be used in the matching process, 2) the feature matching strategy and accurate matching process, 3) the resampling of the data based on the correspondence computed from matched feature. For step 2) and 3), we have developed an algorithms for automated registration of satellite images with RANSAC(Random Sample Consensus) in success. However, for step 1), There still remains human operation to generate GCP Chips, which is time consuming, laborious and expensive process. The main idea of this research is that we are able to automatically generate GCP chips with comer detection algorithms without GPS survey and human interventions if we have systematic corrected satellite image within adaptable positional accuracy. In this research, we use SUSAN(Smallest Univalue Segment Assimilating Nucleus) algorithm in order to detect the comer. SUSAN algorithm is known as the best robust algorithms for comer detection in the field of compute vision. However, there are so many comers in high-resolution images so that we need to reduce the comer points from SUSAN algorithms to overcome redundancy. In experiment, we automatically generate GCP chips from IKONOS images with geo level using SUSAN algorithms. Then we extract reference coordinate from IKONOS images and DEM data and filter the comer points using texture analysis. At last, we apply automatically collected GCP chips by proposed method and the GCP by operator to in-house automatic precision correction algorithms. The compared result will be presented to show the GCP quality.

  • PDF

Strain-based structural condition assessment of an instrumented arch bridge using FBG monitoring data

  • Ye, X.W.;Yi, Ting-Hua;Su, Y.H.;Liu, T.;Chen, B.
    • Smart Structures and Systems
    • /
    • 제20권2호
    • /
    • pp.139-150
    • /
    • 2017
  • The structural strain plays a significant role in structural condition assessment of in-service bridges in terms of structural bearing capacity, structural reliability level and entire safety redundancy. Therefore, it has been one of the most important parameters concerned by researchers and engineers engaged in structural health monitoring (SHM) practices. In this paper, an SHM system instrumented on the Jiubao Bridge located in Hangzhou, China is firstly introduced. This system involves nine subsystems and has been continuously operated for five years since 2012. As part of the SHM system, a total of 166 fiber Bragg grating (FBG) strain sensors are installed on the bridge to measure the dynamic strain responses of key structural components. Based on the strain monitoring data acquired in recent two years, the strain-based structural condition assessment of the Jiubao Bridge is carried out. The wavelet multi-resolution algorithm is applied to separate the temperature effect from the raw strain data. The obtained strain data under the normal traffic and wind condition and under the typhoon condition are examined for structural safety evaluation. The structural condition rating of the bridge in accordance with the AASHTO specification for condition evaluation and load and resistance factor rating of highway bridges is performed by use of the processed strain data in combination with finite element analysis. The analysis framework presented in this study can be used as a reference for facilitating the assessment, inspection and maintenance activities of in-service bridges instrumented with long-term SHM system.

스케일러블 동적 메쉬 압축을 위한 SHVC 기반 텍스처 맵 부호화 방법 (SHVC-based Texture Map Coding for Scalable Dynamic Mesh Compression)

  • 권나성;변주형;최한솔;심동규
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.314-328
    • /
    • 2023
  • 본 논문에서는 동적 메쉬 부/복호화 시 스케일러빌리티 기능을 지원하기 위해 SHVC의 계층적 부호화 방식을 기반으로 텍스처 맵을 압축하는 방법을 제안한다. 제안하는 방법은 고해상도 텍스처 맵을 다운샘플링하여 다해상도의 텍스처 맵을 생성하고 이를 SHVC로 부호화함으로써 효과적으로 다해상도 텍스처 맵들의 중복성을 제거한다. 동적 메쉬 복호화기에서는 수신기 성능, 네트워크 환경 등에 따라 적합한 해상도의 텍스처 맵을 복호화하여 메쉬 데이터의 스케일러빌리티를 지원할 수 있도록 한다. 제안하는 방법의 성능을 검증하기 위해 V-DMC (Video-based Dynamic Mesh Coding) 참조 소프트웨어인 TMMv1.0에 제안하는 방법을 적용하고 본 논문에서 제안하는 스케일러블 부/복호화기와 TMMv1.0 기반의 시뮬캐스트 방식의 성능을 비교하였다. 제안하는 방법은 시뮬캐스트 방법 대비 AI, LD 환경에서 Luma BD-rate (Luma PSNR)가 각각 평균 -7.7%, -5.7%의 향상된 결과를 얻어 제안하는 방법을 통해 효과적으로 동적 메쉬 데이터의 텍스처 맵 스케일러빌리티 지원이 가능함을 확인하였다.

PCA 기반 변환을 통한 다해상도 피처 맵 압축 방법 (A Feature Map Compression Method for Multi-resolution Feature Map with PCA-based Transformation)

  • 박승진;이민훈;최한솔;김민섭;오승준;김연희;도지훈;정세윤;심동규
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.56-68
    • /
    • 2022
  • 본 논문에서는 VCM을 위한 다해상도 피처 맵에 대한 압축 방법을 제안한다. 제안하는 압축 방법은 PCA 기반의 변환을 통해 다해상도 피처 맵의 채널 및 해상도 계층 간 중복성을 제거하며 변환에 사용된 기저 벡터와 평균 벡터 그리고 변환을 통해 얻어진 변환 계수를 각각의 특성에 따라 VVC 기반 부호화기와 DeepCABAC을 통하여 압축한다. 제안하는 방법의 성능을 측정하기 위하여 OpenImageV6와 COCO 2017 validation set에 대하여 객체 검출 성능을 평가하며, MPEG-VCM 앵커 및 본 논문에서 제안하는 피처 맵 압축 앵커 대비 bpp와 mAP를 BD-rate 관점에서 비교한다. 실험 결과, 제안하는 방법은 OpenImageV6에서 피처 맵 압축 앵커 대비 25.71%의 BD-rate 성능 향상을 보이며, 특히 COCO 2017 validation set의 크기가 큰 객체들에 대해서 MPEG-VCM 앵커 대비 최대 43.72%의 BD-rate 성능이 향상됨을 보인다.

An Adaptive Block Matching Algorithm based on Temporal Correlations

  • Yoon, Hyo-Sun;Son, Nam-Rye;Lee, Guee-Sang;Kim, Soo-Hyung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -1
    • /
    • pp.188-191
    • /
    • 2002
  • To reduce the bit-rate of video sequences by removing temporal redundancy, motion estimation techniques have been developed. However, the high computational complexity of the problem makes such techniques very difficult to be applied to high-resolution applications in a real time environment. For this reason, low computational complexity motion estimation algorithms are viable solutions. If a priori knowledge about the motion of the current block is available before the motion estimation, a better starting point for the search of n optimal motion vector on be selected and also the computational complexity will be reduced. In this paper, we present an adaptive block matching algorithm based on temporal correlations of consecutive image frames that defines the search pattern and the location of initial starting point adaptively to reduce computational complexity. Experiments show that, comparing with DS(Diamond Search) algorithm, the proposed algorithm is about 0.1∼0.5(㏈) better than DS in terms of PSNR and improves as much as 50% in terms of the average number of search points per motion estimation.

  • PDF

동적 적응을 위한 움직임 보상 계층형 동영상 부호화 (Motion-Compensated Layered Video Coding for Dynamic Adaptation)

  • 이재용;박희라;고성제
    • 한국통신학회논문지
    • /
    • 제24권10B호
    • /
    • pp.1912-1920
    • /
    • 1999
  • 본 논문에서는 이종 환경에서 효과적으로 사용할 수 있도록 다중 계층형 비트열을 생성할 수 있는 계층형 동영상 부호화 방식을 제안한다. 제안하는 부호화 기법에서는 시축 해상도의 확장성(scalability)을 지원하기 위해 시축 계층구조에서 새로운 움직임 추정 구조를 가지도록 하고, 웨이브릿 분할을 이용하여 공간 확장성까지도 지원하도록 한다. 움직임 추정과 보상을 사용하여 시축 중복성을 더욱 줄여 조건 갱신 방식보다 압축률을 향상시킬 뿐만 아니라‘분산 부대역 인트라 갱신’기법을 사용하여 동적 적응이나 에러에 대해서도 효과적으로 동작할 수 있다. 또한 EZW (embedded zerotree wavelet) 기법을 사용하여 임베디드 비트열을 생성함으로써 추후에 데이터율 확장성을 쉽게 얻을 수 있도록 하였다. 따라서 제안하는 부호화 기법은 인터넷이나 ATM, 무선망과 같이 상호 운용과 확장성을 필요로 하는 네트웍 상에서 매우 효과적으로 사용될 수 있을 것이다.

  • PDF

무선 ad hoc 네트워크를 위한 향상된 방송 알고리즘 (An Enhanced Broadcasting Algorithm in Wireless Ad hoc Networks)

  • 김관웅;배성환;김대익
    • 한국통신학회논문지
    • /
    • 제33권10A호
    • /
    • pp.956-963
    • /
    • 2008
  • 다중 홉 무선 ad hoc 네트워크에서 방송은 경로 탐색과 주소 설정 등 많은 응용 작업들을 지원해 주는 기본적인 동작이다. 플로딩을 이용한 방송은 네트워크상에서 방송 폭풍 문제라고 언급되는 중복성, 경쟁, 충돌문제 등을 야기한다. 무선 ad hoc 네트워크를 위한 여러 가지 방송 기법들은 단순 플로딩 기법 보다 우수한 성능을 얻기 위해 제안되었다. 재방송 실행 유무를 결정하는 방법은 다양한 토폴로지 상에서 패킷의 도착율과 효율성 사이에 딜레마를 갖는다. 본 논문에서는 패킷의 도착율 저하 없이, 필요 없는 재방송 패킷들을 줄여서 효율성을 높이기 위한 향상된 방송 알고리즘을 제안한다. 시뮬레이션 결과를 통해 제안한 기법이 기존의 기법들 보다 우수한 도착율과 효율성을 제공함을 보인다.

Compressed Sensing 기법을 이용한 Dynamic MR Imaging (Compressed Sensing Based Dynamic MR Imaging: A Short Survey)

  • 정홍;예종철
    • 대한전자공학회논문지SP
    • /
    • 제46권5호
    • /
    • pp.25-31
    • /
    • 2009
  • Compressed sensing은 기존의 Nyquist sampling 이론에 기반을 두었던 dynamic MRI에서의 시 공간 해상도의 제한을 획기적으로 향상시킴으로써, 최근 몇 년 사이, MR reconstruction 분야에서 가장 큰 이슈가 되고 있는 연구주제이다. Dynamic MRI 는 대부분 시간방향의 redundancy 가 매우 크므로, 쉽게 sparse 변환이 가능하다. 따라서 sparsity를 기본 조건으로 하는 compressed sensing은 거의 모든 dynamic MRI 에 대해 효과적으로 적용될 수 있다. 본 review 페이퍼에서는 최근 compressed sensing 에 기반을 두거나 영상의 sparsity를 이용하여 개발된 dynamic MR imaging algorithm 들을 간략히 소개하고, 비교 분석함으로써, compressed sensing과 같은 새로운 접근 방식의 dynamic MRI가 실제 임상에서 가져다 줄 발전 가능성을 제시한다.

A Study on Effective Satellite Selection Method for Multi-Constellation GNSS

  • Taek Geun, Lee;Yu Dam, Lee;Hyung Keun, Lee
    • Journal of Positioning, Navigation, and Timing
    • /
    • 제12권1호
    • /
    • pp.11-22
    • /
    • 2023
  • In this paper, we propose an efficient satellite selection method for multi-constellation GNSS. The number of visible satellites has increased dramatically recently due to multi-constellation GNSS. By the increased availability, the overall GNSS performance can be improved. Whereas, due to the increase of the number of visible satellites, the computational burden in implementing advanced processing such as integer ambiguity resolution and fault detection can be increased considerably. As widely known, the optimal satellite selection method requires very large computational burden and its real-time implementation is practically impossible. To reduce computational burden, several sub-optimal but efficient satellite selection methods have been proposed recently. However, these methods are prone to the local optimum problem and do not fully utilize the information redundancy between different constellation systems. To solve this problem, the proposed method utilizes the inter-system biases and geometric assignments. As a result, the proposed method can be implemented in real-time, avoids the local optimum problem, and does not exclude any single-satellite constellation. The performance of the proposed method is compared with the optimal method and two popular sub-optimal methods by a simulation and an experiment.

Site-Specific Error-Cross Correlation-Informed Quadruple Collocation Approach for Improved Global Precipitation Estimates

  • Alcantara, Angelika;Ahn Kuk-Hyun
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.180-180
    • /
    • 2023
  • To improve global risk management, understanding the characteristics and distribution of precipitation is crucial. However, obtaining spatially and temporally resolved climatic data remains challenging due to sparse gauge observations and limited data availability, despite the use of satellite and reanalysis products. To address this challenge, merging available precipitation products has been introduced to generate spatially and temporally reliable data by taking advantage of the strength of the individual products. However, most of the existing studies utilize all the available products without considering the varying performances of each dataset in different regions. Comprehensively considering the relative contributions of each parent dataset is necessary since their contributions may vary significantly and utilizing all the available datasets for data merging may lead to significant data redundancy issues. Hence, for this study, we introduce a site-specific precipitation merging method that utilizes the Quadruple Collocation (QC) approach, which acknowledges the existence of error-cross correlation between the parent datasets, to create a high-resolution global daily precipitation data from 2001-2020. The performance of multiple gridded precipitation products are first evaluated per region to determine the best combination of quadruplets to be utilized in estimating the error variances through the QC approach and computation of merging weights. The merged precipitation is then computed by adding the precipitation from each dataset in the quadruplet multiplied by each respective merging weight. Our results show that our approach holds promise for generating reliable global precipitation data for data-scarce regions lacking spatially and temporally resolved precipitation data.

  • PDF