• Title/Summary/Keyword: 리샘플링

Search Result 110, Processing Time 0.019 seconds

$L_2$-Norm Based Optimal Nonuniform Resampling (유클리드 norm에 기반한 최적 비정규 리사이징 알고리즘)

  • 신건식;엄지윤;이학무;강문기
    • Journal of Broadcast Engineering
    • /
    • v.8 no.1
    • /
    • pp.37-44
    • /
    • 2003
  • The standard approach to signal resampling is to fit the original image to a continuous model and resample the function at a desired rate. We used the compact B-spline function as the continuous model which produces less oscillatory behavior than other tails functions. In the case of nonuniform resampling based on a B-spline model, the digital signal is fitted to a spline model, and then the fitted signal is resampled at a space varying rate determined by the transformation function. It is simple to implement but may suffer from artifacts due to data loss. The main purpose of this paper is the derivation of optimal nonuniform resampling algorithm. For the optimal nonuniform formulation, the resampled signal is represented by a combination of shift varying splines determined by the transformation function. This optimal nonuniform resampling algorithm can be verified from the experiments that It produces less errors.

Real-Time 3D Volume Deformation and Visualization by Integrating NeRF, PBD, and Parallel Resampling (NeRF, PBD 및 병렬 리샘플링을 결합한 실시간 3D 볼륨 변형체 시각화)

  • Sangmin Kwon;Sojin Jeon;Juni Park;Dasol Kim;Heewon Kye
    • Journal of the Korea Computer Graphics Society
    • /
    • v.30 no.3
    • /
    • pp.189-198
    • /
    • 2024
  • Research combining deep learning-based models and physical simulations is making important advances in the medical field. This extracts the necessary information from medical image data and enables fast and accurate prediction of deformation of the skeleton and soft tissue based on physical laws. This study proposes a system that integrates Neural Radiance Fields (NeRF), Position-Based Dynamics (PBD), and Parallel Resampling to generate 3D volume data, and deform and visualize them in real-time. NeRF uses 2D images and camera coordinates to produce high-resolution 3D volume data, while PBD enables real-time deformation and interaction through physics-based simulation. Parallel Resampling improves rendering efficiency by dividing the volume into tetrahedral meshes and utilizing GPU parallel processing. This system renders the deformed volume data using ray casting, leveraging GPU parallel processing for fast real-time visualization. Experimental results show that this system can generate and deform 3D data without expensive equipment, demonstrating potential applications in engineering, education, and medicine.

Research for DEM and ortho-image generated from high resolution satellite images. (고해상도 영상 자료로부터 추출한 DEM 및 정사영상 생성에 관한 연구)

  • Jeong, Jae-Hoon;Lee, Tae-Yoon;Kim, Tae-Jung;Park, Wan-Yong
    • Proceedings of the KSRS Conference
    • /
    • 2008.03a
    • /
    • pp.80-85
    • /
    • 2008
  • 최근 도심지역이 급변하고 고해상도 위성영상의 보급이 증가함에 따라 고해상도 위성영상을 이용한 수치표고모델과 정사영상 생성에 관한 연구가 활발해 지고 있다. 본 연구에서는 IKONOS, SPOT5, QUICKBIRD, KOMPSAT2 위성영상을 이용하여 DEM 과 정사영상을 생성하였으며 USGS DTED 와 기준점을 이용하여 결과의 정확도를 비교 분석하였다. 보다 정확한 DEM 생성을 위해 자동 피라미드 알고리즘을 적용하고 영상 정합시 에피폴라 기하학을 적용하였다. 정사 영상 생성시 DTED 높이값을 이용하여 보정을 수행하였으며 생성 속도를 높이기 위하여 리샘플링 그리드를 적용하였다. 본 연구에서 DEM 과 정사영상 생성시 QUICKBIRD 와 SPOT5 의 경우 영상의 용량이 매우 커 메모리 부족문제와 알고리즘 수행 속도 저하가 발생함을 확인하였다. 이를 개선하기 위하여 DEM 생성시 정합 후보점의 개수를 줄이는 알고리즘을 고안하여 기존에 메모리 문제로 생성하지 못했던 QUICKBIRD와 SPOT5 의 DEM 을 생성하였으며 정사 영상 생성시 리샘플링 그리드를 적용하여 고해상도 정상영상 생성 속도 개선에 상당한 효과를 가져왔다. 그러나 고해상도 위성 영상의 용량이 점점 커져감에 따라 이러한 메모리 문제와 처리 속도 저하에 관한 문제는 추후 계속적으로 연구되어야 할 부분이라고 할 수 있다. 본 연구에서 생성한 IKONOS, SPOT5, QUICKBIRD DEM 의 정확도를 USGS DTED 와 비교한 결과 13${\sim}$15 m 정도의 RMS 높이 오차가 산출되었으며 생성된 IKONOS, QUICKBIRD, KOMPSAT2 정사영상을 기준점과 비교한 결과 3 m 정도의 거리오차가 산출되었음을 확인하였다.

  • PDF

Optimal Threshold Setting Method for R Wave Detection According to The Sampling Frequency of ECG Signals (심전도신호 샘플링 주파수에 따른 R파 검출 최적 문턱치 설정)

  • Cho, Ik-sung;Kwon, Hyeog-soong
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.21 no.7
    • /
    • pp.1420-1428
    • /
    • 2017
  • It is difficult to guarantee the reliability of the algorithm due to the difference of the sampling frequency among the various ECG databases used for the R wave detection in case of applying to different environments. In this study, we propose an optimal threshold setting method for R wave detection according to the sampling frequency of ECG signals. For this purpose, preprocessing process was performed using moving average and the squaring function based the derivative. The optimal value for the peak threshold was then detected according to the sampling frequency by changing the threshold value according to the variation of the signal and the previously detected peak value. The performance of R wave detection is evaluated by using 48 record of MIT-BIH arrhythmia database. When the optimal values of the differential section, window size, and threshold coefficient for the MIT-BIH sampling frequency of 360 Hz were 7, 8, and 6.6, respectively, the R wave detection rate was 99.758%.

$L_2$-Norm Based Optimal Nonuniform Resampling (유클리드norm에 기반한 최적 비정규 리사이징 알고리즘)

  • 엄지윤;이학무;강문기
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2002.11a
    • /
    • pp.71-76
    • /
    • 2002
  • 보간법은 기본적으로 원래의 영상을 연속적인 함수 모형으로 나타내고 이 함수로부터 다시 샘플링을 하여 원하는 영상을 얻는 방식으로 접근한다. 본 논문에서는 다른 연속 함수모델보다 진동이 적고 필터 계수가 적은 B-spline 함수를 사용한다. 된 논문의 최적 보간 방법은 원래의 신호와 얻고자 하는 신호를 각각 spline함수로 나타내고, 이 둘의 차이가 가장 작은 것을 선택하는 것이다. 그러기 위해서는 여러 개의 spline계수 중에서 원래 신호와의 L$_2$-norm이 가장 작은 것을 선택해야 한다 이러한 최적 보간법을 일반화하기 위해서 spline 함수로 표현된 신호를 다시 샘플링 하여 신호를 얻고, 그 신호를 공간에 따라 변화하는 spline함수의 합으로 나타낸다. 그리고 이렇게 나타낸 함수들 중에서 원래의 함수와 가장 가까운 것을 선택하도록 함으로써 일반화될 수 있다. 이러한 최적화 된 비정규점 리사이징 알고리즘은 다른 알고리즘에 비해서 더 적은 오차를 나타냄을 확인할 수 있다.

  • PDF

Epipolar Image Resampling from Kompsat-3 In-track Stereo Images (아리랑3호 스테레오 영상의 에피폴라 기하 분석 및 영상 리샘플링)

  • Oh, Jae Hong;Seo, Doo Chun;Lee, Chang No
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.31 no.6_1
    • /
    • pp.455-461
    • /
    • 2013
  • Kompsat-3 is an optical high-resolution earth observation satellite launched in May 2012. The AEISS sensor of the Korean satellite provides 0.7m panchromatic and 2.8m multi-spectral images with 16.8km swath width from the sun-synchronous near-circular orbit of 685km altitude. Kompsat-3 is more advanced than Kompsat-2 and the improvements include better agility such as in-track stereo acquisition capability. This study investigated the characteristic of the epipolar curves of in-track Kompsat-3 stereo images. To this end we used the RPCs(Rational Polynomial Coefficients) to derive the epipolar curves over the entire image area and found out that the third order polynomial equation is required to model the curves. In addition, we could observe two different groups of curve patterns due to the dual CCDs of AEISS sensor. From the experiment we concluded that the third order polynomial-based RPCs update is required to minimize the sample direction image distortion. Finally we carried out the experiment on the epipolar resampling and the result showed the third order polynomial image transformation produced less than 0.7 pixels level of y-parallax.

Classification Prediction Error Estimation System of Microarray for a Comparison of Resampling Methods Based on Multi-Layer Perceptron (다층퍼셉트론 기반 리 샘플링 방법 비교를 위한 마이크로어레이 분류 예측 에러 추정 시스템)

  • Park, Su-Young;Jeong, Chai-Yeoung
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.14 no.2
    • /
    • pp.534-539
    • /
    • 2010
  • In genomic studies, thousands of features are collected on relatively few samples. One of the goals of these studies is to build classifiers to predict the outcome of future observations. There are three inherent steps to build classifiers: a significant gene selection, model selection and prediction assessment. In the paper, with a focus on prediction assessment, we normalize microarray data with quantile-normalization methods that adjust quartile of all slide equally and then design a system comparing several methods to estimate 'true' prediction error of a prediction model in the presence of feature selection and compare and analyze a prediction error of them. LOOCV generally performs very well with small MSE and bias, the split sample method and 2-fold CV perform with small sample size very pooly. For computationally burdensome analyses, 10-fold CV may be preferable to LOOCV.

Three-dimensional Boundary Segmentation using Multiresolution Deformable Model (다해상도 변형 모델을 이용한 3차원 경계분할)

  • 박주영;김명희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.592-594
    • /
    • 2000
  • 변형모델(deformable model)은 볼륨의료영상(volumetric medical image)으로부터 복잡한 인체기관의 3차원적 경계를 분할해내기 위해 효과적인 방법을 제공한다. 그러나, 기존 변형모델은 초기와 의존성, 오목한 경계(concavity) 분할의 비적합성, 그리고 모델내 요소간 자체교차(self-intersection)의 제한점을 가지고 있었다. 본 연구에서는 이러한 제한점을 극복하고, 오목한 구조를 포함하는 복잡한 인체기관의 경계를 분할하기에 적합한 새로운 변형모델을 제안하였다. 제안한 변형모델은 볼륨영상 피라미드(pyramid)를 기반으로 다해상도(multiresolution)의 모델 정제화(refinement)를 수행한다. 다해상도 모델 정제화는 전역적 시셈플링(global resampling) 및 지역적 리샘플링(local resampling)를 통하여 저해상도의 모델로부터 점차 고해상도의 모델로 이동하면서 객체의 경계를 계층적으로 분할해가는 방법이다. 다해상도 모델에 의한 계층적 경계 분할은 초기화 조건에의 의존성을 극복할 수 있게할 뿐 아니라, 빠른 속도로 원하는 객체의 경계에 수렴할 수 있게 한다. 또한 지역적 리샘플링은 모델 구성요소의 정규화를 수행함으로써 객체의 오목한 부분을 성공적으로 분할할 수 있게 한다. 그리고, 제안 모델은 기존 변형모델에서 포함하는 내부 힘(internal force)과 외부 힘(external force)외에 자체교차방지 힘(non-self-intersection force)을 추가함으로서 효과적으로 모델내의 자체교차를 방지할 수 있게 하였다.

  • PDF

An Application of Surrogate and Resampling for the Optimization of Success Probability from Binary-Response Type Simulation (이항 반응 시뮬레이션의 성공확률 최적화를 위한 대체모델 및 리샘플링을 이용한 유전 알고리즘 응용)

  • Lee, Donghoon;Hwang, Kunchul;Lee, Sangil;Yun, Won-young
    • Journal of the Korea Institute of Military Science and Technology
    • /
    • v.25 no.4
    • /
    • pp.412-424
    • /
    • 2022
  • Since traditional derivative-based optimization for noisy simulation shows bad performance, evolutionary algorithms are considered as substitutes. Especially in case when outputs are binary, more simulation trials are needed to get near-optimal solution since the outputs are discrete and have high and heterogeneous variance. In this paper, we propose a genetic algorithm called SARAGA which adopts dynamic resampling and fitness approximation using surrogate. SARAGA reduces unnecessary numbers of expensive simulations to estimate success probabilities estimated from binary simulation outputs. SARAGA allocates number of samples to each solution dynamically and sometimes approximates the fitness without additional expensive experiments. Experimental results show that this novel approach is effective and proper hyper parameter choice of surrogate and resampling can improve the performance of algorithm.

Multi-Object Detection and Tracking Using Dual-Layer Particle Sampling (이중계층구조 파티클 샘플링을 사용한 다중객체 검출 및 추적)

  • Jeong, Kyungwon;Kim, Nahyun;Lee, Seoungwon;Paik, Joonki
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.51 no.9
    • /
    • pp.139-147
    • /
    • 2014
  • In this paper, we present a novel method for simultaneous detection and tracking of multiple objects using dual-layer particle filtering. The proposed dual-layer particle sampling (DLPS) algorithm consists of parent-particles (PP) in the first layer for detecting multiple objects and child-particles (CP) in the second layer for tracking objects. In the first layer, PPs detect persons using a classifier trained by the intersection kernel support vector machine (IKSVM) at each particle under a randomly selected scale. If a certain PP detects a person, it generates CPs, and makes an object model in the detected object region for tracking the detected object. While PPs that have detected objects generate CPs for tracking, the rest of PPs still move for detecting objects. Experimental results show that the proposed method can automatically detect and track multiple objects, and efficiently reduce the processing time using the sampled particles based on motion distribution in video sequences.