• 제목/요약/키워드: Affine-transform

검색결과 80건 처리시간 0.025초

SAS 기법을 이용한 웨이브릿 변환 기반 프랙탈 영상 압축 (The Fractal Image Compression Based on the Wavelet Transform Using the SAS Techniques)

  • 정태일;강경원;문광석;권기룡;류권열
    • 융합신호처리학회논문지
    • /
    • 제2권1호
    • /
    • pp.19-27
    • /
    • 2001
  • 기존의 웨이브릿 기반 프랙탈 압축 방법은 전 영역에 대하여 최적의 정의역을 탐색하므로, 부호화 과정에서 많은 탐색시간이 소요되는 단점이 있다. 그래서 본 논문에서는 웨이브릿 변환영역에서 SAS(Self Affine System) 기법을 이용한 웨이브릿 변환 기반 프랙탈 영상 압축 방법을 제안한다. 웨이브릿 변환영역에서 정의역과 치역을 구성하고, 각각의 정의역과 치역에 대해 모든 블록을 탐색하는 것이 아니라, 공간적으로 같은 위치에 있는 블록을 정의역으로 선택한다. 이와 같이 웨이브릿 변환 영역에 정의역 탐색과정이 필요 없는 SAS 기법을 도입하여 부호화 과정에서 곱셈 계산량을 감소시켜 고속 부호화를 가능하게 하였다. 그리고 복호화 과정에서 각 레벨과 서브-트리별로 서로 다른 스케일 인자를 사용하여 압축률과 화질을 조절할 수 있다.

  • PDF

Scaling-Translation Parameter Estimation using Genetic Hough Transform for Background Compensation

  • Nguyen, Thuy Tuong;Pham, Xuan Dai;Jeon, Jae-Wook
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제5권8호
    • /
    • pp.1423-1443
    • /
    • 2011
  • Background compensation plays an important role in detecting and isolating object motion in visual tracking. Here, we propose a Genetic Hough Transform, which combines the Hough Transform and Genetic Algorithm, as a method for eliminating background motion. Our method can handle cases in which the background may contain only a few, if any, feature points. These points can be used to estimate the motion between two successive frames. In addition to dealing with featureless backgrounds, our method can successfully handle motion blur. Experimental comparisons of the results obtained using the proposed method with other methods show that the proposed approach yields a satisfactory estimate of background motion.

지역적 매칭쌍 특성에 기반한 고해상도영상의 자동기하보정 (Automatic Registration of High Resolution Satellite Images using Local Properties of Tie Points)

  • 한유경;번영기;최재완;한동엽;김용일
    • 한국측량학회지
    • /
    • 제28권3호
    • /
    • pp.353-359
    • /
    • 2010
  • 본 논문은 Scale Invariant Feature Transform(SIFT) 기술자를 이용한 매칭 방법을 개선하여 고해상도영상에서 보다 많은 매칭쌍(tie points)을 추출함으로써 고해상도영상 자동기하보정의 결과향상을 목적으로 한다. 이를 위해 기준(reference)영상과 대상(sensed)영상의 특징점(interest points)간의 위치관계를 추가적으로 이용하여 매칭쌍을 추출하였다. SIFT 기술자를 이용하여 어핀(affine)변환계수를 추정한 후, 이를 통해 대상영상의 특징점 좌표를 기준영상 좌표체계로 변환하였다. 변환된 대상영상의 특징점과 기준영상의 특징점간의 공간거리(spatial distance)정보를 이용하여 최종적으로 매칭쌍을 추출하였다. 추출된 매칭쌍으로 piecewise linear function을 구성하여 고해상도 영상간 자동기하보정을 수행하였다. 제안한 기법을 통하여, 기존 SIFT 기법에 의해 추출한 결과에 비해 영상 전역에 걸쳐 고르게 분포된 다수의 매칭쌍을 추출할 수 있었다.

MV-HEVC에서 빠른 변위 움직임 벡터 탐색 방법 (Fast Disparity Motion Vector Searching Method for the MV-HEVC)

  • 이재영;한종기
    • 방송공학회논문지
    • /
    • 제22권2호
    • /
    • pp.240-252
    • /
    • 2017
  • 기존의 High Efficiency Video Coding(HEVC)기반의 다시점 비디오 부호화 기법은 종속 시점의 픽쳐를 부호화 할 때, disparity compensation prediction(DCP)을 위해 추가적인 참조 영상을 사용하기 때문에 높은 부호화 복잡도를 가지고 있다. 본 논문에서는 MV-HEVC에서 변위 움직임 벡터 탐색 복잡도를 줄이기 위한 빠른 변위 움직임 벡터 탐색 방법을 제안한다. 제안하는 방법은 어파인 변환을 이용한 초기 탐색 지점 결정 방법과 적응적인 탐색 영역 크기 결정 방법을 포함한다. 실험 결과는 제안하는 방법이 부호화 효율의 저하가 거의 없이 변위 움직임 탐색 복잡도를 90.78%까지 줄일 수 있는 것을 보여준다. 또한, 실험 결과는 제안하는 방법이 다른 복잡도 감소 기술들 보다 효과적으로 복잡도를 줄이는 것을 보여준다.

A reliable quasi-dense corresponding points for structure from motion

  • Oh, Jangseok;Hong, Hyunggil;Cho, Yongjun;Yun, Haeyong;Seo, Kap-Ho;Kim, Hochul;Kim, Mingi;Lee, Onseok
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권9호
    • /
    • pp.3782-3796
    • /
    • 2020
  • A three-dimensional (3D) reconstruction is an important research area in computer vision. The ability to detect and match features across multiple views of a scene is a critical initial step. The tracking matrix W obtained from a 3D reconstruction can be applied to structure from motion (SFM) algorithms for 3D modeling. We often fail to generate an acceptable number of features when processing face or medical images because such images typically contain large homogeneous regions with minimal variation in intensity. In this study, we seek to locate sufficient matching points not only in general images but also in face and medical images, where it is difficult to determine the feature points. The algorithm is implemented on an adaptive threshold value, a scale invariant feature transform (SIFT), affine SIFT, speeded up robust features (SURF), and affine SURF. By applying the algorithm to face and general images and studying the geometric errors, we can achieve quasi-dense matching points that satisfy well-functioning geometric constraints. We also demonstrate a 3D reconstruction with a respectable performance by applying a column space fitting algorithm, which is an SFM algorithm.

템플릿 변형과 Level-Set이론을 이용한 비강성 객체 추적 알고리즘 (A Robust Algorithm for Tracking Non-rigid Objects Using Deformed Template and Level-Set Theory)

  • 김종렬;나현태;문영식
    • 전자공학회논문지CI
    • /
    • 제40권3호
    • /
    • pp.127-136
    • /
    • 2003
  • 본 논문에서는 템플릿 변형과 Level-Set 이론을 사용하여 모델과 에지 기반의 객체 추적 방법을 제안한다. 제안된 방법은 배경의 변화, 객체 자체의 모양변화, 객체간의 겹침 등이 있는 경우에도 객체를 추적할 수 있다. 먼저, 객체 추적을 위해 템플릿과 목적 프레임간의 상호 영역 차이(Inter-region distance)와 에지 값으로 구성된 에너지 함수 PDEF(Potential Difference Energy Function)를 새롭게 정의한다. 이 함수는 객체 위치 및 경계 예측과 객체 모양 재결정 단계에서 사용된다. 객체 위치 및 경계 예측 단계에서는 객체의 변화가 어파인(affine) 변형을 따른다는 가정 하에 객체의 대략적인 모양 및 위치를 예측한다. 객체 모양 재결정 단계에서는 퍼텐셜 에너지 지도(Potential energy map)와 수정된 Level-Set 운동 함수를 사용하여 객체의 정확한 형태를 재결정한다. 실험결과에서 제안된 방법은 기존의 방법보다 배경의 변화가 큰경우, 객체 자체의 모양변화가 심한 경우, 객체간의 겹침이 있는 경우 등 다양한 상황이 포함된 동영상에서 정확하게 객체를 추적할 수 있음을 확인할 수 있다.

얼굴인식을 위한 어파인 불변 지역 서술자 (Affine Invariant Local Descriptors for Face Recognition)

  • 고용빈;이효종
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권9호
    • /
    • pp.375-380
    • /
    • 2014
  • 오늘날 촬영 상황을 조절할 수 있는 환경, 즉 고정된 촬영각이나 일관된 조도 조건에서는 얼굴인식 기술 수준은 신뢰할 수 있을 정도로 높다. 그러나 복잡한 현실에서의 얼굴 인식은 여전히 어려운 과제이다. SIFT 알고리즘은 촬영각의 변화가 미미할 때에 한하여, 크기와 회전 변화에 무관하게 우수한 성능을 보여주고 있다. 본 논문에서는 다양하게 촬영각이 변하는 환경에서도 얼굴 인식을 할 수 있는 어파인 불변 지역 서술자를 탐지하는 ASIFT(Affine SIFT)라는 알고리즘을 적용하였다. SIFT 알고리즘을 확장하여 만든 ASIFT 알고리즘은 촬영각 변화에 취약한 단점을 극복하였다. 제안하는 방법에서 ASIFT 알고리즘은 표본 이미지에, SIFT 알고리즘은 검증 이미지에 적용하였다. ASIFT 방법은 어파인 변환을 사용하여 다양한 시각에 따른 영상을 생성할 수 있기 때문에 ASIFT 알고리즘은 저장 영상과 실험 영상의 시각 차이에 따른 문제를 해결할 수 있었다. 실험결과 FERET 데이터를 사용했을 때 제안한 방법은 촬영각의 변화가 큰 경우에 기존의 시프트 알고리즘보다도 높은 인식률을 보여주었다.

고해상도 위성영상을 위한 국소영역 공간해상도 향상 기법 (Enhancement of Spatial Resolution to Local Area for High Resolution Satellite Imagery)

  • 강지윤;김인철;김재희;박종원
    • 전자공학회논문지
    • /
    • 제50권4호
    • /
    • pp.137-143
    • /
    • 2013
  • 고해상도 위성영상은 기상관측, 지형관측, 원격탐사, 군사시설감시, 문화재보호 등 많은 분야에서 이용된다. 위성영상은 동일한 위성영상 시스템에서 획득한 영상이라 할지라도 하드웨어(광학장치, 위성의 운용고도, 영상 센서 등)의 조건에 따라서 해상도가 저하된 영상들이 발생한다. 따라서 위성이 발사된 이후에는 이러한 해상도가 저하된 영상들의 해상도 향상을 위해서 영상시스템의 하드웨어를 변경하는 것은 불가능하므로 위성영상 자체를 이용하여 해상도를 향상시키는 방법이 필요하다. 본 논문에서는 이러한 저해상도 위성영상을 이용하여 해상도를 향상시키는 방법으로 SR(Super Resolution) 알고리즘을 사용하였다. SR 알고리즘은 다수의 저해상도 영상들의 정합을 통해 영상의 해상도를 향상시키는 알고리즘이다. 하지만 위성영상에서는 동일 지역에 대한 여러 장의 영상을 획득하기 어렵다. 따라서 본 논문에서는 이러한 문제점을 해결하기 위해 어파인 변환(Affine Transform)및 투영 변환(Projection Transform)을 적용 후 영상에 대한 기하학적 변화를 보정하여 SR 알고리즘을 수행하였다. 그 결과 SR 알고리즘만 적용한 영상보다 어파인 변환과 투영 변환을 거친 후 SR 알고리즘을 적용한 영상에서 해상도가 확실하게 더 증가되는 것을 확인하였다.

악교정수술에서 광전자 포인트 마커를 이용한 상악골 위치 변화의 계측 및 계산 방법 연구 (Measurement and Algorithm Calculation of Maxillary Positioning Change by Use of an Optoelectronic Tracking System Marker in Orthognathic Surgery)

  • 박종웅;김성민;어미영;박정민;명훈;이종호;김명진
    • Maxillofacial Plastic and Reconstructive Surgery
    • /
    • 제33권3호
    • /
    • pp.233-240
    • /
    • 2011
  • Purpose: To apply a computer assisted navigation system to orthognathic surgery, a simple and efficient measuring algorithm calculation based on affine transformation was designed. A method of improving accuracy and reducing errors in orthognathic surgery by use of an optical tracking camera was studied. Methods: A total of 5 points on one surgical splint were measured and tracked by the Polaris $Vicra^{(R)}$ (Northern Digital Inc Co., Ontario, Canada) optical tracking system in two cases. The first case was to apply the transformation matrix at pre- and postoperative situations, and the second case was to apply an affine transformation only after the postoperative situation. In each situation, the predictive measuring value was changed to the final measuring value via an affine transformation algorithm and the expected coordinates calculated from the model were compared with those of the patient in the operation room. Results: The mean measuring error was $1.027{\pm}0.587$ using the affine transformation at pre- and postoperative situations and the average value after the postoperative situation was $0.928{\pm}0.549$. The farther a coordinate region was from the reference coordinates which constitutes the transform matrixes, the bigger the measuring error was found which was calculated from an affine transformation algorithm. Conclusion: Most difference errors were brought from mainly measuring process and lack of reproducibility, the affine transformation algorithm formula from postoperative measuring values by using of optic tracking system between those of model surgery and those of patient surgery can be selected as minimizing the difference error. To reduce coordinate calculation errors, minimum transformation matrices must be used and reference points which determine an affine transformation must be close to the area where coordinates are measured and calculated, as well as the reference points need to be scattered.