• 제목/요약/키워드: invariant Feature

검색결과 431건 처리시간 0.026초

윤곽선 변동율을 이용한 물체의 2차원 형태 기술 (Two-Dimensional Shape Description of Objects using The Contour Fluctuation Ratio)

  • 김민기
    • 한국멀티미디어학회논문지
    • /
    • 제5권2호
    • /
    • pp.158-166
    • /
    • 2002
  • 본 논문에서는 윤곽선 세그먼트의 양 끝점을 잇는 직선과 곡선의 길이의 비율로 윤곽선 변동율을 정의하고, 이로부터 윤곽선의 형태를 기술하는 방법을 제안하였다. 윤곽선 변동율은 윤곽선 세그먼트로부터 계산되기 때문에 회전이나 크기 변형에 불변하는 윤곽선 세그먼트를 추출해야 한다. 이를 위하여 전체 윤곽선의 길이에 비례하는 상대적인 길이로 윤곽선을 분할하고 윤곽선 상의 모든 점을 분할점으로 하는 중첩된 윤곽선 세그먼트를 이용하였다. 윤곽선 변동율은 윤곽선 세그먼트의 단위 길이에 따라 국소적 또는 전역적인 특징을 나타내므로, 윤곽선 변동율의 분포를 나타내는 특징 벡터로 물체의 형태를 기술하고, 단위 길이별로 특징 벡터를 비교하여 윤곽선 형태의 유사도를 계산한다. 제안된 방법을 구현하여 15종의 물고기 영상에 대하여 회전 및 크기 변형을 가한 총 165개의 영상에 대하여 실험한 결과, 회전 및 크기 변형에 대한 불변성은 물론 정규화된 체인코드 히스토그램(NCCH)과 링 프로젝션(TRP)을 이용한 방법에 비하여 군집화 능력이 우수함을 확인할 수 있었다.

  • PDF

Experimental Optimal Choice Of Initial Candidate Inliers Of The Feature Pairs With Well-Ordering Property For The Sample Consensus Method In The Stitching Of Drone-based Aerial Images

  • Shin, Byeong-Chun;Seo, Jeong-Kweon
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권4호
    • /
    • pp.1648-1672
    • /
    • 2020
  • There are several types of image registration in the sense of stitching separated images that overlap each other. One of these is feature-based registration by a common feature descriptor. In this study, we generate a mosaic of images using feature-based registration for drone aerial images. As a feature descriptor, we apply the scale-invariant feature transform descriptor. In order to investigate the authenticity of the feature points and to have the mapping function, we employ the sample consensus method; we consider the sensed image's inherent characteristic such as the geometric congruence between the feature points of the images to propose a novel hypothesis estimation of the mapping function of the stitching via some optimally chosen initial candidate inliers in the sample consensus method. Based on the experimental results, we show the efficiency of the proposed method compared with benchmark methodologies of random sampling consensus method (RANSAC); the well-ordering property defined in the context and the extensive stitching examples have supported the utility. Moreover, the sample consensus scheme proposed in this study is uncomplicated and robust, and some fatal miss stitching by RANSAC is remarkably reduced in the measure of the pixel difference.

구 좌표계를 이용한 위치 불변 문자 특징 추출 (The Transition Invariant Feature Extraction of the Character using the Spherical Coordinate System)

  • 서춘원
    • 전자공학회논문지 IE
    • /
    • 제46권3호
    • /
    • pp.19-25
    • /
    • 2009
  • 본 논문에서는 구 좌표계를 이용하여 위치에 대한 불변 특징을 획득할 수 있는 문자 특징 추출 방법을 제시하고자 하였으며, 획득한 문자 특징 정보를 이용하여 해당 문자를 영상 중심으로 이동시켜 인식이 가능하도록 하는 시스템을 제안하고자 하였다. 또한 영상 중심에 이동시키는 방법으로 좌표 평균값에 의한 중심 이동법을 사용하여 인식에 필요한 시스템을 구현하였으며, 추출된 특징에 대하여 특징의 이질도를 검사하여, 각 특징의 이질도가 평균 78.14% 이상의 결과를 얻었다. 본 논문에서는 문자 인식을 위하여 구 좌표계를 이용한 문자 특징 추출 방법을 제시하였으며, 무게 중심법을 이용하여 문자를 중앙에 처리한 상태에서 이질도를 알아봄으로서 인식 가능한 형태의 문자 형태를 얻을 수 있는 가능성을 제시하였다.

부분 얼굴 특징 추출에 기반한 신원 확인 시스템 (Identification System Based on Partial Face Feature Extraction)

  • 최선형;조성원;정선태
    • 한국지능시스템학회논문지
    • /
    • 제22권2호
    • /
    • pp.168-173
    • /
    • 2012
  • 본 논문은 얼굴인식 시스템 상에서 마스크를 착용한 변장이미지가 입력 감지될 경우 나머지 노출된 부분의 특징만을 가지고 가려진 사람의 신원을 추정하는 방법을 기술한다. 얼굴영역 검출 후에 마스크상단의 눈 주변 이미지만을 가지고 특징점 추출을 실시하여 등록된 얼굴 인증 데이터 베이스와의 특징점 비교를 통해 사람의 신원을 추정한다. 매칭에 쓰일 특징점 추출에는 조명에 강인하고 영상의 크기와 회전에도 변하지 않는 특성을 가진 SIFT(Scale Invariant Feature Transform) 알고리즘을 이용한다. 특징점 매칭을 통해 정확한 매칭률은 전체 실험결과를 통해 평가한다.

적외선 영상에서의 불변 특징 정보를 이용한 목표물 인식 (Object Recognition by Invariant Feature Extraction in FLIR)

  • 권재환;이광연;김성대
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.65-68
    • /
    • 2000
  • This paper describes an approach for extracting invariant features using a view-based representation and recognizing an object with a high speed search method in FLIR. In this paper, we use a reformulated eigenspace technique based on robust estimation for extracting features which are robust for outlier such as noise and clutter. After extracting feature, we recognize an object using a partial distance search method for calculating Euclidean distance. The experimental results show that the proposed method achieves the improvement of recognition rate compared with standard PCA.

  • PDF

인공위성 영상의 객체인식을 위한 영상 특징 분석 (Feature-based Image Analysis for Object Recognition on Satellite Photograph)

  • 이석준;정순기
    • 한국HCI학회논문지
    • /
    • 제2권2호
    • /
    • pp.35-43
    • /
    • 2007
  • 본 논문은 특징검출(feature detection)과 특징해석(feature description) 기법을 이용하여, 영상 매칭 (matching)과 인식(recognition)에 필요한 다양한 파라미터의 변화에 따른 인식률의 차이를 분석하기 위한 실험 내용을 다룬다. 본 논문에서는 영상의 특징분석과 매칭프로세스를 위해, Lowe의 SIFT(Scale-Invariant Transform Feature)를 이용하며, 영상에서 나타나는 특징을 검출하고 해석하여 특징 데이터베이스로 구축한다. 특징 데이터베이스는 구글 어스를 통해 획득한 위성영상으로부터 50여개 건물에 대해 구축되는데, 이는 각 건물 영상으로부터 추출된 특징 점들의 좌표와 128차원의 벡터의 값으로 이루어진 특징 해석데이터로 저장된다. 구축된 데이터베이스는 각 건물에 대한 정보가 태그의 형식으로 함께 저장되는데, 이는 카메라로부터 획득한 입력영상과의 비교를 통해 입력영상이 가리키는 지역 내에 존재하는 건물에 대한 정보를 제공하는 역할을 한다. 실험은 영상 매칭과 인식과정에서 작용하는 내-외부적 요소들을 제시하고, 각 요소의 상태변화에 따라 인식률의 차이를 비교하는 방법으로 진행되었으며, 본 연구의 최종적인 시스템은 모바일기기의 카메라를 이용하여 카메라가 촬영하고 있는 지도상의 객체를 인식하고, 해당 객체에 대한 기본적인 정보를 제공할 수 있다.

  • PDF

Gabor 웨이블릿을 이용한 회전 변화에 무관한 질감 분류 기법 (Rotation-Invariant Texture Classification Using Gabor Wavelet)

  • 김원희;윤청파;문광석;김종남
    • 한국멀티미디어학회논문지
    • /
    • 제10권9호
    • /
    • pp.1125-1134
    • /
    • 2007
  • 본 논문에서는 가보 웨이블릿(Gabor Wavelet)을 이용한 회전 변화에 무관한 질감 분류 기법을 제안한다. 기존의 방법들은 대용량 질감 데이터베이스에서 낮은 정정분류비(Correct Classification Rate)를 나타내었다. 제안한 방법은 가보 웨이블릿 필터링 된 영상에서 전역 특징 벡터(Global Feature Vector)와 지역 특징행렬(Local Feature Matrix)을 정의하였다. 회전 변화에 무관한 두 가지 특징 그룹을 이용하여 개선된 유사도 측정 판별식(Discriminant)을 정의하였으며, 실험을 통하여 대용량 질감 데이터베이스에 적용한 결과 향상된 정정분류비를 얻을 수 있었다. 또한 질감 영상 스펙트럼의 대칭성을 이용하여 기존의 방법보다 실험회수를 50% 가까이 감소시켰다 결론적으로 112개의 브로다츠(Brodatz) 질감 클래스에서 비교 방법에 따라 차이는 있으나 $2.3%{\sim}15.6%$의 향상된 정정분류비를 얻었다.

  • PDF

Mellin 변환 방식과 BPEJTC를 이용한 영상 문자 인식 (Image Character Recognition using the Mellin Transform and BPEJTC)

  • 서춘원;고성원;이병선
    • 조명전기설비학회논문지
    • /
    • 제17권4호
    • /
    • pp.26-35
    • /
    • 2003
  • 자연계에서 다양한 형태로 입력되는 물체 영상을 효과적으로 인식하려면, 물체의 위치, 회전, 크기 변화에 관계없이 인식할 수 있는 왜곡 불변 특성의 추출이 반드시 요구된다. 이러한 왜곡 불변 특성은 동일한 영상의 변화에 대하여 인식 특성이 같고, 서로 다른 영상의 변화에 대해서는 분리 식별이 용이해야 한다. 이러한 인식 특성을 얻기위해 다각도로 많은 연구가 진행되고 있으며, 특히 회전 및 크기에 불변 특성을 동시에 얻을 수 있는 Mellin변환을 이용한 방법 등이 영상 인식에 많이 이용되고 있다[1][2][3]. 따라서, 본 논문에서는 Mellin 변환 방법에 의한 크기 및 회전에 대한 불변 특성을 얻을 수 있는 문자 인식 시스템을 위한 문자 특징 추출 방법을 제시하고자 하였으며, 영문자 26 문자의 입력 영상에 대하여 무게 중심법에 의한 문자 이동과 Mellin 변환 방법에 의한 특징 추출 방법에 보간법을 이용하여 특징을 추출하였으며, 추출된 특징에 대하여 특징의 이질도를 검사하여, 각 특징의 이질도가 약 50% 이상의 결과를 얻었다. 또한, Mellin 변환 방법에 의해 추출된 특징을 기준 영상으로 하는 BPEJTC(Binary Phase Extraction Joint Transform Correlator)를 이용하여 크기, 회전 및 이동에 따른 입력 문자의 인식이 가능한 BPEJTC 시스템을 구현하였으며, 이에 따라 본 논문에서는 약 90%의 인식률을 얻을 수 있었다. 따라서 본 논문에서 제시하는 Mellin 변환 방법에 따라 추출된 문자의 특징과 BPEJTC를 이용하여 영상 문자를 인식할 수 있는 영상 문자 인식 시스템의 가능성을 제시하였다.

Image Watermarking Scheme Based on Scale-Invariant Feature Transform

  • Lyu, Wan-Li;Chang, Chin-Chen;Nguyen, Thai-Son;Lin, Chia-Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권10호
    • /
    • pp.3591-3606
    • /
    • 2014
  • In this paper, a robust watermarking scheme is proposed that uses the scale-invariant feature transform (SIFT) algorithm in the discrete wavelet transform (DWT) domain. First, the SIFT feature areas are extracted from the original image. Then, one level DWT is applied on the selected SIFT feature areas. The watermark is embedded by modifying the fractional portion of the horizontal or vertical, high-frequency DWT coefficients. In the watermark extracting phase, the embedded watermark can be directly extracted from the watermarked image without requiring the original cover image. The experimental results showed that the proposed scheme obtains the robustness to both signal processing and geometric attacks. Also, the proposed scheme is superior to some previous schemes in terms of watermark robustness and the visual quality of the watermarked image.

스케일불변 특징의 삼차원 재구성을 통한 이동 로봇의 상대위치추정 (Relative Localization for Mobile Robot using 3D Reconstruction of Scale-Invariant Features)

  • 길세기;이종실;유제군;이응혁;홍승홍;신동범
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제55권4호
    • /
    • pp.173-180
    • /
    • 2006
  • A key component of autonomous navigation of intelligent home robot is localization and map building with recognized features from the environment. To validate this, accurate measurement of relative location between robot and features is essential. In this paper, we proposed relative localization algorithm based on 3D reconstruction of scale invariant features of two images which are captured from two parallel cameras. We captured two images from parallel cameras which are attached in front of robot and detect scale invariant features in each image using SIFT(scale invariant feature transform). Then, we performed matching for the two image's feature points and got the relative location using 3D reconstruction for the matched points. Stereo camera needs high precision of two camera's extrinsic and matching pixels in two camera image. Because we used two cameras which are different from stereo camera and scale invariant feature point and it's easy to setup the extrinsic parameter. Furthermore, 3D reconstruction does not need any other sensor. And the results can be simultaneously used by obstacle avoidance, map building and localization. We set 20cm the distance between two camera and capture the 3frames per second. The experimental results show :t6cm maximum error in the range of less than 2m and ${\pm}15cm$ maximum error in the range of between 2m and 4m.