• 제목/요약/키워드: 변화특징

Search Result 5,425, Processing Time 0.04 seconds

Enhanced shot boundary detection using MPEG-7 descriptors (MEPG-7 서술자를 이용한 향상된 샷 경계 검출)

  • 강호경;노용만
    • Proceedings of the IEEK Conference
    • /
    • 2003.07e
    • /
    • pp.2271-2274
    • /
    • 2003
  • 본 논문에서는 MPEG-7 서술자들을 이용하여 효과적인 샷 경계 검출을 수행하는 방법에 대하여 제안한다. 기존의 샷 경계를 분석하는 방법은 기본적으로 각 프레임의 특징을 추출하여 거리 비교를 통하여 샷을 검출한다. 그러나 이러한 샷 검출은 각 프레임에서의 한가지 특징만을 이용하여 샷 경계를 찾기 때문에 샷의 변화와 프레임에 대한 특징 값의 변화가 일치하지 않는 경우 문제점이 발생된다 이러한 문제점을 해결하기 위하여 MPEG-7 표준을 통하여 그 성능이 증명된 다양한 특징들을 동시에 이용하여 정확한 샷 경계를 추출하는 방법을 제안한다. 실험결과 제안한 방법은 급격한 샷 변화와 점진적인 샷 변화를 동시에 검출하고 플레쉬와 같은 비디오의 순간적인 변화에 강인하였다.

  • PDF

Robust Face Feature Extraction for various Pose and Expression (자세와 표정변화에 강인한 얼굴 특징 검출)

  • Jung Jae-Yoon;Jung Jin-Kwon;Cho Sung-Won;Kim Jae-Min
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2005.11a
    • /
    • pp.294-298
    • /
    • 2005
  • 바이오메트릭스의 여러 가지 기술 중에서 얼굴인식은 지문인식, 손금인식, 홍채인식 등과는 달리 신체의 일부를 접촉시키지 않고도 원거리에 설치된 카메라를 통해 사람을 확인할 수 있는 장점을 가지고 있다. 그러나 얼굴인식은 조명변화, 표정변화 둥의 다양한 환경변화에 대단히 민감하게 반응하므로 얼굴의 특징 영역에 대한 정확한 추출이 반드시 선행되어야 한다. 얼굴의 주요 특징인 눈, 코, 입, 눈썹은 자세와 표정 그리고 생김새에 따라 다양한 위치, 크기, 형태를 가질 수 있다. 본 연구에서는 변화하는 특징 영역과 특징 점을 정확히 추출하기 위하여 얼굴을 9가지 방향으로 분류하고, 각 분류된 방향에서 특징 영역을 통계적인 형태에 따라 다시 2차로 분류하여, 각각의 형태에 대한 표준 템플릿을 생성하여 검출하는 방법을 제안한다.

  • PDF

Illumination Invariant Image Retrieval using Eigenvector Analysis (고유벡터 분석을 이용한 조명 불변 영상 검색)

  • 김용훈;이태홍
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.903-906
    • /
    • 2001
  • 본 논문에서는 조명의 변화에 의해 컬러 영상의 컬러 성분이 달라지더라도 영상 내 컬러간의 편차값을 나타내는 공분산 행렬(covariance matrix)의 고유벡터(eigenvector)와 영상 내 화소들의 컬러 성분과의 상관관계는 거의 변화하지 않는 특징을 이용한 조명 변화에 강인한 영상 검색 방법을 제안한다. 제안된 방법은 영상에서 컬러 성분들의 공분산 행렬과 공분산 행렬의 고유치(eigenvalue), 고유벡터를 계산한 후, 가장 큰 고유치에 관계된 고유벡터로 화소를 투영시키고, 투영된 벡터의 크기 성분으로 영상을 재구성한다. 재구성된 영상으로부터 7개의 불변 모멘트(moment)를 계산하고, 공분산의 가장 큰 고유치를 가중치로 부과하여 특징벡터를 추출한다. 7개의 불변 모멘트로부터 구한 특징벡터는 영상 내 물체의 이동, 영상의 회전, 크기 변화뿐만 아니라, 조명의 변화에 의해 컬러가 변화할 경우에도 유사한 영상을 잘 검색한다. 제안된 방법의 성능 확인을 위하여 5가지 조명에서 얻은 영상 데이터베이스를 이용하여 실험하였으며, 실험 결과 히스토그램 인터섹션에 비해 적은 특징량으로 검색이 가능하면서 조명 변화에도 대응할 수 있는 검색 결과를 얻을 수 있었다.

  • PDF

Keypoint Detection Using Normalized Higher-Order Scale Space Derivatives (스케일 공간 고차 미분의 정규화를 통한 특징점 검출 기법)

  • Park, Jongseung;Park, Unsang
    • Journal of KIISE
    • /
    • v.42 no.1
    • /
    • pp.93-96
    • /
    • 2015
  • The SIFT method is well-known for robustness against various image transformations, and is widely used for image retrieval and matching. The SIFT method extracts keypoints using scale space analysis, which is different from conventional keypoint detection methods that depend only on the image space. The SIFT method has also been extended to use higher-order scale space derivatives for increasing the number of keypoints detected. Such detection of additional keypoints detected was shown to provide performance gain in image retrieval experiments. Herein, a sigma based normalization method for keypoint detection is introduced using higher-order scale space derivatives.

Feature-Based High Speed Image Registration With Rotation and Scale Change (크기와 회전 변화를 고려한 특징 기반 고속 영상 정합 기법)

  • Bae, Ki-Tae;Kim, Song-Gook;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.1361-1366
    • /
    • 2006
  • 본 논문에서는 제약되지 않은 카메라에서 얻어진 회전과 크기 변화를 가진 영상들을 특징 기반의 보로노이 거리 매칭 방법을 이용하여 고속으로 합성 하는 기법에 관해 기술한다. 기존의 특징점 기반 매칭 기법들이 사람의 개입에 의해 영상을 정합하거나, 크기나 회전 변화를 고려하지 않은 형태의 영상들을 처리하는 것과 달리 회전이나 크기변화요소가 포함된 입력영상들을 사람의 개입이 없이 자동으로 정확한 중첩영역을 빠르게 검색하는 방법을 제안한다. 제안된 방법은 우선 영상내의 특징 점들의 위상 정보와 특징 점들 사이의 거리 정보를 가지는 보로노이 거리 정합법을 통해 대응점을 구하고, 찾아진 대응 쌍들을 이용하여 2차원 투영의 초기 변환행렬을 구한다. 다음으로 비선형 이승오차 최적화 알고리즘을 이용하여 최적의 변환 행렬을 구한 후, 마지막으로 구해진 변환 행렬을 이용하여 영상을 합성한다. 실험결과를 통해 본 논문에서 제안한 방법의 효율성을 보인다.

  • PDF

Face Recognition Robust to Illumination Change (조명 변화에 강인한 얼굴 인식)

  • 류은진;박철현;구탁모;박길흠
    • Proceedings of the IEEK Conference
    • /
    • 2000.09a
    • /
    • pp.465-468
    • /
    • 2000
  • 얼굴 영상은 똑같은 표정의 같은 사람이라도 조명에 따라 매우 다른 얼굴 영상으로 나타난다. 따라서 본 논문에서는 조명 변화에 강인한 얼굴 인식 방법을 제안한다. 제안된 방법은 오프라인 훈련(off-line training)과 온라인 인식(on-line recognition)의 두 부분으로 이루어져 있다. 오프라인 훈련은 PCA(principal component analysis)를 기반으로 한다. 온라인 인식에서는 조명 변화에 대한 보상, 얼굴 특징의 추출, 그리고 인식을 위한 분류 과정의 3 단계로 구성되어 있다. 오프라인 훈련에서는 전체 훈련 얼굴 영상 데이터에 PCA를 적용하여 조명 변화가 최대한 제외된 특징 벡터 공간을 생성한다. 실제 인식 단계에서는 첫 번째로 입력 영상으로 들어온 얼굴 영상에서 조명의 영향을 보상하기 위해 준동형 필터링(homomorphic filtering) 후 밝기 정규화(normalization)를 취한다. 두 번째 단계에서는 입력 데이터의 차원을 줄이고 얼굴 특징 벡터를 구하기 위해 PCA를 수행한다. 마지막 과정으로서 입력 영상의 특징 벡터들과 오프라인에서 미리 구하여진 특징 벡터들의 유사도를 측정하여 얼굴을 인식하게 된다. 실험 결과 제안된 방법은 기존의 Eigenface 방법에 비해 우수한 성능을 나타내었다.

  • PDF

Inlier selection and Database Redundancy Reducing Method in Urban Environment (도시 영상에서의 Inlier 선택과 Database Redundancy 감소 기법)

  • Ahn, Ha-eun;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.29-32
    • /
    • 2016
  • 특징점 기반 건물인식 시스템에서는 강건한 특징점을 추출하는 것이 인식률 향상에 바로 직결되는 중요한 요소이다. 영상에서 특징점들이 너무 많이 추출되는 경우 인식이나 학습단계에서의 알고리즘 수행 시간을 증가시키는 원인이 된다. 또환 중요하지 않은 특징점(배경이나 가려짐 영역, 기타 객체에서 추출된 특징점)이나 조명 변화에 민감한 영역에서 임의로(arbitrarily) 추출된 특징점은 인식률을 저하시키는 문제를 발생시킨다. 특히 도시환경에서 촬영된 영상의 특징점을 추출할 때 이러한 문제 현상들이 빈번하게 발생한다. 본 논문에서는 이러한 문제를 해결하고자 multi-view 영상에서 건물의 homography를 기반으로 정확히 정합된 특징점인 inlier만을 선택하는 알고리즘을 제안한다. Inlier로 분류된 특징점들은 건물 인식 시스템을 구성하기 위해 사용되고 조명 변화에 민감한 영역에서 임의로 추출된 특징점들은 영역 기반 특징을 추출하여 건물 인식 시스템의 인식률을 높인다. 또한 이를 이용하여 인식하고자 하는 건물과의 상관관계가 적은 잉여 영상들을 DB에서 제거하는 방법도 제안한다. 실험을 통하여 제안하는 기법의 우수성을 보였다.

  • PDF

Scene Text Extraction in Natural Images using Hierarchical Feature Combination and Verification (계층적 특징 결합 및 검증을 이용한 자연이미지에서의 장면 텍스트 추출)

  • 최영우;김길천;송영자;배경숙;조연희;노명철;이성환;변혜란
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.4
    • /
    • pp.420-438
    • /
    • 2004
  • Artificially or naturally contained texts in the natural images have significant and detailed information about the scenes. If we develop a method that can extract and recognize those texts in real-time, the method can be applied to many important applications. In this paper, we suggest a new method that extracts the text areas in the natural images using the low-level image features of color continuity. gray-level variation and color valiance and that verifies the extracted candidate regions by using the high-level text feature such as stroke. And the two level features are combined hierarchically. The color continuity is used since most of the characters in the same text lesion have the same color, and the gray-level variation is used since the text strokes are distinctive in their gray-values to the background. Also, the color variance is used since the text strokes are distinctive in their gray-values to the background, and this value is more sensitive than the gray-level variations. The text level stroke features are extracted using a multi-resolution wavelet transforms on the local image areas and the feature vectors are input to a SVM(Support Vector Machine) classifier for the verification. We have tested the proposed method using various kinds of the natural images and have confirmed that the extraction rates are very high even in complex background images.

Action recognition by SIFT and particle feature trajectories (SIFT와 Particle 특징 궤적 기반 행동인식)

  • Yu, Jeong-Min;Yang, E-hwa;Jeon, Moon-Gu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.201-203
    • /
    • 2013
  • 본 논문에서는 SIFT 와 particle 특징 궤적을 이용한 새로운 행동 인식 시스템을 제안한다. 먼저, 영상에서 중요한 지역적 특징 정보를 얻기 위하여 SIFT 특징 점들을 탐지하고, 탐지한 특징 점들을 SIFT descriptor matching 기법을 이용하여 그 궤적을 추출한다. 또한, SIFT 특징 궤적들의 수량이 적은점과 영상내의 조명변화, 부분적 가려짐 등의 변화로 인해 SIFT 특징 궤적이 종종 없어지는 단점을 보완하기 위하여, SIFT 특징 궤적 주위에 particle 점들을 탐지하고, dense optical flow 기법을 기반으로 그 특징 궤적을 추출한다. 그리고 SIFT 와 particle 궤적의 중요도를 조절하기 위해 가중치를 부여한다. 제안한 행동 인식 시스템의 효율성을 범용 데이터 셋을 이용한 실험을 통해 증명하였다.

Feature Matching Algorithm Robust To Viewpoint Change (시점 변화에 강인한 특징점 정합 기법)

  • Jung, Hyun-jo;Yoo, Ji-sang
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.40 no.12
    • /
    • pp.2363-2371
    • /
    • 2015
  • In this paper, we propose a new feature matching algorithm which is robust to the viewpoint change by using the FAST(Features from Accelerated Segment Test) feature detector and the SIFT(Scale Invariant Feature Transform) feature descriptor. The original FAST algorithm unnecessarily results in many feature points along the edges in the image. To solve this problem, we apply the principal curvatures for refining it. We use the SIFT descriptor to describe the extracted feature points and calculate the homography matrix through the RANSAC(RANdom SAmple Consensus) with the matching pairs obtained from the two different viewpoint images. To make feature matching robust to the viewpoint change, we classify the matching pairs by calculating the Euclidean distance between the transformed coordinates by the homography transformation with feature points in the reference image and the coordinates of the feature points in the different viewpoint image. Through the experimental results, it is shown that the proposed algorithm has better performance than the conventional feature matching algorithms even though it has much less computational load.