• Title/Summary/Keyword: 특징점 유사도

Search Result 563, Processing Time 0.028 seconds

Same music file recognition method by using similarity measurement among music feature data (음악 특징점간의 유사도 측정을 이용한 동일음원 인식 방법)

  • Sung, Bo-Kyung;Chung, Myoung-Beom;Ko, Il-Ju
    • Journal of the Korea Society of Computer and Information
    • /
    • v.13 no.3
    • /
    • pp.99-106
    • /
    • 2008
  • Recently, digital music retrieval is using in many fields (Web portal. audio service site etc). In existing fields, Meta data of music are used for digital music retrieval. If Meta data are not right or do not exist, it is hard to get high accurate retrieval result. Contents based information retrieval that use music itself are researched for solving upper problem. In this paper, we propose Same music recognition method using similarity measurement. Feature data of digital music are extracted from waveform of music using Simplified MFCC (Mel Frequency Cepstral Coefficient). Similarity between digital music files are measured using DTW (Dynamic time Warping) that are used in Vision and Speech recognition fields. We success all of 500 times experiment in randomly collected 1000 songs from same genre for preying of proposed same music recognition method. 500 digital music were made by mixing different compressing codec and bit-rate from 60 digital audios. We ploved that similarity measurement using DTW can recognize same music.

  • PDF

Comparison of Representative Point Sampling Methods in Surface Based Image Registration (표면정보 기반 영상정합에서의 대표점 추출기법 비교 연구)

  • Park, Ji-Young;Choi, Yoo-Joo;Kim, Myoung-Hee
    • Annual Conference of KIPS
    • /
    • 2003.11a
    • /
    • pp.347-350
    • /
    • 2003
  • 표면정보 기반 영상정합기법은 대상기관에서 추출된 표면정보를 기반으로 변환을 추정하여 서로 다른 영상의 전체적 형태의 유사성 정도를 최대화함으로써 정합을 수행하는 방법이다. 정합 수행에 있어 전체 객체를 가장 잘 대표하는 특정 개수의 표면점을 추출하고, 이 대표점으로부터 변환 값을 계산하는 것이 영상정합의 합리적인 최적화 단계를 위해 필수적이다. 대표점 추출결과에 따라 전체 정합의 결과가 달라지게 되므로 정합의 변환요소 값을 정확하게 구해낼 수 있는 대표점을 추출하기 위해 적절한 샘플링 기법의 선택이 요구된다. 본 연구에서는 효율적인 표면정보 기반 다중 모달리티 영상정합을 위해 계통추출법 기반 샘플링 기법과 특징점 탐지 기법 기반 샘플링 기법의 성능을 비교 분석하였다.

  • PDF

Shape-based Leaf Image Retrieval using Venation Feature (잎맥 특징을 이용한 모양기반의 식물 잎 이미지 검색)

  • Nam Yun-Young;Park Jin-Kyu;Hwang Een-Jun;Kim Dong-Yoon
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06d
    • /
    • pp.346-348
    • /
    • 2006
  • 본 논문은 잎맥 특징을 이용한 식물의 잎 이미지 검색 방법을 제안한다. 식물의 검색을 위해 모양 기반의 검색방법을 사용하였으며, 잎의 외곽선 분만 아니라 내부의 잎맥 정보를 이용하여 정확율을 향상시켰다. 외곽선은 MPP(Minimum Perimeter Polygons) 알고리즘을 개선하여 표현하고, 내부의 잎맥의 특징은 CSS(Curvature Scale Space)를 개선하여 주맥과 교차점, 끝점을 추출하여 표현하였다. 특징 점들간의 관계와 거리값을 통해 가중치가 있는 그래프로 표현하고 이 값을 통해 유사도를 계산하였다. 실험에서는 식물도감에서 1000여개의 식물 잎 이미지를 추출하여 기존의 알고리즘인 Fourier Descriptor, CSSD, CCD, Moment Invariants, MPP와 비교하였다.

  • PDF

Face Recognition using Light-EBGM(Elastic Bunch Graph Matching ) Method (Light-EBGM(Elastic Bunch Graph Matching) 방법을 이용한 얼굴인식)

  • 권만준;전명근
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.138-141
    • /
    • 2004
  • 본 논문은 EBGM(Elastic Bunch Graph Matching)기법을 이용한 얼굴인식에 대해 다룬다. 대용량 영상 정보에 대해 차원 축소를 이용한 얼굴인식 기법인 주성분기법이나 선형판별기법에서는 얼굴 영상 전체의 정보를 이용하는 반면 본 논문에서는 얼굴의 눈, 코, 입 등과 같은 얼굴 특징점에 대해 주파수와 방향각이 다른 여러 개의 가버 커널과 영상 이미지의 컨볼루션(Convolution)의 계수의 집합(Jets)을 이용한 특징 데이터를 이용한다. 하나의 얼굴 영상에 대해서는 모든 영상이 같은 크기의 특징 데이터로 표현되는 Face Graph가 생성되며, 얼굴인식 과정에서는 추출된 제트의 집합에 대해서 상호 유사도(Similarity)의 크기를 비교하여 얼굴인식을 수행한다. 본 논문에서는 기존의 EBGM방법의 Face Graph 생성 과정을 보다 간략화 한 방법을 이용하여 얼굴인식 과정에서 계산량을 줄여 속도를 개선하였다.

  • PDF

3D Face Recognition using Longitudinal Section and Transection (종단면과 횡단면을 이용한 3차원 얼굴 인식)

  • 이영학;박건우;이태홍
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.9
    • /
    • pp.885-893
    • /
    • 2003
  • In this paper, a new practical implementation of a person verification system using features of longitudinal section and transection and other facial, rotation compensated 3D face image, is proposed. The approach works by finding the nose tip that has a protrusion shape on the face. In feature recognition of 3D face image, one has to take into consideration the orientated frontal posture to normalize. Next, the special points in regions, such as nose, eyes and mouth are detected. The depth of nose, the area of nose and the volume of nose based both on the 3 longitudinal section and a transection are calculated. The eye interval and mouth width are also computed. Finally, the 12 features on the face were extracted. The Ll measure for comparing two feature vectors were used, because it is simple and robust. In the experimental results, proposed method achieves recognition rate of 95.5% for the longitudinal section and transection.

3D Face Recognition using Wavelet (웨이블릿을 이용한 3차원 얼굴인식)

  • 서윤식;이영학;배기억;이태홍
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2003.11a
    • /
    • pp.232-235
    • /
    • 2003
  • 본 눈문에서는 표면의 에지를 잘 나타내는 웨이블릿을 이용한 3차원 얼굴 인식 알고리듬을 제안한다. 먼저 얼굴영역을 추출하고 정규화과정을 수행한다. 코는 얼굴에서 가장 높고 기준점의 역할을 하므로 반복 선택방법을 이용해서 코끝을 찾는다. 코끝 최고점을 기준으로 깊이값 20, 30, 40인 영역에 대해 웨이블릿 변환을 수행하여 얼굴마다 저주파와 고주파들을 생성하는데, 저주파를 제외한 고주파들에 대하여 히스토그램을 특징벡터로 사용하였다 유사도의 비교는 L$_1$거리함수를 사용하여 수평, 수직, 대각고주파, 그리고 이 고주파들의 유사도 비교치를 합한 합성의 경우 각각에 대하여 실험하였다. 깊이값에 따른 영역에서 고주파별로 실험한 결과, 순위 임계값이 10위를 기준으로 깊이값 30 대각고주파에서 91%가 나타났고 합성에서는 93%의 인식률이 나왔다.

  • PDF

Color stereo image matching for self-calibration (셀프 캘리브레이션을 위한 컬러 스테레오 이미지의 대응 관계 추출)

  • Kim, Do-Yoon;Chung, Hyung-Jin
    • Proceedings of the KIEE Conference
    • /
    • 2002.07d
    • /
    • pp.2528-2530
    • /
    • 2002
  • 본 연구에서는 캘리브레이션 박스와 같은 사전에 약속된 물체를 사용하지 않고 일반적인 환경(unstructured environment)의 컬러 스테레오 영상으로부터 특징점을 찾고, 특징점 사이의 대응관계를 사용자 개입 없이 파악하는 방법에 대해 소개한다. 또한 찾은 대응관계를 이용해 스테레오 카메라 사이의 에피폴라 기하학(epipolar geometry) 관계를 계산하여 셀프 캘리브레이션에 이용한다. 이와 유사한 연구는 많이 진행되어 왔으나 대부분의 연구가 흑백 영상에서 진행되어 왔다. 본 연구에서는 컬러 이미지의 속성을 이용해 흑백 영상을 이용할 때보다 외부 환경의 변화에 강인하며, 정밀한 대응 관계를 찾을 수 있음을 실험을 통해 보인다.

  • PDF

A Hybrid Comparing Method of a Similar Frame for Generating Video Summarization Sequences (동영상 요약 시퀀스 생성을 위한 하이브리드 유사 프레임 비교 기법)

  • Ock, Chang-Seok;Kwon, Dae-Gun;Cho, Hwan-Gue
    • Annual Conference of KIPS
    • /
    • 2012.04a
    • /
    • pp.394-397
    • /
    • 2012
  • 멀티미디어의 규모가 급격하게 늘어나고 있는 현재, 영화와 같은 동영상은 용량에 있어 사진과 비교했을 때 상당한 크기를 가지고 있고 그만큼 많은 정보를 담고 있다. 이렇게 많은 정보를 얻기 위해 사용자들은 많은 시간을 소비해야 한다. 이러한 비효율적인 측면의 보완을 위해 동영상의 각 프레임의 유사도를 판단하여 유사한 프레임들은 하나로 모으고, 유사하지 않은 프레임들은 구분하여 요약된 시퀀스로 보여줄 수 있는 방법이 필요하다. 이러한 관점에서 봤을 때 동영상은 시간적 순서에 따라 프레임이 배열되어 있고 인근 프레임 간에는 Coherence가 존재한다는 장점이 있다. 따라서 우리는 이러한 장점을 최대한 이용하여 동영상의 요약 시퀀스를 생성하기 위해 일차적으로 필요한 유사 프레임을 비교할 수 있는 기법을 제안한다. 제안하는 기법은 각 프레임의 공간적인 정보를 활용 할 수 있는 특징점 기반의 기법과, 각 프레임의 색 분포 정보를 활용 할 수 있는 히스토그램 기반의 기법을 Hybrid하게 적용하여 유사 프레임을 판단한다. 제안한 기법을 통해 도출한 결과를 통계학적으로 검증을 위해 널리 사용되는 Precision과 Recall을 이용하여 검증한다.

Optical Flow-Based Marker Tracking Algorithm for Collaboration Between Drone and Ground Vehicle (드론과 지상로봇 간의 협업을 위한 광학흐름 기반 마커 추적방법)

  • Beck, Jong-Hwan;Kim, Sang-Hoon
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.7 no.3
    • /
    • pp.107-112
    • /
    • 2018
  • In this paper, optical flow based keypoint detection and tracking technique is proposed for the collaboration between flying drone with vision system and ground robots. There are many challenging problems in target detection research using moving vision system, so we combined the improved FAST algorithm and Lucas-Kanade method for adopting the better techniques in each feature detection and optical flow motion tracking, which results in 40% higher in processing speed than previous works. Also, proposed image binarization method which is appropriate for the given marker helped to improve the marker detection accuracy. We also studied how to optimize the embedded system which is operating complex computations for intelligent functions in a very limited resources while maintaining the drone's present weight and moving speed. In a future works, we are aiming to develop collaborating smarter robots by using the techniques of learning and recognizing targets even in a complex background.

Semantic Cue based Image Classification using Object Salient Point Modeling (객체 특징점 모델링을 이용한 시멘틱 단서 기반 영상 분류)

  • Park, Sang-Hyuk;Byun, Hye-Ran
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.16 no.1
    • /
    • pp.85-89
    • /
    • 2010
  • Most images are composed as union of the various objects which can describe meaning respectively. Unlike human perception, The general computer systems used for image processing analyze images based on low level features like color, texture and shape. The semantic gap between low level image features and the richness of user semantic knowledges can bring about unsatisfactory classification results from user expectation. In order to deal with this problem, we propose a semantic cue based image classification method using salient points from object of interest. Salient points are used to extract low level features from images and to link high level semantic concepts, and they represent distinct semantic information. The proposed algorithm can reduce semantic gap using salient points modeling which are used for image classification like human perception. and also it can improve classification accuracy of natural images according to their semantic concept relative to certain object information by using salient points. The experimental result shows both a high efficiency of the proposed methods and a good performance.