• 제목/요약/키워드: image similarity retrieval

검색결과 186건 처리시간 0.02초

사진 사용 이력을 이용한 이벤트 클러스터링 알고리즘 (Adaptive Event Clustering for Personalized Photo Browsing)

  • 김기응;박태서;박민규;이영범;김연배;김상룡
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.711-716
    • /
    • 2006
  • Since the introduction of digital camera to the mass market, the number of digital photos owned by an individual is growing at an alarming rate. This phenomenon naturally leads to the issues of difficulties while searching and browsing in the personal digital photo archive. Traditional approach typically involves content-based image retrieval using computer vision algorithms. However, due to the performance limitations of these algorithms, at least on the casual digital photos taken by non-professional photographers, more recent approaches are centered on time-based clustering algorithms, analyzing the shot times of photos. These time-based clustering algorithms are based on the insight that when these photos are clustered according to the shot-time similarity, we have "event clusters" that will help the user browse through her photo archive. It is also reported that one of the remaining problems with the time-based approach is that people perceive events in different scales. In this paper, we present an adaptive time-based clustering algorithm that exploits the usage history of digital photos in order to infer the user's preference on the event granularity. Experiments show significant performance improvements in the clustering accuracy.

  • PDF

SOSiM: 형태 특징 기술자를 사용한 형태 기반 객체 유사성 매칭 (SOSiM: Shape-based Object Similarity Matching using Shape Feature Descriptors)

  • 노충호;이석룡;정진완;김상희;김덕환
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제36권2호
    • /
    • pp.73-83
    • /
    • 2009
  • 본 논문에서는 영상 내의 객체의 형태(shape)에 기반한 객체 유사성 매칭(matching) 방법을 제안한다. 제안한 방법에서는 객체의 윤곽선(edge)에서 점들(edge points)을 추출하고, 추출된 점들의 위치 관계를 나타내기 위하여 각 점을 기준으로 로그 원형 히스토그램(log polar histogram)을 생성하였다. 객체의 윤곽을 따라가며 각 점에 대한 원형 히스토그램을 순차적으로 비교함으로써 객체간의 매칭이 이루어지며, 데이타베이스로부터 유사한 객체를 검색하기 위하여 사용한 매칭 방식은 널리 알려진 k-NN(nearest neighbor) 질의 방식을 사용하였다. 제안한 방법을 검증하기 위하여 기존의 형태 문맥 기법(Shape Context method)과 제안한 방법을 비교하였으며, 객체 유사성 매칭 실험에서 k=5일 때 기존 방법의 정확도가 0.37, 제안한 방법이 0.75-0.90이며, k=10일 때 기존 방법이 0.31, 제안한 방법이 0.61-0.80로서 기존의 방법에 비해 정확한 매칭 결과를 보여 주었다. 또한 영상의 회전 변형 실험에서 기존 방법의 정확도가 0.30, 제안한 방법이 0.69로서 기존 방법보다 회전 변형에 강인한(robust) 특성을 가짐을 관찰할 수 있었다.

Viewpoint Invariant Person Re-Identification for Global Multi-Object Tracking with Non-Overlapping Cameras

  • Gwak, Jeonghwan;Park, Geunpyo;Jeon, Moongu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권4호
    • /
    • pp.2075-2092
    • /
    • 2017
  • Person re-identification is to match pedestrians observed from non-overlapping camera views. It has important applications in video surveillance such as person retrieval, person tracking, and activity analysis. However, it is a very challenging problem due to illumination, pose and viewpoint variations between non-overlapping camera views. In this work, we propose a viewpoint invariant method for matching pedestrian images using orientation of pedestrian. First, the proposed method divides a pedestrian image into patches and assigns angle to a patch using the orientation of the pedestrian under the assumption that a person body has the cylindrical shape. The difference between angles are then used to compute the similarity between patches. We applied the proposed method to real-time global multi-object tracking across multiple disjoint cameras with non-overlapping field of views. Re-identification algorithm makes global trajectories by connecting local trajectories obtained by different local trackers. The effectiveness of the viewpoint invariant method for person re-identification was validated on the VIPeR dataset. In addition, we demonstrated the effectiveness of the proposed approach for the inter-camera multiple object tracking on the MCT dataset with ground truth data for local tracking.

시각 특징과 퍼지 적분을 이용한 내용기반 영상 검색 (Content-Based Image Retrieval Using Visual Features and Fuzzy Integral)

  • 송영준;김남;김미혜;김동우
    • 한국콘텐츠학회논문지
    • /
    • 제6권5호
    • /
    • pp.20-28
    • /
    • 2006
  • 본 논문은 공간주파수 특징들과 다중 해상도 특징들을 가진 웨이블렛 영역에서 추출된 각 대역의 시각 특징 추출과 이들의 퍼지 적분 조합에 대하여 제안하였다. 칼라 양자화 이후에 똑같은 칼라의 빈도를 취함으로써 기존의 칼라 히스토그램 인터섹션 방법의 단점인 양자화 에러를 줄일 수 있게 칼라 특징을 표현한다. 또한 유사도는 서로 독립적인 특성을 갖는 호모그램, 칼라, 에너지 특징을 퍼지 측도와 퍼지 적분을 사용하여 조합한다. 1,000개의 칼라 영상에 대하여 실험을 하였고, 제안된 방법이 기존 방법들보다 객관적이고 주관적인 성능에서 우수함을 보였다.

  • PDF

MPEG-7 시각 정보 기술자의 특성을 반영한 효율적인 멀티미디어 데이타 비트맵 인덱싱 방법 (An Efficient Bitmap Indexing Method for Multimedia Data Reflecting the Characteristics of MPEG-7 Visual Descriptors)

  • 정진국;낭종호
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권1호
    • /
    • pp.9-20
    • /
    • 2005
  • 최근 멀티미디어 정보를 기술하기 위한 표준인 MPEG-7이 제안되어 이미지/동영상 검색 시스템과 간은 응용분야에서 사용되기 시작하였다. 그러나 MPEG-7 시각 정보 기술자들은 대부분 고차원으로 표현이 되고, 고차원에서 발생되는 문제인 "Curse of dimensionality" 때문에 기존의 인덱싱 방법(예를 들면 트리 구조를 이용하는 다차원 인덱싱 방법, 차원을 줄이는 방법, 양자화 등의 압축 기법을 이용하는 방법 등)으로는 효율적인 검색을 할 수 없다. 본 논문에서는 MPEG-7 시각 정보 기술자들의 특징을 반영한 효율적인 인덱싱 방법을 제안한다. 제안된 방법에서는 기술자를 속성 히스토그램으로 변형하고 히스토그램의 자 빈 값을 이진 형태로 표현하여 비트열을 생성하며, 이러한 비트열들을 이용하여 비트맵 인덱스를 구성한다. 질의 오브젝트가 입력되면 비트맵 인덱스를 이용하여 결과에 포함될 가능성이 있는 후보 오브젝트 리스트를 생성하게 되는데 즉, 각 오브젝트의 인덱스와 질의 오브젝트의 비트열에 대한 XOR(Exclusive OR) 연산을 수행하여서 후보 오브젝트 리스트를 생성한다. 그리고 이 리스트에 있는 오브젝트들에 대해서만 L1-norm과 같은, 기술자를 위해 사용되는 비교 연산식을 수행하여 최종 결과 오브젝트들을 사용자에게 보여주게 된다. 본 논문에서 제안하는 알고리즘은 단순한 비트 연산을 통해 검색 결과에 포함될 가능성이 있는 오브젝트들을 추출해낼 수 있기 때문에 빠른 시간 내에 검색을 마칠 수 있도록 해준다. 실험에 의하면 제안한 방법을 이용하는 경우, 90% 이상의 정확도를 유지하면서 검색 시간에서는 순차 검색에 비해 15배 이상의 속도 향상을 보임을 알 수 있었다.

시각적 특징을 기반한 샷 클러스터링을 통한 비디오 씬 탐지 기법 (Video Scene Detection using Shot Clustering based on Visual Features)

  • 신동욱;김태환;최중민
    • 지능정보연구
    • /
    • 제18권2호
    • /
    • pp.47-60
    • /
    • 2012
  • 비디오 데이터는 구조화되지 않은 복합 데이터의 형태를 지닌다. 이러한 비디오 데이터의 효율적인 관리 및 검색을 위한 비디오 데이터 구조화의 중요성이 대두되면서 콘텐츠 내 시각적 특징을 기반으로 비디오 씬(scene)을 탐지하고자 하는 연구가 활발히 진행되었다. 기존의 연구들은 주로 색상 정보만을 이용하여 샷(shot) 간의 유사도 평가를 기반한 클러스터링(clustering)을 통해 비디오 씬을 탐지하고자 하였다. 하지만 비디오 데이터의 색상 정보는 노이즈(noise)를 포함하고, 특정 사물의 개입 등으로 인해 급격하게 변화하기 때문에 색상만을 특징으로 고려할 경우, 비디오 샷 혹은 씬에 대한 올바른 식별과 디졸브(dissolve), 페이드(fade), 와이프(wipe)와 같은 화면의 점진적인 전환(gradual transitions) 탐지는 어렵다. 이러한 문제점을 해결하기 위해, 본 논문에서는 프레임(frame)의 컬러 히스토그램과 코너 에지, 그리고 객체 컬러 히스토그램에 해당하는 시각적 특징을 기반으로 동일한 이벤트를 구성하는 의미적으로 유사한 샷의 클러스터링을 통해 비디오 씬을 탐지하는 방법(Scene Detector by using Color histogram, corner Edge and Object color histogram, SDCEO)을 제안한다. SDCEO는 샷 바운더리 식별을 위해 컬러 히스토그램 분석 단계에서 각 프레임의 컬러 히스토그램 정보를 이용하여 1차적으로 연관성 있는 연속된 프레임을 샷 바운더리로 병합한 후, 코너 에지 분석 단계에서 병합된 샷 내 처음과 마지막 프레임의 코너 에지 특징 비교를 통하여 샷 바운더리를 정제하여 최종 샷을 식별한다. 키프레임 추출 단계에서는 샷 내 프레임간 유사도 비교를 통해 모든 프레임과 가장 유사한 프레임을 각 샷을 대표하는 키프레임으로 추출한다. 그 후, 비디오 씬 탐지를 위해, 컬러 히스토그램과 객체 컬러 히스토 그램에 해당하는 프레임의 시각적 특징을 기반으로 상향식 계층 클러스터링 방법을 이용하여 의미적인 연관성을 지니는 샷의 군집화를 통해 비디오 씬을 탐지하는 방법이다. 본 논문에서는 SDCEO의 프로토 타입을 구축하고 3개의 비디오 데이터를 이용한 실험을 통하여 SDCEO의 효율성을 평가하였고 샷 바운더리 식별의 성능의 정확도는 평균 93.3%, 비디오 씬 탐지 성능의 정확도는 평균 83.3%로 만족할만한 성능을 보였다.