• Title/Summary/Keyword: Scale-invariant Feature

Search Result 234, Processing Time 0.029 seconds

Evaluation of the Vision Algorithm for Measuring Structure in the Districted Area of the Nuclear Facilities (원자력시설내 제한된 구역의 구조물 계측을 위한 비전 알고리즘 평가)

  • Youm, Min Kyo;Lee, Baek Gun;Min, Byung Il;Yoon, Hong Sik;Suh, Kyung Suk
    • Journal of Radiation Industry
    • /
    • v.7 no.2_3
    • /
    • pp.121-126
    • /
    • 2013
  • The new algorithm technique is necessary to incorporate for analyzing and evaluating extreme condition like a nuclear accident. In this study, the combined methodology for measuring the three-dimensional space was compared with SIFT (Scale Invariant Feature Transform) and SURF (Speeded-Up Robust Feature) algorithm. The suggested method can be used for the acquisition of spatial information using the robot vision in the districted area of the nuclear facilities. As a result, these data would be helpful for identify the damaged part, degree of damage and determination of recovery sequences.

Deep Learning-based Scene Change Detection (딥 러닝을 이용한 화면 전환 검출)

  • Lee, Jae-eun;Seo, Young-Ho;Kim, Dong-wook
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2019.05a
    • /
    • pp.549-550
    • /
    • 2019
  • In this paper, we propose a method to detect the scene change using deep learning. To extract feature points, we use a deep neural network and express extracted feature points as 128 dimensional vectors using SIFT descriptor. If it is less than 25%, it is determined that the scene is changed.

  • PDF

A New Three-dimensional Integrated Multi-index Method for CBIR System

  • Zhang, Mingzhu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • v.15 no.3
    • /
    • pp.993-1014
    • /
    • 2021
  • This paper proposes a new image retrieval method called the 3D integrated multi-index to fuse SIFT (Scale Invariant Feature Transform) visual words with other features at the indexing level. The advantage of the 3D integrated multi-index is that it can produce finer subdivisions in the search space. Compared with the inverted indices of medium-sized codebook, the proposed method increases time slightly in preprocessing and querying. Particularly, the SIFT, contour and colour features are fused into the integrated multi-index, and the joint cooperation of complementary features significantly reduces the impact of false positive matches, so that effective image retrieval can be achieved. Extensive experiments on five benchmark datasets show that the 3D integrated multi-index significantly improves the retrieval accuracy. While compared with other methods, it requires an acceptable memory usage and query time. Importantly, we show that the 3D integrated multi-index is well complementary to many prior techniques, which make our method compared favorably with the state-of-the-arts.

A Comparison of performance between SIFT and SURF (SIFT와 SURF의 성능 비교)

  • Lee, Yong-Hwan;Park, Sunghyun;Shin, In-Kyoung;Ahn, Hyochang;Cho, Han-Jin;Lee, June-Hwan;Rhee, Sang-Burm
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1560-1562
    • /
    • 2013
  • 정확하고 강인한 영상 등록(Registration)은 영상 검색과 컴퓨터 비전과 같은 여러 응용 분야에서 성능을 좌우하는 매우 중요한 역할을 담당하며, 특징 추출 및 매칭 단계를 통해 수행된다. 영상의 특징을 관심 점으로 지정하여 추출하는 대표적인 알고리즘으로, SIFT (Scale Invariant Feature Transform)와 SURF (Speeded Up Robust Feature)가 있다. 본 논문에서는 2 개의 특징점 추출 알고리즘을 구현하고 예제 데이터를 기반으로 실험을 통해 성능적 비교 분석을 수행한다. 실험 결과, SURF 알고리즘이 특징 추출 및 매칭, 처리시간 측면에서 SIFT 보다 효율적인 성능을 보였다.

3D Object Recognition Using Appearance Model of Feature Point (특징점 Appearance Model을 이용한 3차원 물체 인식)

  • Joo, Seong-Moon;Park, Jae-Wan;Lee, Chil-Woo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1536-1539
    • /
    • 2013
  • 3차원 물체는 카메라의 시선 방향에 따라 다른 영상을 생성하므로 2차원 영상만으로 3차원 물체를 인식하는 것은 쉬운 일이 아니다. 특히 영상생성 시 강한 perspective transformation 이 발생할 경우 2차원 국소 특징을 이용하는 SIFT(Scale-Invariant Feature Transform) 알고리즘은 매칭에 활용하기 어렵다. 본 논문에서는 3차원 물체를 하나의 특정 축 중심으로 회전시키면서 얻은 복수의 영상을 학습 데이터로 활용하여 SIFT 알고리즘을 개선한 물체인식 방법을 제안한다. 이 방법은 복수 영상의 특징점들을 하나의 특징 공간으로 합성하고 그 특징점들 간의 기하학적인 제약조건을 확인하여 3차원 물체를 인식하는 방법이다. 실험에서는 알고리즘의 유용성을 먼저 확인하기 위해 조명조건과 카메라의 위치를 일정하게 유지하였다. 이 방법에 의해 SIFT 알고리즘만으로 인식이 힘들었던 3차원 물체의 다양한 외관(appearance) 인식이 가능하게 되었다.

Directional Circular Watermarking Scheme based on Feature Point Detection using SIFT (SIFT를 이용한 방향성을 가진 원형반구 기반의 워터마킹 기법의 설계)

  • Sung, HyunSeong;Kim, SeongWhan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.347-348
    • /
    • 2009
  • 멀티미디어 컨텐츠에 가시적 혹은 비 가시적으로 정보를 삽입하는 기술을 워터마킹이라고 한다. 워터마크를 삽입한 컨텐츠는 일련의 공격에 강인하도록 설계되어야 하는데, 본 기법은 기하학적 공격에 강인하도록 설계하였다. Scale Invariant Feature Transform (SIFT)을 이용하여 특징점을 찾고, 특징점 주변에 원형의 워터마크를 삽입하였다. SIFT에서 구해지는 방향벡터를 사용하여, 워터마크를 삽입할 원형 반구를 설정하였으며, 기존의 원형 기반의 워터마킹 삽입기법보다 강인한 워터마크를 구성할 수 있는 장점을 가진다.

Performance Evaluation of FPN-Attention Layered Model for Improving Visual Explainability of Object Recognition (객체 인식 설명성 향상을 위한 FPN-Attention Layered 모델의 성능 평가)

  • Youn, Seok Jun;Cho, Nam Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1311-1314
    • /
    • 2022
  • DNN을 사용하여 객체 인식 과정에서 객체를 잘 분류하기 위해서는 시각적 설명성이 요구된다. 시각적 설명성은 object class에 대한 예측을 pixel-wise attribution으로 표현해 예측 근거를 해석하기 위해 제안되었다, Scale-invariant한 특징을 제공하도록 설계된 pyramidal features 기반 backbone 구조는 object detection 및 classification 등에서 널리 쓰이고 있으며, 이러한 특징을 갖는 feature pyramid를 trainable attention mechanism에 적용하고자 할 때 계산량 및 메모리의 복잡도가 증가하는 문제가 있다. 본 논문에서는 일반적인 FPN에서 객체 인식 성능과 설명성을 높이기 위한 피라미드-주의집중 계층네트워크 (FPN-Attention Layered Network) 방식을 제안하고, 실험적으로 그 특성을 평가하고자 한다. 기존의 FPN만을 사용하였을 때 객체 인식 과정에서 설명성을 향상시키는 방식이 객체 인식에 미치는 정도를 정량적으로 평가하였다. 제안된 모델의 적용을 통해 낮은 computing 오버헤드 수준에서 multi-level feature를 고려한 시각적 설명성을 개선시켜, 결괴적으로 객체 인식 성능을 향상 시킬 수 있음을 실험적으로 확인할 수 있었다.

  • PDF

The SIFT and HSV feature extraction-based waste Object similarity measurement model (SIFT 및 HSV 특징 추출 기반 폐기물 객체 유사도 측정 모델)

  • JunHyeok Go;Hyuk soon Choi;Jinah Kim;Nammee Moon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.1220-1223
    • /
    • 2023
  • 폐기물을 처리하는데 있어 배출과 수거에 대한 프로세스 자동화를 위해 폐기물 객체 유사도 판별이 요구된다. 이를 위해 본 연구에서는 폐기물 데이터셋에서 SIFT(Scale-Invariant Feature Transform)와 HSV(Hue, Saturation, Value)기반으로 두 이미지의 공통된 특징을 추출해 융합하고, 기계학습을 통해 이미지 객체 간의 유사도를 측정하는 모델을 제안한다. 실험을 위해 수집된 폐기물 데이터셋 81,072 장을 활용하여 이미지를 학습시키고, 전통적인 임계치 기반 유사도 측정과 본 논문에서 제시하는 유사도 측정을 비교하여 성능을 확인하였다. 임계치 기반 측정에서 SIFT 와 HSV 는 각각 0.82, 0.89(Acc)가 측정되었고, 본 논문에서 제시한 특징 추출 방법을 사용한 기계학습의 성능은 DT(Decision Tree)와 SVM(Support Vector Machine) 모두 0.93 (Acc)로 4%의 정확도가 향상되었다.

Feature-based Matching Algorithms for Registration between LiDAR Point Cloud Intensity Data Acquired from MMS and Image Data from UAV (MMS로부터 취득된 LiDAR 점군데이터의 반사강도 영상과 UAV 영상의 정합을 위한 특징점 기반 매칭 기법 연구)

  • Choi, Yoonjo;Farkoushi, Mohammad Gholami;Hong, Seunghwan;Sohn, Hong-Gyoo
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.37 no.6
    • /
    • pp.453-464
    • /
    • 2019
  • Recently, as the demand for 3D geospatial information increases, the importance of rapid and accurate data construction has increased. Although many studies have been conducted to register UAV (Unmanned Aerial Vehicle) imagery based on LiDAR (Light Detection and Ranging) data, which is capable of precise 3D data construction, studies using LiDAR data embedded in MMS (Mobile Mapping System) are insufficient. Therefore, this study compared and analyzed 9 matching algorithms based on feature points for registering reflectance image converted from LiDAR point cloud intensity data acquired from MMS with image data from UAV. Our results indicated that when the SIFT (Scale Invariant Feature Transform) algorithm was applied, it was able to stable secure a high matching accuracy, and it was confirmed that sufficient conjugate points were extracted even in various road environments. For the registration accuracy analysis, the SIFT algorithm was able to secure the accuracy at about 10 pixels except the case when the overlapping area is low and the same pattern is repeated. This is a reasonable result considering that the distortion of the UAV altitude is included at the time of UAV image capturing. Therefore, the results of this study are expected to be used as a basic research for 3D registration of LiDAR point cloud intensity data and UAV imagery.

Pedestrian Classification using CNN's Deep Features and Transfer Learning (CNN의 깊은 특징과 전이학습을 사용한 보행자 분류)

  • Chung, Soyoung;Chung, Min Gyo
    • Journal of Internet Computing and Services
    • /
    • v.20 no.4
    • /
    • pp.91-102
    • /
    • 2019
  • In autonomous driving systems, the ability to classify pedestrians in images captured by cameras is very important for pedestrian safety. In the past, after extracting features of pedestrians with HOG(Histogram of Oriented Gradients) or SIFT(Scale-Invariant Feature Transform), people classified them using SVM(Support Vector Machine). However, extracting pedestrian characteristics in such a handcrafted manner has many limitations. Therefore, this paper proposes a method to classify pedestrians reliably and effectively using CNN's(Convolutional Neural Network) deep features and transfer learning. We have experimented with both the fixed feature extractor and the fine-tuning methods, which are two representative transfer learning techniques. Particularly, in the fine-tuning method, we have added a new scheme, called M-Fine(Modified Fine-tuning), which divideslayers into transferred parts and non-transferred parts in three different sizes, and adjusts weights only for layers belonging to non-transferred parts. Experiments on INRIA Person data set with five CNN models(VGGNet, DenseNet, Inception V3, Xception, and MobileNet) showed that CNN's deep features perform better than handcrafted features such as HOG and SIFT, and that the accuracy of Xception (threshold = 0.5) isthe highest at 99.61%. MobileNet, which achieved similar performance to Xception and learned 80% fewer parameters, was the best in terms of efficiency. Among the three transfer learning schemes tested above, the performance of the fine-tuning method was the best. The performance of the M-Fine method was comparable to or slightly lower than that of the fine-tuningmethod, but higher than that of the fixed feature extractor method.