• Title/Summary/Keyword: Feature point extraction

Search Result 269, Processing Time 0.024 seconds

선군집분할방법에 의한 특징 추출 (Feature Extraction by Line-clustering Segmentation Method)

  • 황재호
    • 정보처리학회논문지B
    • /
    • 제13B권4호
    • /
    • pp.401-408
    • /
    • 2006
  • 영상신호의 수직축 및 수평축 화소 성분 분석을 통해서, 영상 내부에 존재하는 각 영역의 군집적 특성을 통계 및 영역적으로 처리 분류함으로써 필요한 특징을 추출할 수 있는 새로운 형태의 영역분할처리 알고리즘을 제시한다. 종래의 점처리나 면처리 방식에 비해 이 방식은 수평축과 수직축 상에서의 연속적인 선처리 방식이라고 할 수 있다. 영상을 구성하는 영역간 경계가 암시적으로 구분되어 있으나, 명시적으로는 불투명하고, 영상 특성의 분기점 또한 불명확하고 중복되어 있음으로 인하여 문턱치처리나 분기점처리로 그 영역간 특정을 분할, 추출하기가 곤란한 경우에 이 방식은 우수한 효과가 있다. 수평축 및 수직축 선처리를 통해 각 영역들의 특성들을 군집으로 처리한 다음 처리한 축과 수직 방향으로 축차적 적응진행처리한다. 그 결과 영상 내 각 영역은 화소값의 중복에도 불구하고 하나의 군집으로 자리매김하면서 군집 고유의 화소 값을 갖는다. 그리고 처리후 영상은 각 군집에 부여한 새로운 화소값으로 변환함으로 필요한 특정이 추출된다. 이 방식은 특히 영역 분할을 통해 시각적 효과를 극대화시킬 필요가 있는 경동맥 초음파 의료영상에서 우수한 결과를 보였다.

Analysis of Weights and Feature Patterns in Popular 2D Deep Neural Networks Models for MRI Image Classification

  • Khagi, Bijen;Kwon, Goo-Rak
    • Journal of Multimedia Information System
    • /
    • 제9권3호
    • /
    • pp.177-182
    • /
    • 2022
  • A deep neural network (DNN) includes variables whose values keep on changing with the training process until it reaches the final point of convergence. These variables are the co-efficient of a polynomial expression to relate to the feature extraction process. In general, DNNs work in multiple 'dimensions' depending upon the number of channels and batches accounted for training. However, after the execution of feature extraction and before entering the SoftMax or other classifier, there is a conversion of features from multiple N-dimensions to a single vector form, where 'N' represents the number of activation channels. This usually happens in a Fully connected layer (FCL) or a dense layer. This reduced 2D feature is the subject of study for our analysis. For this, we have used the FCL, so the trained weights of this FCL will be used for the weight-class correlation analysis. The popular DNN models selected for our study are ResNet-101, VGG-19, and GoogleNet. These models' weights are directly used for fine-tuning (with all trained weights initially transferred) and scratch trained (with no weights transferred). Then the comparison is done by plotting the graph of feature distribution and the final FCL weights.

효율적인 feature map 추출 네트워크를 이용한 2D 이미지에서의 3D 포인트 클라우드 재구축 기법 (3D Point Cloud Reconstruction Technique from 2D Image Using Efficient Feature Map Extraction Network)

  • 김정윤;이승호
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.408-415
    • /
    • 2022
  • 본 논문에서는 효율적인 feature map 추출 네트워크를 이용한 2D 이미지에서의 3D 포인트 클라우드 재구축 기법을 제안한다. 본 논문에서 제안한 기법의 독창성은 다음과 같다. 첫 번째로, 메모리 측면에서 기존 기법보다 약 27% 더 효율적인 새로운 feature map 추출 네트워크를 사용한다. 제안하는 네트워크는 딥러닝 네트워크의 중간까지 크기 축소를 수행하지 않아, 3D 포인트 클라우드 재구축에 필요한 중요한 정보가 유실되지 않았다. 축소되지 않은 이미지 크기로 인해 발생하는 메모리 증가 문제는 채널의 개수를 줄이고 딥러닝 네트워크의 깊이를 얕게 효율적으로 구성하여 해결하였다. 두 번째로, 2D 이미지의 고해상도 feature를 보존하여 정확도를 기존 기법보다 향상시킬 수 있도록 하였다. 축소되지 않은 이미지로부터 추출한 feature map은 기존의 방법보다 자세한 정보가 담겨있어 3D 포인트 클라우드의 재구축 정확도를 향상시킬 수 있다. 세 번째로, 촬영 정보를 필요로 하지 않는 divergence loss를 사용한다. 2D 이미지뿐만 아니라 촬영 각도가 학습에 필요하다는 사항은 그만큼 데이터셋이 자세한 정보를 담고 있어야 하며 데이터셋의 구축을 어렵게 만드는 단점이다. 본 논문에서는 추가적인 촬영 정보 없이 무작위성을 통해 정보의 다양성을 늘려 3D 포인트 클라우드의 재구축 정확도가 높아질 수 있도록 하였다. 제안하는 기법의 성능을 객관적으로 평가하기 위해 ShapeNet 데이터셋을 이용하여 비교 논문들과 같은 방법으로 실험한 결과, 본 논문에서 제안하는 기법의 CD 값이 5.87, EMD 값이 5.81 FLOPs 값이 2.9G로 산출되었다. 한편, CD, EMD 수치가 낮을수록, 재구축한 3D 포인트 클라우드가 원본에 근접하는 정확도가 향상된 결과를 나타낸다. 또한, FLOPs 수치가 낮을수록 딥러닝 네트워크에 필요한 메모리가 적게 소요되는 결과를 나타낸다. 따라서, 제안하는 기법의 CD, EMD, FLOPs 성능평가 결과가 다른 논문의 기법들보다 메모리 측면에서 약 27%, 정확도 측면에서 약 6.3% 향상된 결과를 나타내어 객관적인 성능이 입증되었다.

초음파 데이터를 이용한 강인한 형상 검출기 개발 (Development of Robust Feature Detector Using Sonar Data)

  • 이세진;임종환;조동우
    • 한국정밀공학회지
    • /
    • 제25권2호
    • /
    • pp.35-42
    • /
    • 2008
  • This study introduces a robust feature detector for sonar data from a general fixed-type of sonar ring. The detector is composed of a data association filter and a feature extractor. The data association filter removes false returns provided frequently from sonar sensors, and classifies set of data from various objects and robot positions into a group in which all the data are from the same object. The feature extractor calculates the geometries of the feature for the group. We show the possibility of extracting circle feature as well as a line and a point features. The proposed method was applied to a real home environment with a real robot.

기준 특징형상에 기반한 셀 분해 및 특징형상 인식에 관한 연구 (Reference Feature Based Cell Decomposition and Form Feature Recognition)

  • 김재현;박정환
    • 한국CDE학회논문집
    • /
    • 제12권4호
    • /
    • pp.245-254
    • /
    • 2007
  • This research proposed feature extraction algorithms as an input of STEP Ap214 data, and feature parameterization process to simplify further design change and maintenance. The procedure starts with suppression of blend faces of an input solid model to generate its simplified model, where both constant and variable-radius blends are considered. Most existing cell decomposition algorithms utilize concave edges, and they usually require complex procedures and computing time in recomposing the cells. The proposed algorithm using reference features, however, was found to be more efficient through testing with a few sample cases. In addition, the algorithm is able to recognize depression features, which is another strong point compared to the existing cell decomposition approaches. The proposed algorithm was implemented on a commercial CAD system and tested with selected industrial product models, along with parameterization of recognized features for further design change.

특징점 기반 이미지 스티칭을 이용한 파노라마 시스템 구현 (Implementation of the Panoramic System Using Feature-Based Image Stitching)

  • 최재학;이용환;김영섭
    • 반도체디스플레이기술학회지
    • /
    • 제16권2호
    • /
    • pp.61-65
    • /
    • 2017
  • Recently, the interest and research on 360 camera and 360 image production are expanding. In this paper, we describe the feature extraction algorithm, alignment and image blending that make up the feature-based stitching system. And it deals with the theory of representative algorithm at each stage. In addition, the feature-based stitching system was implemented using OPENCV library. As a result of the implementation, the brightness of the two images is different, and it feels a sense of heterogeneity in the resulting image. We will study the proper preprocessing to adjust the brightness value to improve the accuracy and seamlessness of the feature-based stitching system.

  • PDF

가우시안 혼합모델 기반 3차원 차량 모델을 이용한 복잡한 도시환경에서의 정확한 주차 차량 검출 방법 (Accurate Parked Vehicle Detection using GMM-based 3D Vehicle Model in Complex Urban Environments)

  • 조영근;노현철;정명진
    • 로봇학회논문지
    • /
    • 제10권1호
    • /
    • pp.33-41
    • /
    • 2015
  • Recent developments in robotics and intelligent vehicle area, bring interests of people in an autonomous driving ability and advanced driving assistance system. Especially fully automatic parking ability is one of the key issues of intelligent vehicles, and accurate parked vehicles detection is essential for this issue. In previous researches, many types of sensors are used for detecting vehicles, 2D LiDAR is popular since it offers accurate range information without preprocessing. The L shape feature is most popular 2D feature for vehicle detection, however it has an ambiguity on different objects such as building, bushes and this occurs misdetection problem. Therefore we propose the accurate vehicle detection method by using a 3D complete vehicle model in 3D point clouds acquired from front inclined 2D LiDAR. The proposed method is decomposed into two steps: vehicle candidate extraction, vehicle detection. By combination of L shape feature and point clouds segmentation, we extract the objects which are highly related to vehicles and apply 3D model to detect vehicles accurately. The method guarantees high detection performance and gives plentiful information for autonomous parking. To evaluate the method, we use various parking situation in complex urban scene data. Experimental results shows the qualitative and quantitative performance efficiently.

스캔 만화도서 식별 및 특징 검색 시스템 (An Identification and Feature Search System for Scanned Comics)

  • 이상훈;최낙연;이상훈
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제41권4호
    • /
    • pp.199-208
    • /
    • 2014
  • 본 논문에서는 스캔된 만화의 콘텐츠 특성을 고려한 식별 및 특징 검색 시스템을 제안하였다. 스캔 만화의 특징점을 생성하기 위해서 계층적 대칭 핑거프린팅 방법을 활용하였다. 제안하는 핑거프린트 식별 및 검색 시스템은 웹하드와 같은 온라인 서비스 제공자들이 대량의 스캔만화에 대하여 즉각적인 식별 결과를 얻을 수 있도록 설계되었다. 실험에서는 회전, 이동 등의 이미지 변형에 대해서 핑거프린트의 식별 강인성에 대하여 분석하였다. 또한 특징점 데이터베이스에서의 빠른 매칭을 위한 데이터베이스 구조를 제안하였고, 전역 검색 및 최대중요특징 검색과 같은 기존의 다른 검색방법과 성능을 비교하였다.

인터액티브 펜-입력 디스플레이 애플리케이션을 위한 효과적인 특징점 추출법 (An Efficient Feature Point Detection for Interactive Pen-Input Display Applications)

  • 김대현;김명준
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권11_12호
    • /
    • pp.705-716
    • /
    • 2005
  • 패턴 인식 연구 분야에서 많은 특징점 추출 알고리즘들이 개발되었지만, 태블릿 PC나 LCD 태블릿과 같은 펜-입력 디스플레이를 위한 인터액티브 애플리케이션들은 기존과는 다른 요구사항을 가진다. 사용자 마다 다른 다양한 스케치 스타일의 대해서 세그멘테이션 및 특징점 추출을 그림을 그리는 동안 실시간에 안정적으로 수행하여야 한다. 본 논문은 사용자로부터 자유로이 입력된 펜 입력을 분할(segmentation)하기 위해 필수적인 곡률(curvature) 측정 방법을 제안한다. 이 방법은 국소적인 모양 정보(shape descriptors)만을 사용하므로 펜 입력동안 곧바로(on-the-fly) 곡률을 측정할 수 있다. 본 알고리즘은 3차원 스케치 기반 모델링 애플리케이션에서 펜 마킹 인식을 위해서 사용되었다.

망 분리를 이용한 딥러닝 학습시간 단축에 대한 연구 (A Study on Reducing Learning Time of Deep-Learning using Network Separation)

  • 이희열;이승호
    • 전기전자학회논문지
    • /
    • 제25권2호
    • /
    • pp.273-279
    • /
    • 2021
  • 본 논문에서는 딥러닝 구조를 분할을 이용한 개별 학습을 수행하여 학습시간을 단축하는 알고리즘을 제안한다. 제안하는 알고리즘은 망 분류 기점 설정 과정, 특징 벡터 추출 과정, 특징 노이즈 제거 과정, 클래스 분류 과정 등의 4가지 과정으로 구성된다. 첫 번째로 망 분류 기점 설정 과정에서는 효과적인 특징 벡터 추출을 위한 망 구조의 분할 기점을 설정한다. 두 번째로 특징 벡터 추출 과정에서는 기존에 학습한 가중치를 사용하여 추가 학습 없이 특징 벡터를 추출한다. 세 번째로 특징 노이즈 제거 과정에서는 추출된 특징 벡터를 입력받아 각 클래스의 출력값을 학습하여 데이터의 노이즈를 제거한다. 네 번째로 클래스 분류 과정에서는 노이즈가 제거된 특징 벡터를 입력받아 다층 퍼셉트론 구조에 입력하고 이를 출력하고 학습한다. 제안된 알고리즘의 성능을 평가하기 위하여 Extended Yale B 얼굴 데이터베이스를 사용하여 실험 하였다. 실험 결과, 1회 학습에 소요되는 시간의 경우 제안하는 알고리즘이 기존 알고리즘 기준 40.7% 단축하였다. 또한 목표 인식률까지 학습 횟수가 기존 알고리즘과 비교하여 단축하였다. 실험결과를 통해 1회 학습시간과 전체 학습시간을 감소시켜 기존의 알고리즘보다 향상됨을 확인하였다.