• Title/Summary/Keyword: 8개의 특징점

Search Result 204, Processing Time 0.03 seconds

Analysis of Perceptual Hierarchy for Facial Feature Point (얼굴 특징점의 지각적 위계구조 분석)

  • 반세범;정찬섭
    • Proceedings of the Korean Society for Emotion and Sensibility Conference
    • /
    • 2000.11a
    • /
    • pp.189-193
    • /
    • 2000
  • 표정인식 시스템을 구현하기 위해서는 어떠한 얼굴 특징점이 특정한 내적상태와 밀접한 관련이 있는가를 알아야한다. 이를 위해 MPEG-4 FDP 중 39개의 얼굴 특징점을 사용하여 쾌-불쾌 및 각성-수면의 내적상태와 얼굴 특징요소간의 상관관계를 분석하였다. 연극배우들의 다양한 표정연기 사진 150장으로부터, 5개의 필터 크기와 8개의 필터 방위로 구성된 Gator wavelet을 사용하여 39개의 특징점을 중심으로 영상처리 하였다. 이들 특징점의 필터 반응 값과 내적상태의 상관관계를 분석한 결과, 내적상태의 쾌-불쾌 차원은 주로 입과 눈썹 주변의 특징점과 밀접한 관련이 있었고, 각성-수면 차원은 주로 눈 주변의 특징점과 밀접한 관련이 있었다. 필터의 크기는 주로 저역 공간빈도 필터가 내적상태와 관련이 있었고, 필터의 방위는 주로 비스듬한 사선 방위가 내적상태와 관련이 있었다.

  • PDF

A neural network model for recognizing facial expressions based on perceptual hierarchy of facial feature points (얼굴 특징점의 지각적 위계구조에 기초한 표정인식 신경망 모형)

  • 반세범;정찬섭
    • Korean Journal of Cognitive Science
    • /
    • v.12 no.1_2
    • /
    • pp.77-89
    • /
    • 2001
  • Applying perceptual hierarchy of facial feature points, a neural network model for recognizing facial expressions was designed. Input data were convolution values of 150 facial expression pictures by Gabor-filters of 5 different sizes and 8 different orientations for each of 39 mesh points defined by MPEG-4 SNHC (Synthetic/Natural Hybrid Coding). A set of multiple regression analyses was performed with the rating value of the affective states for each facial expression and the Gabor-filtered values of 39 feature points. The results show that the pleasure-displeasure dimension of affective states is mainly related to the feature points around the mouth and the eyebrows, while a arousal-sleep dimension is closely related to the feature points around eyes. For the filter sizes. the affective states were found to be mostly related to the low spatial frequency. and for the filter orientations. the oblique orientations. An optimized neural network model was designed on the basis of these results by reducing original 1560(39x5x8) input elements to 400(25x2x8) The optimized model could predict human affective rating values. up to the correlation value of 0.886 for the pleasure-displeasure, and 0.631 for the arousal-sleep. Mapping the results of the optimized model to the six basic emotional categories (happy, sad, fear, angry, surprised, disgusted) fit 74% of human responses. Results of this study imply that, using human principles of recognizing facial expressions, a system for recognizing facial expressions can be optimized even with a a relatively little amount of information.

  • PDF

Modeling and Selecting Optimal Features for Machine Learning Based Detections of Android Malwares (머신러닝 기반 안드로이드 모바일 악성 앱의 최적 특징점 선정 및 모델링 방안 제안)

  • Lee, Kye Woong;Oh, Seung Taek;Yoon, Young
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.8 no.11
    • /
    • pp.427-432
    • /
    • 2019
  • In this paper, we propose three approaches to modeling Android malware. The first method involves human security experts for meticulously selecting feature sets. With the second approach, we choose 300 features with the highest importance among the top 99% features in terms of occurrence rate. The third approach is to combine multiple models and identify malware through weighted voting. In addition, we applied a novel method of eliminating permission information which used to be regarded as a critical factor for distinguishing malware. With our carefully generated feature sets and the weighted voting by the ensemble algorithm, we were able to reach the highest malware detection accuracy of 97.8%. We also verified that discarding the permission information lead to the improvement in terms of false positive and false negative rates.

Construction of 2D Image Mosaics Using Quasi-feature point (유사 특징점을 이용한 모자이킹 영상의 구성)

  • Kim, Dae Hyeon;Choe, Jeong Su
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.38 no.4
    • /
    • pp.57-57
    • /
    • 2001
  • 본 논문은 영상 시퀸스로부터 이미지 모자이킹의 구성을 위한 효율적인 알고리즘을 기술한다. 영상의 기하학적인 특징을 이용하거나 비선형 방정식을 풀었던 기존의 알고리즘과는 달리, 제안한 알고리즘은 4개의 유사특징점을 이용해 영상간 사영 변환식의 8개 파라미터를 직접 계산한다. 본 논문에서 정의된 유사특징점은 영상의 그레이레벨의 분산을 기반으로 하고, 두 영상의 중첩 영역에서만 결정된다. 또한 선택된 4개의 유사특징점에 대한 대응점 검출을 위해 카메라 이동 및 조명 변화에 의한 영상의 변화를 고려한 블록 정합 알고리즘을 적용한다. 제안된 알고리즘은 다양한 영상에 적용하여 그 성능을 평가하였다. 모의 실험 결과는 제안된 알고리즘이 기존의 알고리즘에 비해 계산량을 감소시키면서, 정확한 사영 변환식을 유도하여 모자이킹 영상을 구성하는 것을 보여주고 있다.

Fingerprint Recognition System using the Gabor Features (가버특징량을 이용한 지문인식 시스템)

  • 양동화;김창규;고현주;전명근
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.04a
    • /
    • pp.450-453
    • /
    • 2004
  • 본 논문은 지문을 이용하여 개인 식별 및 확인하는 생체인식 시스템을 제안한 것으로, 입력 지문 영상으로부터 중심점(Core)를 찾아 8개 방향의 가버 필터를 사용하여 지문의 특징을 드러나게 한다. 또한, 중심점으로부터 일정 영역을 섹터로 분할하고 분할된 섹터 별 특징 값을 산출하여 코드 북으로 등록한다. 등록된 데이터로부터 매칭하는 과정은 상관 계수를 이용하여 유사도가 가장 높은 등록자를 선별하고 인식 대상자로 선정한다. 이와 같은 방법은 융선의 분기점과 단점을 특징으로 하는 알고리즘에서 문제시되는 특징점이 빠지는 경우와 의사 특징점에 의한 오인식을 줄일 수 있으며, 중심점과 기준 축의 설정에 따라 지문 영상의 회전에 영향을 받지 않는 방법으로 좋은 성능을 보일 수 있다. 제안된 방법의 유용성을 확인하고자 광학식 지문 센서와 PC를 이용한 실시간 지문 인식 시스템을 구현하였다.

  • PDF

Modeling and Selecting Optimal Features for Machine Learning Based Detections of Android Malwares (머신러닝 기반 악성 안드로이드 모바일 앱의 최적특징점 선정 및 모델링 방안 제안)

  • Lee, Kye Woong;Oh, Seung Taek;Yoon, Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.164-167
    • /
    • 2019
  • 모바일 운영체제 중 안드로이드의 점유율이 높아지면서 모바일 악성코드 위협은 대부분 안드로이드에서 발생하고 있다. 그러나 정상앱이나 악성앱이 진화하면서 권한 등의 단일 특징점으로 악성여부를 연구하는 방법은 유효성 문제가 발생하여 본 논문에서는 다양한 특징점 추출 및 기계학습을 활용하여 극복하고자 한다. 본 논문에서는 APK 파일에서 구동에 필요한 다섯 종류의 특징점들을 안드로가드라는 정적분석 툴을 통해 학습데이터의 특성을 추출한다. 또한 추출된 중요 특징점을 기반으로 모델링을 하는 세 가지 방법을 제시한다. 첫 번째 방법은 보안 전문가에 의해 엄선된 132가지의 특징점 조합을 바탕으로 모델링하는 것이다. 두 번째는 학습 데이터 7,000개의 앱에서 발생 빈도수가 높은 상위 99%인 8,004가지의 특징점들 중 랜덤포레스트 분류기를 이용하여 특성중요도가 가장 높은 300가지를 선정 후 모델링 하는 방법이다. 마지막 방법은 300가지의 특징점을 학습한 다수의 모델을 통합하여 하나의 가중치 투표 모델을 구성하는 방법이다. 최종적으로 가중치 투표 모델인 앙상블 알고리즘 모델을 사용하여 97퍼센트로 정확도가 개선되었고 오탐률도 1.6%로 성능이 개선되었다.

Transfer Learning using Multiple ConvNet Layers Activation Features with Principal Component Analysis for Image Classification (전이학습 기반 다중 컨볼류션 신경망 레이어의 활성화 특징과 주성분 분석을 이용한 이미지 분류 방법)

  • Byambajav, Batkhuu;Alikhanov, Jumabek;Fang, Yang;Ko, Seunghyun;Jo, Geun Sik
    • Journal of Intelligence and Information Systems
    • /
    • v.24 no.1
    • /
    • pp.205-225
    • /
    • 2018
  • Convolutional Neural Network (ConvNet) is one class of the powerful Deep Neural Network that can analyze and learn hierarchies of visual features. Originally, first neural network (Neocognitron) was introduced in the 80s. At that time, the neural network was not broadly used in both industry and academic field by cause of large-scale dataset shortage and low computational power. However, after a few decades later in 2012, Krizhevsky made a breakthrough on ILSVRC-12 visual recognition competition using Convolutional Neural Network. That breakthrough revived people interest in the neural network. The success of Convolutional Neural Network is achieved with two main factors. First of them is the emergence of advanced hardware (GPUs) for sufficient parallel computation. Second is the availability of large-scale datasets such as ImageNet (ILSVRC) dataset for training. Unfortunately, many new domains are bottlenecked by these factors. For most domains, it is difficult and requires lots of effort to gather large-scale dataset to train a ConvNet. Moreover, even if we have a large-scale dataset, training ConvNet from scratch is required expensive resource and time-consuming. These two obstacles can be solved by using transfer learning. Transfer learning is a method for transferring the knowledge from a source domain to new domain. There are two major Transfer learning cases. First one is ConvNet as fixed feature extractor, and the second one is Fine-tune the ConvNet on a new dataset. In the first case, using pre-trained ConvNet (such as on ImageNet) to compute feed-forward activations of the image into the ConvNet and extract activation features from specific layers. In the second case, replacing and retraining the ConvNet classifier on the new dataset, then fine-tune the weights of the pre-trained network with the backpropagation. In this paper, we focus on using multiple ConvNet layers as a fixed feature extractor only. However, applying features with high dimensional complexity that is directly extracted from multiple ConvNet layers is still a challenging problem. We observe that features extracted from multiple ConvNet layers address the different characteristics of the image which means better representation could be obtained by finding the optimal combination of multiple ConvNet layers. Based on that observation, we propose to employ multiple ConvNet layer representations for transfer learning instead of a single ConvNet layer representation. Overall, our primary pipeline has three steps. Firstly, images from target task are given as input to ConvNet, then that image will be feed-forwarded into pre-trained AlexNet, and the activation features from three fully connected convolutional layers are extracted. Secondly, activation features of three ConvNet layers are concatenated to obtain multiple ConvNet layers representation because it will gain more information about an image. When three fully connected layer features concatenated, the occurring image representation would have 9192 (4096+4096+1000) dimension features. However, features extracted from multiple ConvNet layers are redundant and noisy since they are extracted from the same ConvNet. Thus, a third step, we will use Principal Component Analysis (PCA) to select salient features before the training phase. When salient features are obtained, the classifier can classify image more accurately, and the performance of transfer learning can be improved. To evaluate proposed method, experiments are conducted in three standard datasets (Caltech-256, VOC07, and SUN397) to compare multiple ConvNet layer representations against single ConvNet layer representation by using PCA for feature selection and dimension reduction. Our experiments demonstrated the importance of feature selection for multiple ConvNet layer representation. Moreover, our proposed approach achieved 75.6% accuracy compared to 73.9% accuracy achieved by FC7 layer on the Caltech-256 dataset, 73.1% accuracy compared to 69.2% accuracy achieved by FC8 layer on the VOC07 dataset, 52.2% accuracy compared to 48.7% accuracy achieved by FC7 layer on the SUN397 dataset. We also showed that our proposed approach achieved superior performance, 2.8%, 2.1% and 3.1% accuracy improvement on Caltech-256, VOC07, and SUN397 dataset respectively compare to existing work.

Pseudo Feature Point Removal using Pixel Connectivity Tracing (픽셀 연결성 추적을 이용한 의사 특징점 제거)

  • Kim, Kang;Lee, Keon-Ik
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.8
    • /
    • pp.95-101
    • /
    • 2011
  • In this paper, using pixel connectivity tracking feature to remove a doctor has been studied. Feature extraction method is a method using the crossing. However, by crossing a lot of feature extraction method sis a doctor. Extracted using the method of crossing the wrong feature to remove them from the downside and the eight pixels around the fork to trace if it satisfies the conditions in the actual feature extraction and feature conditions are not satisfied because the doctor was removed. To evaluate the performance using crossing methods and extracted using pixel connectivity trace was compared to the actual feature, the experimental results using pixel connectivity trace arcuate sentence, croissants sentence, sentence the defrost feature on your doctor about47%, respectively, 40%, 30%were found to remove.

Construction of 2D Image Mosaics Using Quasi-feature Point (유사 특징점을 이용한 모자이킹 영상의 구성)

  • Kim, Dae-Hyeon;Choe, Jong-Su
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.38 no.4
    • /
    • pp.381-391
    • /
    • 2001
  • This paper presents an efficient approach to build an image mosaics from image sequences. Unlike general panoramic stitching methods, which usually require some geometrical feature points or solve the iterative nonlinear equations, our algorithm can directly recover the 8-parameter planar perspective transforms. We use four quasi-feature points in order to compute the projective transform between two images. This feature is based on the graylevel distribution and defined in the overlap area between two images. Therefore the proposed algorithm can reduce the total amount of the computation. We also present an algorithm lot efficiently matching the correspondence of the extracted feature. The proposed algorithm is applied to various images to estimate its performance and. the simulation results present that our algorithm can find the correct correspondence and build an image mosaics.

  • PDF

The Study on the Extraction of Core Point using the direction Information of Fingerprint Ridges (지문 융선의 방향 정보를 이용한 중심점 추출에 관한 연구)

  • 최진호;나호준;김창수
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.10a
    • /
    • pp.118-121
    • /
    • 2003
  • 지문을 이용한 개인 인증 절차는 지문 형태 별로 구분하는 분류(classification) 과정과 본인임을 확인하는 정합(matching) 과정으로 구분할 수 있다. 지문의 분류와 정합을 위해서는 기존 연구들이 지문의 특징점 수와 방향성의 흐름 패턴에 의존한다. 본 논문에서는 방향성의 흐름 패턴을 이용한 중심점 추출에 초점이 맞춰져 있으며 추출된 중심점 정보는 현재 구현되어진 특징점 추출 정보와 연계해 정합을 위한 기준점으로 활용한다. 중심점 추출 방식은 입력된 지문 영상에 대해 3 $\times$ 3 Sobel 마스크를 적용한 후 8 $\times$ 8블록 영상을 분할하여 각 대표 방향 성분을 추출하며 추출되어진 방향 성분과 특이점 패턴을 비교하여 중심점을 탐색한다.

  • PDF