• Title/Summary/Keyword: Haar-Feature

Search Result 143, Processing Time 0.03 seconds

Image Feature-based Electric Vehicle Detection and Classification System Using Machine Learning (머신 러닝을 이용한 영상 특징 기반 전기차 검출 및 분류 시스템)

  • Kim, Sanghyuk;Kang, Suk-Ju
    • The Transactions of The Korean Institute of Electrical Engineers
    • /
    • v.66 no.7
    • /
    • pp.1092-1099
    • /
    • 2017
  • This paper proposes a novel way of vehicle detection and classification based on image features. There are two main processes in the proposed system, which are database construction and vehicle classification processes. In the database construction, there is a tight censorship for choosing appropriate images of the training set under the rigorous standard. These images are trained using Haar features for vehicle detection and histogram of oriented gradients extraction for vehicle classification based on the support vector machine. Additionally, in the vehicle detection and classification processes, the region of interest is reset using a number plate to reduce complexity. In the experimental results, the proposed system had the accuracy of 0.9776 and the $F_1$ score of 0.9327 for vehicle classification.

Face Recognition Algorithms for Analyzing Floating Population (유동인구 분석을 위한 얼굴 인식 알고리즘)

  • Kim, Jihwan;Kim, Doohyun;Kim, Jinwoo;Go, Youjune;Lee, Soowon;Lee, Jeongjin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.853-856
    • /
    • 2014
  • 본 연구에서는 유동인구 얼굴을 인식하기 위한 방법을 비교하고 유동인구 분석을 위한 얼굴 인식 알고리즘의 성능을 평가하는데 중점을 둔다. 현재 얼굴 인식 알고리즘의 종류는 매우 다양한데 건널목이라는 특정 공간을 제약하여 알고리즘들에 대한 평가와 분석을 통하여 앞으로 건널목 유동이구를 분석하기 위해 얼굴 인식 알고리즘을 사용하는 사용자에게 정보를 제공하고자 한다. 특히 Color Model 기반 얼굴 인식 알고리즘과 Haar-Like Feature 기반 얼굴 인식 알고리즘을 각각 이용하여 환경에 따른 성능을 비교 분석하고 그 평가를 한다.

Automatic Hand Tracking System using Skin Color Histogram (피부색 히스토그램 검출을 통해 향상된 자동 손 추적 시스템)

  • Kim, Beom-Joon;Shin, Byeong-Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1477-1479
    • /
    • 2015
  • 기존의 연구와 같이 정확한 피부색 영역을 추출하기 위해 색상공간을 조절하는 방식은 조명이나 주변환경의 영향에 따라 잘못된 결과를 낼 수 있다. Camshift 알고리즘을 이용한 추적을 할 때에도 대상에게 맞춰진 피부색 히스토그램을 이용해서 추적하지 않으므로 범용성이 떨어진다. 이러한 문제점을 해결하기 위해 Camshift 알고리즘의 최초추적 윈도우를 결정하고 히스토그램을 결정하여손 피부색 추적성능을 향상시켰다. 보편적인 피부색 필터를 이용하여 인체 전경을 추출하고, haar like feature detection (특징검출)을 이용하여 손 영역을 검색한다. 이후 피부색 필터를 통해 이진화 된 이미지를 이용해 원 영상을 마스킹 한 후 사용자 고유의 피부색의 히스토그램을 결정한다. 이 방법으로 얻은 히스토그램을 Camshift알고리즘에 적용하면 기존방식 으로 생성한 히스토그램을 사용할 때보다 좋은 추적 성능을 보인다.

Study of Multi-Object Detection System from CCTV (CCTV에서 다중 객체 검출 시스템 연구)

  • Park, Jong-Hwan;Lee, Hyo Jong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.936-938
    • /
    • 2014
  • 폐쇄회로 TV는 우리의 생활에 밀접하게 접근할 수 있는 수준에 다다르게 되었다. 따라서 중요한 작업은 영상에서 우리가 원하는 개체를 검출해내는 것이라 할 수 있다. 그 중에서 사람의 모습을 촬영해서 사람의 특징을 추출하는 연구가 많이 진행되었고 이를 이용해서 실제 CCTV 영상을 토대로 개체를 검출해내는 시스템에 대해 고찰하였다. 여러 가지 개체 검출 알고리즘 중에서 오픈소스로 제공이 되며, 다중 개체를 검출하기 위해서 Haar-like feature를 이용한 개체 추출 알고리즘을 이용하여 CCTV 다중대체 검출에 대해 실험을 진행하였다. 정지영상에서는 정면을 응시하는 얼굴영역 검출에서는 높은 성능을 보이며 다른 각도에서는 차이가 있지만 무난한 성능을 보이지만 실시간에서는 보정 작업이 필요하게 되었다.

Design of Agent System for Learning to Ear Acupuncture (이침 혈자리 학습을 위한 에이전트 시스템의 설계)

  • Jang, Yong Hyun;Jeon, Ji Young;Yang, Janghoon;Choi, Yoo Ju
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.9-11
    • /
    • 2013
  • 본 논문에서는 귀의 형태와 색을 통해서 질병을 자가진단 후 귀의 특정 부위를 자극하는 이침요법을 위한 시술 보조 시스템을 제안한다. 제안 시스템은 피시술자의 귀의 이미지 정보와 질병에 대한 정보를 처리하여 이침을 위한 혈자리를 귀 이미지에 표시해 주는 시스템을 구현하였다. 특히 귀를 인식하는 부분에 있어서, Haar-like feature와 Adaboost알고리즘을 사용하는 OpenCV내의 함수를 사용하였고 인식된 귀영역을 그리드 영역으로 나누고 질병에 대한 사전 정보에 따라서 그리드 영역내의 이침혈자리 시스템을 표시하는 시스템으로 구성하였다.

Classification of Arrhythmia Based on Discrete Wavelet Transform and Rough Set Theory

  • Kim, M.J.;J.-S. Han;Park, K.H.;W.C. Bang;Z. Zenn Bien
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 2001.10a
    • /
    • pp.28.5-28
    • /
    • 2001
  • This paper investigates a classification method of the electrocardiogram (ECG) into different disease categories. The features for the classification of the ECG are the coefficients of the discrete wavelet transform (DWT) of ECG signals. The coefficients are calculated with Haar wavelet, and after DWT we can get 64 coefficients. Each coefficient has morphological information and they may be good features when conventional time-domain features are not available. Since all of them are not meaningful, it is needed to reduce the size of meaningful coefficients set. The distributions of each coefficient can be the rules to classify ECG signal. The optimally reduced feature set is obtained by fuzzy c-means algorithm and rough set theory. First, the each coefficient is clustered by fuzzy c-means algorithm and the clustered ...

  • PDF

Android-based Face detection using OpenCV (안드로이드 기반의 휴대용 스마트폰을 이용한 실시간 얼굴 검출)

  • Koo, Mose;Kim, Sang-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.1077-1079
    • /
    • 2020
  • 본 논문에서는 현재 활발히 연구 중에 있는 얼굴 인식의 전 과정인 얼굴 검출단계를 OpenCV를 이용한 안드로이드 기반의 휴대용 스마트폰으로 실시간 얼굴 및 눈 영역을 검출하는 어플리케이션의 개발을 수행하였다. 얼굴 검출 및 눈 검출 기술은 OpenCV에서 제공하는 실시간 얼굴 인식을 위해 이미지에서 얼굴의 특징을 찾는 기법 중 하나인 Haar-like Feature을 이용한 검출 방식을 사용하였다. 얼굴 검출 및 눈 검출에 대해 스마트폰에서 촬영한 이미지를 사용하여 구현 결과를 평가하였다.

Realtime Facial Expression Data Tracking System using Color Information (컬러 정보를 이용한 실시간 표정 데이터 추적 시스템)

  • Lee, Yun-Jung;Kim, Young-Bong
    • The Journal of the Korea Contents Association
    • /
    • v.9 no.7
    • /
    • pp.159-170
    • /
    • 2009
  • It is very important to extract the expression data and capture a face image from a video for online-based 3D face animation. In recently, there are many researches on vision-based approach that captures the expression of an actor in a video and applies them to 3D face model. In this paper, we propose an automatic data extraction system, which extracts and traces a face and expression data from realtime video inputs. The procedures of our system consist of three steps: face detection, face feature extraction, and face tracing. In face detection, we detect skin pixels using YCbCr skin color model and verifies the face area using Haar-based classifier. We use the brightness and color information for extracting the eyes and lips data related facial expression. We extract 10 feature points from eyes and lips area considering FAP defined in MPEG-4. Then, we trace the displacement of the extracted features from continuous frames using color probabilistic distribution model. The experiments showed that our system could trace the expression data to about 8fps.

Implementation of User Gesture Recognition System for manipulating a Floating Hologram Character (플로팅 홀로그램 캐릭터 조작을 위한 사용자 제스처 인식 시스템 구현)

  • Jang, Myeong-Soo;Lee, Woo-Beom
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.19 no.2
    • /
    • pp.143-149
    • /
    • 2019
  • Floating holograms are technologies that provide rich 3D stereoscopic images in a wide space such as advertisement, concert. In addition, It is possible to reduce the 3D glasses inconvenience, eye strain, and space distortion, and to enjoy 3D images with excellent realism and existence. Therefore, this paper implements a user gesture recognition system for manipulating a floating hologram characters that can be used in a small space devices. The proposed method detects face region using haar feature-based cascade classifier, and recognizes the user gestures using a user gesture-occurred position information that is acquired from the gesture difference image in real time. And Each classified gesture information is mapped to the character motion in floating hologram for manipulating a character action. In order to evaluate the performance of the proposed user gesture recognition system for manipulating a floating hologram character, we make the floating hologram display devise, and measures the recognition rate of each gesture repeatedly that includes body shaking, walking, hand shaking, and jumping. As a results, the average recognition rate was 88%.

Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region (눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현)

  • Yum, Hyosub;Hong, Min;Choi, Yoo-Joo
    • The Journal of Korean Association of Computer Education
    • /
    • v.17 no.2
    • /
    • pp.107-113
    • /
    • 2014
  • In this study, we design and implement an eye-gaze estimation system based on the extraction of eye contour and pupil region. In order to effectively extract the contour of the eye and region of pupil, the face candidate regions were extracted first. For the detection of face, YCbCr value range for normal Asian face color was defined by the pre-study of the Asian face images. The biggest skin color region was defined as a face candidate region and the eye regions were extracted by applying the contour and color feature analysis method to the upper 50% region of the face candidate region. The detected eye region was divided into three segments and the pupil pixels in each pupil segment were counted. The eye-gaze was determined into one of three directions, that is, left, center, and right, by the number of pupil pixels in three segments. In the experiments using 5,616 images of 20 test subjects, the eye-gaze was estimated with about 91 percent accuracy.

  • PDF