• 제목/요약/키워드: Depth Feature

검색결과 428건 처리시간 0.026초

Depth edge detection by image-based smoothing and morphological operations

  • Abid Hasan, Syed Mohammad;Ko, Kwanghee
    • Journal of Computational Design and Engineering
    • /
    • 제3권3호
    • /
    • pp.191-197
    • /
    • 2016
  • Since 3D measurement technologies have been widely used in manufacturing industries edge detection in a depth image plays an important role in computer vision applications. In this paper, we have proposed an edge detection process in a depth image based on the image based smoothing and morphological operations. In this method we have used the principle of Median filtering, which has a renowned feature for edge preservation properties. The edge detection was done based on Canny Edge detection principle and was improvised with morphological operations, which are represented as combinations of erosion and dilation. Later, we compared our results with some existing methods and exhibited that this method produced better results. However, this method works in multiframe applications with effective framerates. Thus this technique will aid to detect edges robustly from depth images and contribute to promote applications in depth images such as object detection, object segmentation, etc.

깊이영상에서 실시간 얼굴 검출을 위한 I-MCTBoost (The I-MCTBoost Classifier for Real-time Face Detection in Depth Image)

  • 주성일;원선희;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.25-35
    • /
    • 2014
  • 본 논문에서는 실시간 얼굴 검출을 위한 부스팅 기반 분류 방법을 제안한다. 제안하는 방법에서는 조명과 얼굴크기 및 변형에 강건하게 얼굴을 검출하기 위해 깊이영상을 이용하고, 깊이차이특징을 사용하여 I-MCTBoost 분류기를 통해 학습 및 인식을 수행한다. I-MCTBoost는 약분류기로 구성된 강분류기들의 연결을 통해 인식을 수행한다. 약분류기의 학습 과정은 깊이차이특징을 생성하고, 이중에서 8개의 특징을 조합하여 약분류기를 구성하며 이때 각 특징은 2진비트(binary bit)로 표현된다. 강분류기는 정해진 약분류기의 개수만큼 반복적으로 약분류기를 선택하는 과정을 통해 학습이 이루어지며, 학습 과정에서 학습 샘플의 가중치를 갱신하고 학습 데이터를 추가하여 강건한 분류를 수행할 수 있도록 한다. 본 논문에서는 깊이차이특징에 대해 설명하고 이를 이용한 I-MCTBoost의 약분류기 학습 방법과 강분류기 학습 방법에 대해 제안한다. 마지막으로 제안된 분류기를 기존 MCT를 이용한 분류기와 정성적, 정량적 분석을 통해 비교하고 제안한 분류기의 타당성과 효율성을 입증한다.

변이-움직임 관계와 특징점을 이용한 계층적 3차원 모델링 (Hierarchical 3D modeling using disparity-motion relationship and feature points)

  • 이호근;한규필;하영호
    • 대한전자공학회논문지SP
    • /
    • 제39권1호
    • /
    • pp.9-16
    • /
    • 2002
  • 본 논문에서는 변이-움직임의 관계와 특징점을 이용하여 계층적으로 3차원 모델을 만드는 새로운 방법을 제안한다. 일반적으로 실제 영상으로부터 3차원 모델을 만들기 위해서는 두 영상 전체의 대응 정보를 이용해서 모델의 노드에 해당하는 부분의 깊이 정보를 구해야 한다. 그러나, 이 작업은 시간이 많이 소요될 뿐만 아니라 정확한 깊이 정보를 얻기가 어렵다. 이러한 문제점을 개선하기 위해 제안하는 방법에서는 전 영상의 대응 정보 없이 특징점에 대한 대응 정보만으로 모델을 구한다. 제안한 방법은 객체의 추출, 추출된 객체 내에서의 특징점 추출, 추출된 특징점을 이용한 계층적 3차원 모델 생성의 세 부분으로 구성되며, 제안한 방법은 3차원 모델 생성시 적은 연산이 소요될 뿐만 아니라 임의의 시각 관점 영상의 생성과 평탄 영역의 평탄성과 경계 영역의 선명성 표현에도 효과적이다.

계층적 특징 학습을 이용한 3차원 물체 인식 시스템의 설계 (Design of the 3D Object Recognition System with Hierarchical Feature Learning)

  • 김주희;김동하;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.13-20
    • /
    • 2016
  • 본 논문에서는 계층적 특징 학습을 이용하여 물체의 컬러 영상과 깊이 영상으로부터 해당 물체가 속한 범주와 개체, 그리고 다양한 속성들을 효과적으로 인식할 수 있는 시스템을 제안한다. 본 시스템의 전처리 단계에서는 물체의 깊이 영상을 물체의 모양 정보를 좀 더 효과적으로 표현할 수 있는 표면 법선 벡터 데이터로 변환하고, 특징 학습 단계에서는 물체의 컬러 영상과 표면 법선 벡터 데이터로부터 두 단계에 걸쳐 패치 단위 특징과 이미지 단위의 특징을 추출해낸다. 그리고 추출된 특징 벡터들과 SVM 학습 알고리즘을 이용하여 각기 독립적인 다수의 분류 모델들을 학습한다. 미국 워싱턴 대학의 RGB-D 물체 데이터 집합을 이용한 실험을 통해, 본 논문에서 제안하는 물체 인식 시스템의 높은 성능을 확인할 수 있었다.

젖소의 개체인식 및 형상 정보화를 위한 컴퓨터 시각 시스템 개발(II) - 스테레오 영상을 이용한 체위 분석 - (Development of Computer Vision System for Individual Recognition and Feature Information of Cow (II) - Analysis of body parameters using stereo image -)

  • 이종환
    • Journal of Biosystems Engineering
    • /
    • 제28권1호
    • /
    • pp.65-76
    • /
    • 2003
  • The analysis of cow body parameters is important to provide some useful information fur cow management and cow evaluation. Present methods give many stresses to cows because they are invasive and constrain cow postures during measurement of body parameters. This study was conducted to develop the stereo vision system fur non-invasive analysis of cow body features. Body feature parameters of 16 heads at two farms(A, B) were measured using scales and nineteen stereo images of them with walking postures were captured under outdoor illumination. In this study, the camera calibration and inverse perspective transformation technique was established fer the stereo vision system. Two calibration results were presented for farm A and fm B, respectively because setup distances from camera to cow were 510 cm at farm A and 630cm at farm B. Calibration error values fer the stereo vision system were within 2 cm for farm A and less than 4.9 cm for farm B. Eleven feature points of cow body were extracted on stereo images interactively and five assistant points were determined by computer program. 3D world coordinates for these 15 points were calculated by computer program and also used for calculation of cow body parameters such as withers height. pelvic arch height. body length. slope body length. chest depth and chest width. Measured errors for body parameters were less than 10% for most cows. For a few cow. measured errors for slope body length and chest width were more than 10% due to searching errors fer their feature points at inside-body positions. Equation for chest girth estimated by chest depth and chest width was presented. Maximum of estimated error fur chest girth was within 10% of real values and mean value of estimated error was 8.2cm. The analysis of cow body parameters using stereo vision system were successful although body shape on the binocular stereo image was distorted due to cow movements.

Real-Time Container Shape and Range Recognition for Implementation of Container Auto-Landing System

  • Wei, Li;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제12권6호
    • /
    • pp.794-803
    • /
    • 2009
  • In this paper, we will present a container auto-landing system, the system use the stereo camera to measure the container depth information. And the container region can be detected by using its hough line feature. In the line feature detection algorithm, we will detect the parallel lines and perpendicular lines which compose the rectangle region. Among all the candidate regions, we can select the region with the same aspect-ratio to the container. The region will be the detected container region. After having the object on both left and right images, we can estimate the distance from camera to object and container dimension. Then all the detect dimension information and depth inform will be applied to reconstruct the virtual environment of crane which will be introduce in this paper. Through the simulation result, we can know that, the container detection rate achieve to 97% with simple background. And the estimation algorithm can get a more accuracy result with a far distance than the near distance.

  • PDF

A Real-time Face Tracking Algorithm using Improved CamShift with Depth Information

  • Lee, Jun-Hwan;Jung, Hyun-jo;Yoo, Jisang
    • Journal of Electrical Engineering and Technology
    • /
    • 제12권5호
    • /
    • pp.2067-2078
    • /
    • 2017
  • In this paper, a new face tracking algorithm is proposed. The CamShift (Continuously adaptive mean SHIFT) algorithm shows unstable tracking when there exist objects with similar color to that of face in the background. This drawback of the CamShift is resolved by the proposed algorithm using Kinect's pixel-by-pixel depth information and the skin detection method to extract candidate skin regions in HSV color space. Additionally, even when the target face is disappeared, or occluded, the proposed algorithm makes it robust to this occlusion by the feature point matching. Through experimental results, it is shown that the proposed algorithm is superior in tracking performance to that of existing TLD (Tracking-Learning-Detection) algorithm, and offers faster processing speed. Also, it overcomes all the existing shortfalls of CamShift with almost comparable processing time.

Spatial-temporal texture features for 3D human activity recognition using laser-based RGB-D videos

  • Ming, Yue;Wang, Guangchao;Hong, Xiaopeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권3호
    • /
    • pp.1595-1613
    • /
    • 2017
  • The IR camera and laser-based IR projector provide an effective solution for real-time collection of moving targets in RGB-D videos. Different from the traditional RGB videos, the captured depth videos are not affected by the illumination variation. In this paper, we propose a novel feature extraction framework to describe human activities based on the above optical video capturing method, namely spatial-temporal texture features for 3D human activity recognition. Spatial-temporal texture feature with depth information is insensitive to illumination and occlusions, and efficient for fine-motion description. The framework of our proposed algorithm begins with video acquisition based on laser projection, video preprocessing with visual background extraction and obtains spatial-temporal key images. Then, the texture features encoded from key images are used to generate discriminative features for human activity information. The experimental results based on the different databases and practical scenarios demonstrate the effectiveness of our proposed algorithm for the large-scale data sets.

단일 키넥트를 이용한 골프 스윙 특징의 자동 추출 (Automatic extraction of golf swing features using a single Kinect)

  • 김병기
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권12호
    • /
    • pp.197-207
    • /
    • 2014
  • 본 논문에서는 실용적인 TOF 카메라인 키넥트(Kinect) 한 대를 이용하여 골프 스윙의 자동 분석에 필요한 스윙 특징들을 자동 추출하는 효율적인 방법을 제안하였다. 제안한 방법은 키넥트가 제공하는 관절정보와 깊이(Depth) 정보를 이용하여, 골프스윙에서 중요한 7개의 키프레임과 각 키프레임에서 중요한 스윙특징들을 자동 추출한다. 10명의 골퍼들로부터 구한 50회의 스윙데이터에 대하여 성능을 확인 하였다. 제안한 방법은 설치가 간단하면서도 비용이 저렴한 환경에서 의미 있는 3차원 골프스윙 특징 추출이 가능하고, 구체적인 수치 값을 자동으로 제시하므로 실제적인 자가 스윙분석 시스템 개발에 사용될 수 있다는 점에서 의의가 있다.

Human Activities Recognition Based on Skeleton Information via Sparse Representation

  • Liu, Suolan;Kong, Lizhi;Wang, Hongyuan
    • Journal of Computing Science and Engineering
    • /
    • 제12권1호
    • /
    • pp.1-11
    • /
    • 2018
  • Human activities recognition is a challenging task due to its complexity of human movements and the variety performed by different subjects for the same action. This paper presents a recognition algorithm by using skeleton information generated from depth maps. Concatenating motion features and temporal constraint feature produces feature vector. Reducing dictionary scale proposes an improved fast classifier based on sparse representation. The developed method is shown to be effective by recognizing different activities on the UTD-MHAD dataset. Comparison results indicate superior performance of our method over some existing methods.