• 제목/요약/키워드: Direction of Action Recognition

검색결과 19건 처리시간 0.027초

일반화된 4차원 특징을 이용한 행동 방향 인식 (Recognizing the Direction of Action using Generalized 4D Features)

  • 김선정;김수완;최진영
    • 한국지능시스템학회논문지
    • /
    • 제24권5호
    • /
    • pp.518-528
    • /
    • 2014
  • 본 논문에서는 4차원 시공간 (4D-ST, [x,y,z,t]) 특징을 이용하여 행동 방향을 인식하는 방법을 제안한다. 이를 위해 4차원 시공간 특징점 (4D-STIPs, [x,y,z,t])을 제안하였고, 이는 여러 다른 뷰에서 촬영한 이미지들로부터 복원된 3차원 공간 (3D-S, [x,y,z]) 볼륨으로부터 계산된다. 3차원 공간정보를 갖고 있는 3D-S 볼륨과 4D-STIPs는 2차원 공간 (2D-S, [x,y]) 뷰로 사영을 하여 임의의 2D-S 뷰에서의 특징을 생성해 낼 수 있다. 이 때, 사영 방향을 결정 할 수 있으므로, 학습 시 방향에 대한 정보를 포함하여 행동 방향을 인식 할 수 있다. 행동 방향을 인식하는 과정은 두 단계로 나눌 수 있는데, 우선 어떤 행동인지를 인식하고 그 후, 방향 정보를 이용하여 최종적으로 행동 방향을 인식한다. 행동 인식과 방향 인식을 위해, 사영된 3D-S 볼륨과 4D-STIPs은 각각 움직이는 부분과 움직이지 않는 부분에 대한 정보를 담고 있는 motion history images (MHIs)와 non-motion history images (NMHIs)로 구성된다. 이러한 특징들은 행동 인식을 위해, 방향 정보에 상관없이 같은 행동이면 같은 클래스로 분류되어 support vector data description (SVDD) 분류기로 학습되고, support vector domain density description (SVDDD)을 이용하여 인식된다. 인식된 행동에서 최종적으로 방향을 인식하기 위해 각 행동을 방향 클래스로 분류하여 SVDD 분류기로 학습하고 SVDDD로 인식한다. 제안된 방법의 성능을 보이기 위해서 INRIA Xmas Motion Acquisition Sequences (IXMAS) 데이터셋에서 제공하는 3D-S 볼륨을 사용하여 학습을 하고, 행동 방향 인식 실험이 가능한 SNU 데이터셋을 구축하여 인식 실험을 하였다.

지휘행동 이해를 위한 손동작 인식 (Hand Gesture Recognition for Understanding Conducting Action)

  • 제홍모;김지만;김대진
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 가을 학술발표논문집 Vol.34 No.2 (C)
    • /
    • pp.263-266
    • /
    • 2007
  • We introduce a vision-based hand gesture recognition fer understanding musical time and patterns without extra special devices. We suggest a simple and reliable vision-based hand gesture recognition having two features First, the motion-direction code is proposed, which is a quantized code for motion directions. Second, the conducting feature point (CFP) where the point of sudden motion changes is also proposed. The proposed hand gesture recognition system extracts the human hand region by segmenting the depth information generated by stereo matching of image sequences. And then, it follows the motion of the center of the gravity(COG) of the extracted hand region and generates the gesture features such as CFP and the direction-code finally, we obtain the current timing pattern of beat and tempo of the playing music. The experimental results on the test data set show that the musical time pattern and tempo recognition rate is over 86.42% for the motion histogram matching, and 79.75% fer the CFP tracking only.

  • PDF

Development of Low-Cost Vision-based Eye Tracking Algorithm for Information Augmented Interactive System

  • Park, Seo-Jeon;Kim, Byung-Gyu
    • Journal of Multimedia Information System
    • /
    • 제7권1호
    • /
    • pp.11-16
    • /
    • 2020
  • Deep Learning has become the most important technology in the field of artificial intelligence machine learning, with its high performance overwhelming existing methods in various applications. In this paper, an interactive window service based on object recognition technology is proposed. The main goal is to implement an object recognition technology using this deep learning technology to remove the existing eye tracking technology, which requires users to wear eye tracking devices themselves, and to implement an eye tracking technology that uses only usual cameras to track users' eye. We design an interactive system based on efficient eye detection and pupil tracking method that can verify the user's eye movement. To estimate the view-direction of user's eye, we initialize to make the reference (origin) coordinate. Then the view direction is estimated from the extracted eye pupils from the origin coordinate. Also, we propose a blink detection technique based on the eye apply ratio (EAR). With the extracted view direction and eye action, we provide some augmented information of interest without the existing complex and expensive eye-tracking systems with various service topics and situations. For verification, the user guiding service is implemented as a proto-type model with the school map to inform the location information of the desired location or building.

The Hidden Object Searching Method for Distributed Autonomous Robotic Systems

  • Yoon, Han-Ul;Lee, Dong-Hoon;Sim, Kwee-Bo
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1044-1047
    • /
    • 2005
  • In this paper, we present the strategy of object search for distributed autonomous robotic systems (DARS). The DARS are the systems that consist of multiple autonomous robotic agents to whom required functions are distributed. For instance, the agents should recognize their surrounding at where they are located and generate some rules to act upon by themselves. In this paper, we introduce the strategy for multiple DARS robots to search a hidden object at the unknown area. First, we present an area-based action making process to determine the direction change of the robots during their maneuvers. Second, we also present Q learning adaptation to enhance the area-based action making process. Third, we introduce the coordinate system to represent a robot's current location. In the end of this paper, we show experimental results using hexagon-based Q learning to find the hidden object.

  • PDF

인공표식과 자연표식을 결합한 강인한 자기위치추정 (Self-localization of Mobile Robots by the Detection and Recognition of Landmarks)

  • 권인소;장기정;김성호;이왕헌
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2003년도 춘계학술대회 논문집
    • /
    • pp.306-311
    • /
    • 2003
  • This paper presents a novel localization paradigm for mobile robots based on artificial and natural landmarks. A model-based object recognition method detects natural landmarks and conducts the global and topological localization. In addition, a metric localization method using artificial landmarks is fused to complement the deficiency of topology map and guide to action behavior. The recognition algorithm uses a modified local Zernike moments and a probabilistic voting method for the robust detection of objects in cluttered indoor environments. An artificial landmark is designed to have a three-dimensional multi-colored structure and the projection distortion of the structure encodes the distance and viewing direction of the robot. We demonstrate the feasibility of the proposed system through real world experiments using a mobile robot, KASIRI-III.

  • PDF

키넥트 센서 기반 격투액션 게임을 위한 제스처 인식에 관한 연구 (The Study on Gesture Recognition for Fighting Games based on Kinect Sensor)

  • 김종민;김은영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 추계학술대회
    • /
    • pp.552-555
    • /
    • 2018
  • 본 논문에서는 키넥트 센서를 이용한 제스처 인식 방법을 개발하고, 이를 이용한 격투액션 제어 인터페이스를 제안한다. 제스처의 패턴 특징을 추출하기 위해서는 단순한 절대 위치 정보를 이용하는 것이 아닌, 어깨를 중심으로 한 신체 비율 특성을 고려하여 특징을 추출하는 방법을 이용한다. 하지만 동일한 제스처를 수행하더라도 키넥트 센서에 포착되는 각 관절의 위치 좌표값들은 팔의 길이와 방향에 따라 달라질 수 있다는 문제점이 있다. 그래서 논문에서는 제스처를 모델링하고 분석하기 위해 주성분 분석법을 사용하는 방법을 기술한다. 이 방법을 사용함으로서 데이터가 가지는 에러의 영향을 줄일 수 있게 되고, 차원축약의 효과를 얻을 수 있게 된다. 또한 동작 인식 시스템의 동작 제약을 줄이기 위한 방법으로 수정된 매칭 알고리즘을 제안한다.

  • PDF

플랫폼에 따른 테니스 게임 플레이어 액션의 추상화 연구 (Abstraction of players action in tennis games over various platform)

  • 정돈욱
    • 디지털콘텐츠학회 논문지
    • /
    • 제16권4호
    • /
    • pp.635-643
    • /
    • 2015
  • 본 연구에서는 게임에서 플레이어가 행하는 동작이 게임에서 추상화되는데 있어 어떤 형태를 가지는지 테니스 게임을 중심으로 다양한 플랫폼을 통해 사례연구를 수행하였다. 특히 추상화되어진 테니스 액션에서 얻을 수 있는 플레이어 경험의 형태를 로렐(laurel)이 제시한 모델에 따라 이동, 스윙, 방향과 세기, 스킬의 4가지로 축약하여, 초기 비디오 게임, 콘솔 게임, 모바일 게임, 동작인식 게임, 웨어러블 게임 등에서 조망하고 이를 도식화 하였다. 결론적으로 기술에 발전에 따른 플랫폼의 변화는 버튼을 누르던 단조로운 게임 플레이에서 직접 라켓을 휘두르는 것과 같은 물리적 유사 행위로 치환되어 확장된 경험을 플레이어에게 제공한다. 나아가 인터페이스에 따라 행위의 차이는 약간씩 발견되나 문맥 자체는 일관성이 있음을 알 수 있었다.

화장에 관한 기존연구 유형의 분석 (Analysis of Previous Make-up Study)

  • 백경진;김미영
    • 복식문화연구
    • /
    • 제12권1호
    • /
    • pp.182-198
    • /
    • 2004
  • The purpose of this study was to analyze the previous make-up studies. A number of publications and journals were reviewed and analyzed carefully. The results of review and analysis were as follows: There were many different subjects in make-up studies and They can be divided into ten types : cosmetics purchase behavior, change of make-up culture and comparison, make-up trend by era, cosmetics industry's standing of today and strategy, art trend in make-up, brand preference of cosmetics, make up attitude, recognition about imported cosmetics and purchase behavior, color preference of cosmetics, the relationship between self-concept and make-up. In general, the cosmetic purchase behavior studies are conducted most actively. According to result that analyze existent study, special duality of cosmetics purchase action appears very variously according to standard of classification of study target and study target. But, study target and method of study are not various, and purchase behavior study collected with make-un and clothes is yew lacking. Therefore, in this study, wished to discover problem of virtue study because analyzes studies about previous make-up and present forward study direction.

  • PDF

휴먼 보행 동작 구조 분석을 위한 통계적 모델링 방법 (Statistical Modeling Methods for Analyzing Human Gait Structure)

  • 신봉기
    • 스마트미디어저널
    • /
    • 제1권2호
    • /
    • pp.12-22
    • /
    • 2012
  • 최근 비디오 감시, 로봇 시각 휴대폰 등 무수히 많은 카메라가 생활 속에 파고들면서 휴먼 동작 인식은 컴퓨터 시각 분야의 새로운 붐을 일으키고 있다. 자체로 그다지 흥미 있는 동작은 아니지만 걸음걸이 또는 보행은 가장 보편적으로 많이 관찰되는, 의심할 여지없이 사람의 대표적인 동작이다. 그리 오래되지 않은 과거에 보행자 인식의 관점에서 반짝 연구가 있었지만 관심의 길이가 짧은 만큼 보행 동작에 관한 체계적인 분석과 이해 없이 이루어졌었다. 본 연구에서는 일련의 점진적인 모델을 이용하여 보행 동작의 구조를 체계적으로 분석하고자 한다. 입력 영상 신호의 다양한 변형과 불완전성을 극복할 수 있는 동적 베이스망 기반의 보행자 모델과 보행 모델을 제시한다. 그리고 이변량 폰 미제스 분포의 조건부 밀도 함수를 기반으로 마르코프 체인의 이산 상태 공간을 연속 공간으로 확장하는 방법을 제안한다. 제안된 모형화 프레임워크를 이용한 일련의 시험, 분석에서 보행자를 91.67% 인식하며 보행 동작을 보행 방향과 보행 자세의 두 가지 독립적인 성분으로 분리 해석할 수 있었다.

  • PDF

Vision-Based Finger Action Recognition by Angle Detection and Contour Analysis

  • Lee, Dae-Ho;Lee, Seung-Gwan
    • ETRI Journal
    • /
    • 제33권3호
    • /
    • pp.415-422
    • /
    • 2011
  • In this paper, we present a novel vision-based method of recognizing finger actions for use in electronic appliance interfaces. Human skin is first detected by color and consecutive motion information. Then, fingertips are detected by a novel scale-invariant angle detection based on a variable k-cosine. Fingertip tracking is implemented by detected region-based tracking. By analyzing the contour of the tracked fingertip, fingertip parameters, such as position, thickness, and direction, are calculated. Finger actions, such as moving, clicking, and pointing, are recognized by analyzing these fingertip parameters. Experimental results show that the proposed angle detection can correctly detect fingertips, and that the recognized actions can be used for the interface with electronic appliances.