• 제목/요약/키워드: temporal feature

검색결과 313건 처리시간 0.035초

Spatial-temporal texture features for 3D human activity recognition using laser-based RGB-D videos

  • Ming, Yue;Wang, Guangchao;Hong, Xiaopeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권3호
    • /
    • pp.1595-1613
    • /
    • 2017
  • The IR camera and laser-based IR projector provide an effective solution for real-time collection of moving targets in RGB-D videos. Different from the traditional RGB videos, the captured depth videos are not affected by the illumination variation. In this paper, we propose a novel feature extraction framework to describe human activities based on the above optical video capturing method, namely spatial-temporal texture features for 3D human activity recognition. Spatial-temporal texture feature with depth information is insensitive to illumination and occlusions, and efficient for fine-motion description. The framework of our proposed algorithm begins with video acquisition based on laser projection, video preprocessing with visual background extraction and obtains spatial-temporal key images. Then, the texture features encoded from key images are used to generate discriminative features for human activity information. The experimental results based on the different databases and practical scenarios demonstrate the effectiveness of our proposed algorithm for the large-scale data sets.

Applying Lexical Semantics to Automatic Extraction of Temporal Expressions in Uyghur

  • Murat, Alim;Yusup, Azharjan;Iskandar, Zulkar;Yusup, Azragul;Abaydulla, Yusup
    • Journal of Information Processing Systems
    • /
    • 제14권4호
    • /
    • pp.824-836
    • /
    • 2018
  • The automatic extraction of temporal information from written texts is a key component of question answering and summarization systems and its efficacy in those systems is very decisive if a temporal expression (TE) is successfully extracted. In this paper, three different approaches for TE extraction in Uyghur are developed and analyzed. A novel approach which uses lexical semantics as an additional information is also presented to extend classical approaches which are mainly based on morphology and syntax. We used a manually annotated news dataset labeled with TIMEX3 tags and generated three models with different feature combinations. The experimental results show that the best run achieved 0.87 for Precision, 0.89 for Recall, and 0.88 for F1-Measure in Uyghur TE extraction. From the analysis of the results, we concluded that the application of semantic knowledge resolves ambiguity problem at shallower language analysis and significantly aids the development of more efficient Uyghur TE extraction system.

Sculptured 포켓 가공을 위한 가공특징형상 추출 (Manufacturing Feature Extraction for Sculptured Pocket Machining)

  • 주재구;조현보
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 1997년도 춘계학술대회 논문집
    • /
    • pp.455-459
    • /
    • 1997
  • A methodology which supports the feature used from design to manufacturing for sculptured pocket is newly devlored and present. The information contents in a feature can be easily conveyed from one application to another in the manufacturing domain. However, the feature generated in one application may not be directly suitable for another whitout being modified with more information. Theobjective of the paper is to parsent the methodology of decomposing a bulky feature of sculptured pocket to be removed into compact features to be efficiently machined. In particular, the paper focuses on the two task: 1) to segment horizontally a bulky feature into intermediate features by determining the adequate depth of cut and cutter size and to generate the temporal precedence graph of the intermediate features and 2)to further decompose each intermediate feature vertical into smaller manufacturing features and to apply the variable feed rate to each small feature. The proposed method will provid better efficiency in machining time and cost than the classical method which uses a long string of NC codes necessary to remove a bulky fecture.

  • PDF

훈련데이터 기반의 temporal filter를 적용한 4연숫자 전화음성 인식 (Recognition of Korean Connected Digit Telephone Speech Using the Training Data Based Temporal Filter)

  • 정성윤;배건성
    • 대한음성학회지:말소리
    • /
    • 제53호
    • /
    • pp.93-102
    • /
    • 2005
  • The performance of a speech recognition system is generally degraded in telephone environment because of distortions caused by background noise and various channel characteristics. In this paper, data-driven temporal filters are investigated to improve the performance of a specific recognition task such as telephone speech. Three different temporal filtering methods are presented with recognition results for Korean connected-digit telephone speech. Filter coefficients are derived from the cepstral domain feature vectors using the principal component analysis. According to experimental results, the proposed temporal filtering method has shown slightly better performance than the previous ones.

  • PDF

3D 입체 영상 시스템에서 신뢰도를 활용한 듀얼 모드 실시간 동기 에러 검출 및 보상 방법 (A Real-time Dual-mode Temporal Synchronization and Compensation based on Reliability Measure in Stereoscopic Video)

  • 김기석;조재수;이광순;이응돈
    • 방송공학회논문지
    • /
    • 제19권6호
    • /
    • pp.896-906
    • /
    • 2014
  • 본 논문에서는 3D 입체 영상시스템에서 신뢰도를 활용한 듀얼모드 실시간 동기에러 검출 및 보상방법을 제안한다. 3D 입체영상시스템의 동기오차 보상은 좌-우 영상시퀀스에서 동기오차를 검출하고, 검출된 동기오차만큼 보상하는 것이다. 3D 입체 영상시스템의 좌-우 동기 오차를 검출하는 알고리즘의 결과는 3D 입체 영상 콘텐츠에 따라서 그 동기에러 검출 결과의 정확도가 달라지는 문제점이 있다. 3D 입체 영상시스템의 동기 오차 검출을 위해 좌-우 영상의 페어 프레임 검출이 모든 3D 입체 콘텐츠의 영상에서 용이하지 않기 때문에 콘텐츠의 종류에 따라서 동기 에러 검출 알고리즘을 선별적으로 적용하는 방법이 필요하고, 동기 에러 검출의 결과를 신뢰할 수 있는 방법도 필요하다. 본 논문에서 활용하고자 하는 듀얼 모드 동기 에러 검출 알고리즘은 선행 연구[1]에서 새롭게 제안한 시간적 스패시오그램(temporal spatiogram) 방법과 기존의 텍스쳐 매칭(texture matching) 방법을 활용하였다. 동기에러 검출 결과에 대한 신뢰도를 측정하기 위해서 컨텐츠의 동적 특성(dynamics)과 구분성(distinction)을 새롭게 정의하였다. 제안된 듀얼 모드 동기 에러 검출 방법과 그 검출 결과에 대한 신뢰도 측정 방법은 다양한 3D 콘텐츠 영상들을 이용하여 실험하였고, 실제 3DTV 시스템에서의 동기 에러 검출 및 보상 실험 시스템에 실시간 구현하여 그 효용성을 입증하였다.

구름이 포함된 고해상도 다시기 위성영상의 자동 상호등록 (Automatic Co-registration of Cloud-covered High-resolution Multi-temporal Imagery)

  • 한유경;김용일;이원희
    • 대한공간정보학회지
    • /
    • 제21권4호
    • /
    • pp.101-107
    • /
    • 2013
  • 일반적으로 상용화되고 있는 고해상도 위성영상에는 좌표가 부여되어 있지만, 촬영 당시 센서의 자세나 지표면 특성 등에 따라서 영상 간의 지역적인 위치차이가 발생한다. 따라서 좌표를 일치시켜주는 영상 간 상호등록 과정이 필수적으로 적용되어야 한다. 하지만 영상 내에 구름이 분포할 경우 두 영상 간의 정합쌍을 추출하는데 어려움을 주며, 오정합쌍을 다수 추출하는 경향을 보인다. 이에 본 연구에서는 구름이 포함된 고해상도 KOMPSAT-2 영상간의 자동 기하보정을 수행하기 위한 방법론을 제안한다. 대표적인 특징기반 정합쌍 추출 기법인 SIFT 기법을 이용하였고, 기준영상의 특징점을 기준으로 원형 버퍼를 생성하여, 오직 버퍼 내에 존재하는 대상영상의 특징점만을 후보정합쌍으로 선정하여 정합률을 높이고자 하였다. 제안 기법을 구름이 포함된 다양한 실험지역에 적용한 결과, SIFT 기법에 비해 높은 정합률을 보였고, 상호등록 정확도를 향상시킴을 확인할 수 있었다.

SSNO 기반 시공간 시맨틱 센서 웹 (Spatio-Temporal Semantic Sensor Web based on SSNO)

  • 신인수;김수정;김정준;한기준
    • Spatial Information Research
    • /
    • 제22권5호
    • /
    • pp.9-18
    • /
    • 2014
  • 유비쿼터스 컴퓨팅 환경이 발전함에 따라 GeoSensor와 같이 GPS 기능을 보유한 센서로부터 생성된 시공간 센서 데이터 활용이 증가하고 있으며, 시공간 센서 데이터를 사용해 사용자에게 다양한 서비스를 효율적으로 제공해주기 위한 시맨틱 센서 웹이 연구되고 있다. 특히, W3C에서는 OGC의 SWE(Sensor Web Enablement)와 같은 센서 관련 표준들을 활용하고, 센서 데이터를 온톨로지로 표현할 수 있는 SSNO(Semantic Sensor Network Ontology)를 개발하였다. 그러나 이러한 연구들은 비시공간 센서 데이터에 대한 질의 처리는 가능하지만 시간과 공간 정보를 포함하는 시공간 센서 데이터를 효율적으로 처리하기 어렵다는 문제점이 존재한다. 따라서, 본 논문에서는 OGC의 "OpenGIS Simple Feature Specification for SQL"에서 제시한 공간 데이터 타입과 공간 연산자를 확장하여 시공간 데이터 타입과 시공간 연산자를 지원하는 SSNO 기반의 시공간 시맨틱 센서 웹을 개발하였다. SSNO 기반의 시공간 시맨틱 센서 웹은 시공간 센서 데이터인 SensorML(Sensor Model Language)과 O&M(Observations and Measurements) 스키마를 분석하여 SSNO 문서로 변환 및 저장하고, 시공간 연산자와 시공간 추론 규칙을 적용하여 효율적인 질의 처리를 수행한다. 마지막으로, 이러한 SSNO 기반의 시공간 시맨틱 센서 웹을 가상 시나리오에 적용해 봄으로써 본 시스템의 효용성을 검증하였다.

Spatio-Temporal Analysis of Trajectory for Pedestrian Activity Recognition

  • Kim, Young-Nam;Park, Jin-Hee;Kim, Moon-Hyun
    • Journal of Electrical Engineering and Technology
    • /
    • 제13권2호
    • /
    • pp.961-968
    • /
    • 2018
  • Recently, researches on automatic recognition of human activities have been actively carried out with the emergence of various intelligent systems. Since a large amount of visual data can be secured through Closed Circuit Television, it is required to recognize human behavior in a dynamic situation rather than a static situation. In this paper, we propose new intelligent human activity recognition model using the trajectory information extracted from the video sequence. The proposed model consists of three steps: segmentation and partitioning of trajectory step, feature extraction step, and behavioral learning step. First, the entire trajectory is fuzzy partitioned according to the motion characteristics, and then temporal features and spatial features are extracted. Using the extracted features, four pedestrian behaviors were modeled by decision tree learning algorithm and performance evaluation was performed. The experiments in this paper were conducted using Caviar data sets. Experimental results show that trajectory provides good activity recognition accuracy by extracting instantaneous property and distinctive regional property.

시스템 특성함수 기반 평균보상 TD(${\lambda}$) 학습을 통한 유한용량 Fab 스케줄링 근사화 (Capacitated Fab Scheduling Approximation using Average Reward TD(${\lambda}$) Learning based on System Feature Functions)

  • 최진영
    • 산업경영시스템학회지
    • /
    • 제34권4호
    • /
    • pp.189-196
    • /
    • 2011
  • In this paper, we propose a logical control-based actor-critic algorithm as an efficient approach for the approximation of the capacitated fab scheduling problem. We apply the average reward temporal-difference learning method for estimating the relative value functions of system states, while avoiding deadlock situation by Banker's algorithm. We consider the Intel mini-fab re-entrant line for the evaluation of the suggested algorithm and perform a numerical experiment by generating some sample system configurations randomly. We show that the suggested method has a prominent performance compared to other well-known heuristics.

Human Motion Recognition Based on Spatio-temporal Convolutional Neural Network

  • Hu, Zeyuan;Park, Sange-yun;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제23권8호
    • /
    • pp.977-985
    • /
    • 2020
  • Aiming at the problem of complex feature extraction and low accuracy in human action recognition, this paper proposed a network structure combining batch normalization algorithm with GoogLeNet network model. Applying Batch Normalization idea in the field of image classification to action recognition field, it improved the algorithm by normalizing the network input training sample by mini-batch. For convolutional network, RGB image was the spatial input, and stacked optical flows was the temporal input. Then, it fused the spatio-temporal networks to get the final action recognition result. It trained and evaluated the architecture on the standard video actions benchmarks of UCF101 and HMDB51, which achieved the accuracy of 93.42% and 67.82%. The results show that the improved convolutional neural network has a significant improvement in improving the recognition rate and has obvious advantages in action recognition.