• 제목/요약/키워드: data stream technology

검색결과 408건 처리시간 0.025초

비디오와 동기화된 물체의 위치정보 표현 data stream 생성 및 해석기 구현 (Generation and Interpretation of data stream for position data of objects synchronized with video)

  • 나희주;김정환;정문열
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2005년도 학술대회
    • /
    • pp.249-254
    • /
    • 2005
  • 본 논문은 디지털 방송 프로그램 진행 중 비디오의 특정 시점에 동기화된 특정 객체의 위치정보를 표현하는 data stream을 생성하고, 그 시점에 해당 위치 정보를 해석하는 해석기에 관한 것이다. 현재의 상용 스트림 생성기는 디지털 방송 표준에서 권고하는 스트림 이벤트의 발생 시각과 셋톱박스에서 디코딩 시에 사용할 참조값을 적절하게 생성하지 못하고 있다. 또한, 셋톱박스에서 동작하는 애플리케이션(Xlet) 역시 STC(System Time Clock), PCR(Program Clock Reference), NPT(Normal Play Time) 등의 시간값을 적절하게 읽어내지 못하고 있다. 더욱이, 현재의 디지털 방송 표준에서는 영상 내 특정 객체를 위해 정보를 제공하는 데에는 한계가 있다. 따라서, 본 논문에서는 다양한 연동형 디지털 방송 프로그램 제작을 위해 비디오의 특정 시점에 동기화된 객체의 위치정보를 표현하는 data stream을 생성하는 방법과, 동기화된 데이터를 처리하는 애플리케이션에 대해서 설명한다.

  • PDF

Multi-dimensional Query Authentication for On-line Stream Analytics

  • Chen, Xiangrui;Kim, Gyoung-Bae;Bae, Hae-Young
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제4권2호
    • /
    • pp.154-173
    • /
    • 2010
  • Database outsourcing is unavoidable in the near future. In the scenario of data stream outsourcing, the data owner continuously publishes the latest data and associated authentication information through a service provider. Clients may register queries to the service provider and verify the result's correctness, utilizing the additional authentication information. Research on On-line Stream Analytics (OLSA) is motivated by extending the data cube technology for higher multi-level abstraction on the low-level-abstracted data streams. Existing work on OLSA fails to consider the issue of database outsourcing, while previous work on stream authentication does not support OLSA. To close this gap and solve the problem of OLSA query authentication while outsourcing data streams, we propose MDAHRB and MDAHB, two multi-dimensional authentication approaches. They are based on the general data model for OLSA, the stream cube. First, we improve the data structure of the H-tree, which is used to store the stream cube. Then, we design and implement two authentication schemes based on the improved H-trees, the HRB- and HB-trees, in accordance with the main stream query authentication framework for database outsourcing. Along with a cost models analysis, consistent with state-of-the-art cost metrics, an experimental evaluation is performed on a real data set. It exhibits that both MDAHRB and MDAHB are feasible for authenticating OLSA queries, while MDAHRB is more scalable.

Uncertainty quantification of PWR spent fuel due to nuclear data and modeling parameters

  • Ebiwonjumi, Bamidele;Kong, Chidong;Zhang, Peng;Cherezov, Alexey;Lee, Deokjung
    • Nuclear Engineering and Technology
    • /
    • 제53권3호
    • /
    • pp.715-731
    • /
    • 2021
  • Uncertainties are calculated for pressurized water reactor (PWR) spent nuclear fuel (SNF) characteristics. The deterministic code STREAM is currently being used as an SNF analysis tool to obtain isotopic inventory, radioactivity, decay heat, neutron and gamma source strengths. The SNF analysis capability of STREAM was recently validated. However, the uncertainty analysis is yet to be conducted. To estimate the uncertainty due to nuclear data, STREAM is used to perturb nuclear cross section (XS) and resonance integral (RI) libraries produced by NJOY99. The perturbation of XS and RI involves the stochastic sampling of ENDF/B-VII.1 covariance data. To estimate the uncertainty due to modeling parameters (fuel design and irradiation history), surrogate models are built based on polynomial chaos expansion (PCE) and variance-based sensitivity indices (i.e., Sobol' indices) are employed to perform global sensitivity analysis (GSA). The calculation results indicate that uncertainty of SNF due to modeling parameters are also very important and as a result can contribute significantly to the difference of uncertainties due to nuclear data and modeling parameters. In addition, the surrogate model offers a computationally efficient approach with significantly reduced computation time, to accurately evaluate uncertainties of SNF integral characteristics.

u-Health 시스템에서 슬라이딩 윈도우 기반 스트림 데이터 처리 (Stream Data Processing based on Sliding Window at u-Health System)

  • 김태연;송병호;배상현
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권2호
    • /
    • pp.103-110
    • /
    • 2011
  • u-Health 시스템의 센서들로부터 측정된 데이터에 대한 정확하고 에너지 효율적인 관리가 필요하다. 센서네트워크에서 대용량의 입력 스트림 데이터 전체를 데이터베이스에 모두 저장하여 한꺼번에 처리하는 것은 효율적이지 못하다. 본 논문에서는 u-Health 시스템 내 센서 네트워크의 에너지 효율성과 정확성을 고려하여 여러 센서에서 지속적으로 들어오는 다차원 스트림 데이터의 처리 성능을 높이고자 한다. 효율적인 입력 스트림 처리를 위해서 슬라이딩 윈도우 기반으로 질의를 처리하고 Mjoin 방법으로 다중 질의 계획을 수립한 후 역전파 알고리즘을 통해 저장 데이터를 축소하는 효율적인 처리 기법을 제안한다. 14,324개의 데이터 집합을 사용하여 실험한 결과 실제 입력되는 데이터보다 저장 공간의 18.3%를 축소함으로써 효과적임을 보였다.

Java 기반 실시간 센서 데이터스트림처리 및 임베디드 시스템 구현 (Jave based Embedded System Design and Implementation for Real-time Stream Data Processing)

  • 김휴찬;고완기;박상열
    • 디지털산업정보학회논문지
    • /
    • 제4권2호
    • /
    • pp.1-12
    • /
    • 2008
  • Home network is a technology that provides possibilities of monitoring/controling/mutilating-recognition between optional home network machines in residences. Currently, home network or other networks like entertainment, residential electronic networks are jumbled together with heterogeneous networks in a rampaging condition. In a reality of high expectation for home networks system like the mutual application for various machines, we are required to have the unification technology for conveniences to satisfy expectations. This thesis reflects how to develop Java applications or mutual products based on convenient interfaces actually that process various sensors which create real time data stream in Java platform through Java based sensor data-stream processing embedded middleware design and realization in real time.

Development of an Event Stream Processing System for the Vehicle Telematics Environment

  • Kim, Jong-Ik;Kwon, Oh-Cheon;Kim, Hyun-Suk
    • ETRI Journal
    • /
    • 제31권4호
    • /
    • pp.463-465
    • /
    • 2009
  • In this letter, we present an event stream processing system that can evaluate a pattern query for a data sequence with predicates. We propose a pattern query language and develop a pattern query processing system. In our system, we propose novel techniques for run-time aggregation and negation processing and apply our system to stream data generated from vehicles to monitor unusual driving patterns.

Performance Evaluation and Analysis of Multiple Scenarios of Big Data Stream Computing on Storm Platform

  • Sun, Dawei;Yan, Hongbin;Gao, Shang;Zhou, Zhangbing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권7호
    • /
    • pp.2977-2997
    • /
    • 2018
  • In big data era, fresh data grows rapidly every day. More than 30,000 gigabytes of data are created every second and the rate is accelerating. Many organizations rely heavily on real time streaming, while big data stream computing helps them spot opportunities and risks from real time big data. Storm, one of the most common online stream computing platforms, has been used for big data stream computing, with response time ranging from milliseconds to sub-seconds. The performance of Storm plays a crucial role in different application scenarios, however, few studies were conducted to evaluate the performance of Storm. In this paper, we investigate the performance of Storm under different application scenarios. Our experimental results show that throughput and latency of Storm are greatly affected by the number of instances of each vertex in task topology, and the number of available resources in data center. The fault-tolerant mechanism of Storm works well in most big data stream computing environments. As a result, it is suggested that a dynamic topology, an elastic scheduling framework, and a memory based fault-tolerant mechanism are necessary for providing high throughput and low latency services on Storm platform.

하천의 물리 환경성 평가체계의 적용 - 도시하천을 중심으로 - (An Application of Physico-Environmental Evaluation System of Stream - Focusing on urban streams -)

  • 정혜련;김기흥
    • 한국환경복원기술학회지
    • /
    • 제20권1호
    • /
    • pp.55-75
    • /
    • 2017
  • The purpose of this study is to present the basic data for restoration of physical stream environment by analyzing habitat variables because habitat environment is changed due to the construction of waterfront space in urban streams. Assessment results of 10 habitat variables(three divisions) were almost same as optimal condition, in the reach of reference stream where there are no stream crossing structures and channel alteration. Assessment results of reaches in urban rivers, where streams were improved on water-friendly recreation activities, appeared to be marginal condition. Because habitat environment got worse due to stream improvement works such as construction of weir for water landscape, stepping stones for walking, low water revetment and high water revetment, and high water channel. In addition, in the case of mid gradient stream, the frequency of riffles was small or not existed because the intervals of the river crossing structures was short. In the case of mild stream types, the diversity of the pool was damaged due to the deposition of sludge in the upstream pool of weir and the installation of low water revetment.

WT-Heuristics: 스트림 데이터 환경에서의 효율적인 필터 연산자 순서화 기법 (WT-Heuristics: An Efficient Filter Operator Ordering Technology in Stream Data Environments)

  • 민준기
    • 정보처리학회논문지D
    • /
    • 제15D권2호
    • /
    • pp.163-170
    • /
    • 2008
  • 인터넷과 인트라넷의 확산에 따라, 스트림 데이터 처리 (stream data processing) 와 같은 새로운 분야가 등장하게 되었다. 스트림 데이터는 실시간적이고 연속적으로 생성된다. 본 논문에서는 시간에 따라서 예측할 수 없게 특성이 바뀌는 데이터 스트림에 대한 처리에 대하여 다룬다. 특별히, 본 논문에서는 스트림 데이터에 대한 질의문을 구성하는 연산자들 간의 효율적인 수행 순서 생성 기법인 WT-Heuristics를 제안한다. WT-Heuristics 기법은 연산 실행 순서에서 인접한 두 연산자들의 연산 순서만을 고려함으로써 효율적으로 연산자 순서를 결정할 수 있다. 또한 본 논문에서 제안하는 방법은 시스템의 부담을 적게 주면서도 데이터의 변화에 따라 수행 순서를 변화시킨다.

디지털 방송 서비스에서 트랜스포트 스트림 분석 및 파싱 능력 향상에 관한 연구 (A Study on Transport Stream Analysis and Parsing Ability Enhancement in Digital Broadcasting and Service)

  • 김장원
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권6호
    • /
    • pp.552-557
    • /
    • 2017
  • 유 무선 디지털 방송이 고화질 TV의 탄생과 함께 2010년 이후로 급격하게 확산되었으며, 단방향 콘텐츠 이용뿐만 아니라 양방향 콘텐츠 이용이 급격하게 증가되고 있다. 현재 우리나라 위성 통신망에서는 유럽 디지털 방송 표준화기구의 DVB를 국내 데이터 방송의 표준으로 채택하고 있으며, IPTV의 발전에 의해 선택적 콘텐츠의 이용방법도 또한 다양하게 연구되었다. 디지털 방송에서는 MPEG-2 system의 비디오, 오디오, 그리고 데이터 등의 멀티미디어 정보를 전송하기 위해 정보를 다중화 하는 방식으로 Transport Stream Packet(TSP)을 이용한 방식을 사용하는데, 이 Stream에는 비디오, 오디오 정보는 물론, TV 편성표와 프로그램에 대한 상세한 정보까지도 포함되어 있다. 본 연구에서는 이러한 데이터 방송 시스템을 이해하기 위하여 Linux 환경에서 Transport Stream(TS)을 Packet별로 구분하고 각각의 기능별로 분석, 출력해주는 TS Analyzer를 구현하였으며, TS의 이해를 돕고 Stream Parsing 능력향상을 이룰 수 있었다.