• Title/Summary/Keyword: 데이터 처리량

Search Result 2,586, Processing Time 0.037 seconds

Parallel Data Extraction Architecture for High-speed Playback of High-density Optical Disc (고용량 광 디스크의 고속 재생을 위한 병렬 데이터 추출구조)

  • Choi, Goang-Seog
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.3
    • /
    • pp.329-334
    • /
    • 2009
  • When an optical disc is being played. the pick-up converts light to analog signal at first. The analog signal is equalized for removing the inter-symbol interference and then the equalized analog signal is converted into the digital signal for extracting the synchronized data and clock signals. There are a lot of algorithms that minimize the BER in extracting the synchronized data and clock when high. density optical disc like BD is being played in low speed. But if the high-density optical disc is played in high speed, it is difficult to adopt the same extraction algorithm to data PLL and PRML architecture used in low speed application. It is because the signal with more than 800MHz should be processed in those architectures. Generally, in the 0.13-${\mu}m$ CMOS technology, it is necessary to have the high speed analog cores and lots of efforts to layout. In this paper, the parallel data PLL and PRML architecture, which enable to process in BD 8x speed of the maximum speed of the high-density optical disc as the extracting data and clock circuit, is proposed. Test results show that the proposed architecture is well operated without processing error at BD 8x speed.

  • PDF

Discovery-Driven Exploration Method in Lung Cancer 2-DE Gel Images Using the Data Cube (데이터 큐브를 이용한 폐암 2-DE 젤 이미지에서의 예외 탐사)

  • Shim, Jung-Eun;Lee, Won-Suk
    • The KIPS Transactions:PartD
    • /
    • v.15D no.5
    • /
    • pp.681-690
    • /
    • 2008
  • In proteomics research, the identification of differentially expressed proteins observed under specific conditions is one of key issues. There are several ways to detect the change of a specific protein's expression level such as statistical analysis and graphical visualization. However, it is quiet difficult to handle the spot information of an individual protein manually by these methods, because there are a considerable number of proteins in a tissue sample. In this paper, using database and data mining techniques, the application plan of OLAP data cube and Discovery-driven exploration is proposed. By using data cubes, it is possible to analyze the relationship between proteins and relevant clinical information as well as analyzing the differentially expressed proteins by disease. We propose the measure and exception indicators which are suitable to analyzing protein expression level changes are proposed. In addition, we proposed the reducing method of calculating InExp in Discovery-driven exploration. We also evaluate the utility and effectiveness of the data cube and Discovery-driven exploration in the lung cancer 2-DE gel image.

A study on the enhancement and performance optimization of parallel data processing model for Big Data on Emissions of Air Pollutants Emitted from Vehicles (차량에서 배출되는 대기 오염 물질의 빅 데이터에 대한 병렬 데이터 처리 모델의 강화 및 성능 최적화에 관한 연구)

  • Kang, Seong-In;Cho, Sung-youn;Kim, Ji-Whan;Kim, Hyeon-Joung
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.20 no.6
    • /
    • pp.1-6
    • /
    • 2020
  • Road movement pollutant air environment big data is a link between real-time traffic data such as vehicle type, speed, and load using AVC, VDS, WIM, and DTG, which are always traffic volume survey equipment, and road shape (uphill, downhill, turning section) data using GIS. It consists of traffic flow data. Also, unlike general data, a lot of data per unit time is generated and has various formats. In particular, since about 7.4 million cases/hour or more of large-scale real-time data collected as detailed traffic flow information are collected, stored and processed, a system that can efficiently process data is required. Therefore, in this study, an open source-based data parallel processing performance optimization study is conducted for the visualization of big data in the air environment of road transport pollution.

Design of Process Data Compression Simulator for Performance Evaluation (공정 데이터 압축 성능평가를 위한 시뮬레이터 설계)

  • You, Min-Hyung;Han, Sang-Hyuck;Kim, Young-Kuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.1314-1316
    • /
    • 2011
  • 산업분야에서 이용되는 공정 데이터는 데이터와 데이터 사이의 변화폭이 비교적 좁고, 많게는 수만 개의 포인트가 실시간으로 수집, 저장되어지는 대용량의 데이터라는 특징이 있다. 이러한 특성을 지닌 공정 데이터는 공정의 모든 데이터를 저장하지 않고, 전체를 대표하는 데이터의 일부만을 저장한다. 이러한 공정 데이터를 효과적으로 관리하고, 보관하기 위해 공정 데이터 압축 알고리즘에 대한 개발과 연구가 진행 중이다. 그러나 이미 알려져 있는 공정 데이터 압축 알고리즘과 개발하고 있는 알고리즘의 성능에 대한 평가를 할 수 있는 시뮬레이터는 개인이나 작은 집단만을 위해 만들어지거나, 공개되지 않고 있어 사용하기에 제한적이다. 이에 공정 데이터 압축 성능평가를 위한 시뮬레이터인 PDCS(Process Data Compression Simulator)를 제안하고자 한다. PDCS는 클라이언트, 서버기반으로 구성되어있고, 데이터 압축 알고리즘에 대한 성능평가가 가능한 시뮬레이터이다.

A Study on Light-weight Algorithm of Large scale BIM data for Visualization on Web based GIS Platform (웹기반 GIS 플랫폼 상 가시화 처리를 위한 대용량 BIM 데이터의 경량화 알고리즘 제시)

  • Kim, Ji Eun;Hong, Chang Hee
    • Spatial Information Research
    • /
    • v.23 no.1
    • /
    • pp.41-48
    • /
    • 2015
  • BIM Technology contains data from the life cycle of facility through 3D modeling. For these, one building products the huge file because of massive data. One of them is IFC which is the standard format, and there are issues that large scale data processing based on geometry and property information of object. It increases the rendering speed and constitutes the graphic card, so large scale data is inefficient for screen visualization to user. The light weighting of large scale BIM data has to solve for process and quality of program essentially. This paper has been searched and confirmed about light weight techniques from domestic and abroad researches. To control and visualize the large scale BIM data effectively, we proposed and verified the technique which is able to optimize the BIM character. For operating the large scale data of facility on web based GIS platform, the quality of screen switch from user phase and the effective memory operation were secured.

Efficient Rendering Method for Constructing Virtual Environment using Large-Scale Terrain Data (가상환경구축을 위한 대용량 지형 데이터의 효율적인 렌더링 기법)

  • Kim, Yun-Jin;Shin, Byeong-Seok
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.739-741
    • /
    • 2005
  • 컴퓨터 게임 지리정보시스템(GIS), 가상현실 분야 등에서 환경 표현의 기반이 되는 지형 렌더링 기술은 매우 중요하다. 최근 LIDAR와 같은 3D 스캐닝 기술은 보다 정밀하고 정확한 지형 데이터를 제공한다. 하지만, 실시간 렌더링을 위해 사용되는 대부분의 방법들이 DEM이나 DTED와 같은 정규격자(uniform grid) 데이터에 최적화 되어 있기 때문에, LIDAR 데이터와 같은 비정규 데이터에는 적합하지 않다. 또한 방대한 LIDAR 데이터는 일반 PC에서 처리가 쉽지 않다. 본 논문에서는 대용량 비정규 데이터에서의 빠르고 효율적인 렌더링 방법을 제안한다. 샘플 데이터의 공간적 분포에 따라 정규격자를 생성하고, 이 격자에 맞도록 LIDAR 데이터를 재샘플링(resampling)하여 DTED와 같은 형태로 변환한다. 기하 재구성된 데이터에 연속적인 상세단계(CLOD)기반의 쿼드트리 알고리듬을 적용하여 지형을 효율적으로 렌더링한다.

  • PDF

Application Of Open Data Framework For Real-Time Data Processing (실시간 데이터 처리를 위한 개방형 데이터 프레임워크 적용 방안)

  • Park, Sun-ho;Kim, Young-kil
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.23 no.10
    • /
    • pp.1179-1187
    • /
    • 2019
  • In today's technology environment, most big data-based applications and solutions are based on real-time processing of streaming data. Real-time processing and analysis of big data streams plays an important role in the development of big data-based applications and solutions. In particular, in the maritime data processing environment, the necessity of developing a technology capable of rapidly processing and analyzing a large amount of real-time data due to the explosion of data is accelerating. Therefore, this paper analyzes the characteristics of NiFi, Kafka, and Druid as suitable open source among various open data technologies for processing big data, and provides the latest information on external linkage necessary for maritime service analysis in Korean e-Navigation service. To this end, we will lay the foundation for applying open data framework technology for real-time data processing.

Indexing of Interval Data of RFID Tag Objects (RFID태그 객체의 간격 데이터 색인)

  • 이기형;반재훈;김동현;홍봉희
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.82-84
    • /
    • 2004
  • 최근 유비쿼터스 환경에서 객체에 태그를 장착하여 위치를 추적하는 응용분야가 늘어가고 있는 추세이며, 이러한 응용에서 빈번히 사용되는 질의는 객체의 위치를 찾는 find와 특정 위치의 객체를 찾는 look질의가 있다. 두 질의에서 처리되는 데이터는 시간과 공간을 포함한 다차원 대용량 데이터이며 과거 및 현재 상태의 검색을 지원해야 하므로 효율적인 질의 처리를 위해서는 태그 객체를 위한 새로운 데이터 모델과 색인이 필요하다. 본 논문에서는 태그 객체를 간격 데이터로 정의하고 과거 및 현재 데이터에서 find와 look질의를 처리할 수 있는 색인 구조를 제안한다. 제안하는 색인에서 노드에 오버플로우가 발생할 경우 새로운 단말 노드 분할 정책을 사용하여 분할하며 성능 평가를 통해서 기존 정책보다 우수함을 증명한다.

  • PDF

Design for Secure Communication using WTLS in Wireless Network Environment (무선 네트워크 환경에 WTLS를 적용한 안전한 통신 설계)

  • Gu, Bonyeol;Kim, Kangseok;Yeh, Hongjin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.903-906
    • /
    • 2012
  • 스마트 디바이스의 보편화로 인해 시간이나 장소에 구애 받지 않고 이동하면서 사용자간 다양한 데이터를 주고받게 되었다. 더욱이 모바일 및 스마트 디바이스를 이용한 업무처리량이 늘어남에 따라 음성 통화 및 데이터를 주고받는 양 또한 늘어났고 이에 대한 안전성의 문제점이 나타내게 되었다. 본 논문에서는 사용자간 안전한 음성 통화 및 데이터 송수신을 위하여 보안이 적용되지 않은 표준 SIP 프로토콜에 무선 환경에 적합한 WTLS를 적용하여 데이터의 안전성을 검증하고 TLS를 적용했을 때와 비교하여 데이터 전송 속도차를 분석한다. 데이터의 보호를 위해 WTLS 알고리즘을 이용한 안전한 키 교환 프로토콜과 암복호화 알고리즘을 적용 시켰다.

Architecture of LCMS for Smart Learing Based on BigData (빅데이터 기반 스마트러닝을 위한 LCMS 구조)

  • Kim, Seong-Jin;Park, Seok-Cheon;Lee, Sang-Muk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1234-1237
    • /
    • 2013
  • 빅데이터의 중요성이 부각되고 있는 빅데이터의 시대에 교육서비스시장은 스마트 교육이라는 새로운 변화에 따라 많은 변화가 일어나고 있다. 자기 주도적이며 개인화되고 쌍방향커뮤니케이션 등의 특징을 가진 스마트러닝 환경에서는 LMS와 LCMS의 역할이 점점 중요해지고 있다. 현재 콘텐츠의 중요성이 부각되는 정보홍수 시대이므로 LCMS가 해야 할 역할이 크다. 그러나 아직까지는 교육서비스에서 빅데이터의 아키텍쳐와 대용량 데이터 처리 기술을 활용하고 있는 사례는 그다지 많지 않다. 이에 본 논문에서는 빅데이터 기술을 활용한 LCMS에 대해 분석하고 새로운 방안을 제시하고자 한다.