• Title/Summary/Keyword: Computer data processing

Search Result 4,308, Processing Time 0.044 seconds

A Meta-data Generation Technique for Efficient and Secure Code Reuse Attack Detection with a Consideration on Two Types of Instruction Set (안전하고 효율적인 Code Reuse Attack 탐지를 위한 ARM 프로세서의 두 가지 명령어 세트를 고려한 Meta-data 생성 기술)

  • Heo, Ingeo;Han, Sangjun;Lee, Jinyong;Paek, Yunheung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.443-446
    • /
    • 2014
  • Code reuse attack (CRA)는 기존의 코드 내에서 필요한 코드 조각들 (gadgets)을 모아 indirect branch 명령어들로 잇는 방식으로 공격자가 원하는 악성 프로그램을 구성할 수 있는 강력한 공격 방법이다. 공격자는 자신의 코드를 대상 시스템에 심는 대신 기존의 코드를 이용하기 때문에, 대부분의 범용 운영체제 (OS)가 강제하는 W^X protection 을 무력화할 수 있다. 이러한 CRA 에 대응하기 위하여 다수의 연구들에서 branch 의 trace 를 분석하여 CRA 고유의 특성을 찾아내는 Signature 기반 탐지 기술을 제안하였다. 본 논문에서는 ARM 프로세서 상에서의 CRA 를 대응하기 위한 Signature 기반 탐지 기술을 효율적으로 도울 수 있는 binary 분석 및 meta-data 생성 기술을 제안한다. 특히, 본 논문은 우리의 이전 논문에서 고려 되지 못했던 ARM 의 두 가지 명령어 세트의 특성을 고려하여, 공격자가 어느 명령어 세트를 이용하여 CRA 를 시도하더라도 막아낼 수 있도록 meta-data 를 두 가지 mode 에 대해서 생성하였다. 실험 결과, meta-data 는 본래 바이너리 코드 대비 20.8% 정도의 크기 증가를 일으키는 것으로 나타났다.

Probability-based Iceberg Query Processing Over Data Streams (데이터 스트림에서의 확률기반 빙산 질의 처리)

  • Seo, Dae-Hong;Lee, Won-Suk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.34-37
    • /
    • 2007
  • 간 및 낮은 메모리 사용량을 요구한다. 이러한 데이터 스트림에서의 데이터 마이닝은 전체 데이터에 대한 분석 보다는 사용자가 관심을 갖는 영역에 대한 마이닝에 초점이 맞추어져 있어, 사용자 관심영역에 대한 분석 데이터 탐색을 필요로 한다. 이에 본 논문에서는 기존의 분석 데이터 탐색 기법인 빙산 질의 및 상위-k 질의에 대하여 알아보고, 이를 보완하기 위한 확률에 기반한 데이터 탐색법인 확률기반 빙산 질의를 제안한다.

Formal Representation and Query for Digital Contents Data

  • Khamis, Khamis Abdul-Latif;Song, Huazhu;Zhong, Xian
    • Journal of Information Processing Systems
    • /
    • v.16 no.2
    • /
    • pp.261-276
    • /
    • 2020
  • Digital contents services are one of the topics that have been intensively studied in the media industry, where various semantic and ontology techniques are applied. However, query execution for ontology data is still inefficient, lack of sufficient extensible definitions for node relationships, and there is no specific semantic method fit for media data representation. In order to make the machine understand digital contents (DCs) data well, we analyze DCs data, including static data and dynamic data, and use ontology to specify and classify objects and the events of the particular objects. Then the formal representation method is proposed which not only redefines DCs data based on the technology of OWL/RDF, but is also combined with media segmentation methods. At the same time, to speed up the access mechanism of DCs data stored under the persistent database, an ontology-based DCs query solution is proposed, which uses the specified distance vector associated to a surveillance of semantic label (annotation) to detect and track a moving or static object.

A Human Movement Stream Processing System for Estimating Worker Locations in Shipyards

  • Duong, Dat Van Anh;Yoon, Seokhoon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • v.13 no.4
    • /
    • pp.135-142
    • /
    • 2021
  • Estimating the locations of workers in a shipyard is beneficial for a variety of applications such as selecting potential forwarders for transferring data in IoT services and quickly rescuing workers in the event of industrial disasters or accidents. In this work, we propose a human movement stream processing system for estimating worker locations in shipyards based on Apache Spark and TensorFlow serving. First, we use Apache Spark to process location data streams. Then, we design a worker location prediction model to estimate the locations of workers. TensorFlow serving manages and executes the worker location prediction model. When there are requirements from clients, Apache Spark extracts input data from the processed data for the prediction model and then sends it to TensorFlow serving for estimating workers' locations. The worker movement data is needed to evaluate the proposed system but there are no available worker movement traces in shipyards. Therefore, we also develop a mobility model for generating the workers' movements in shipyards. Based on synthetic data, the proposed system is evaluated. It obtains a high performance and could be used for a variety of tasksin shipyards.

Development of high volumes of data processing algorithm for 3D printers in Hadoop systems (Hadoop을 활용하여 3D 프린터용 대용량 데이터 처리 알고리즘 개발)

  • Nam, Kiwon;Lee, Kyuyoung;Kim, Gunyoung;Kim, Joohyun;Kim, Sungsuk;Yang, Sun Ok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.691-693
    • /
    • 2017
  • 하둡 시스템은 대용량의 데이터를 처리할 수 있는 클러스터 기반 개방형 소프트웨어 프레임워크이다. 이는 하둡 분산 파일시스템(HDFS)과 MapReduce 모델을 활용하여 데이터의 병렬 처리를 지원한다. 본 연구에서는 3D 프린터를 위한 3D 모델 데이터를 G-code로 변환하는 알고리즘을 하둡을 활용하여 구현하였다. 4대의 컴퓨터에 하둡 시스템을 설치한 후 전처리-Map-Shuffling-Reduce의 과정을 거쳐 변환작업이 효율적으로 처리하였음을 보일 수 있었다.

Applying Data Mining Techniques for Book Recommendation System (도서 추천 시스템에 데이터 마이닝 기법의 적용)

  • Jin, Seung-Hoon;Kim, Byoung-Ic;Kim, Tae-Kyun;Kim, Jong-Wan;Kim, Young-Sn
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.601-604
    • /
    • 2001
  • 도서 정보 추천 시스템에서 기존 사용자들의 정보를 이용하여 마이닝 기법중 군집 분석을 적용하여 사이트에 처음으로 접속하는 사용자와 접속률이 낮아 피드백 정보가 많이 없고 적절한 추천을 하지 못하는 사용자에게 비슷한 군집의 사용자들의 정보를 이용하여 적절한 정보를 추천한다. 본 논문에서는 기존의 멀티에이전트 추천 시스템에 데이터 마이닝 에이전트와 패턴 분석 에이전트를 접목하여 더 나은 추천 정보를 제공하기 위한 시스템을 제안한다.

  • PDF

The Creation and Placement of VMs and Tasks in Virtualized Hadoop Cluster Environments

  • Kim, Tae-Won;Chung, Hae-jin;Kim, Joon-Mo
    • Journal of Korea Multimedia Society
    • /
    • v.15 no.12
    • /
    • pp.1499-1505
    • /
    • 2012
  • Recently, the distributed processing system for big data has been actively investigated owing to the development of high speed network and storage technologies. In addition, virtual system that can provide efficient use of system resources through the consolidation of servers has been increasingly recognized. But, when we configure distributed processing system for big data in virtual machine environments, many problems occur. In this paper, we did an experiment on the optimization of I/O bandwidth according to the creation and placement of VMs and tasks with composing Hadoop cluster in virtual environments and evaluated the results of an experiment. These results conducted by this paper will be used in the study on the development of Hadoop Scheduler supporting I/O bandwidth balancing in virtual environments.

An Optimized Iterative Semantic Compression Algorithm And Parallel Processing for Large Scale Data

  • Jin, Ran;Chen, Gang;Tung, Anthony K.H.;Shou, Lidan;Ooi, Beng Chin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • v.12 no.6
    • /
    • pp.2761-2781
    • /
    • 2018
  • With the continuous growth of data size and the use of compression technology, data reduction has great research value and practical significance. Aiming at the shortcomings of the existing semantic compression algorithm, this paper is based on the analysis of ItCompress algorithm, and designs a method of bidirectional order selection based on interval partitioning, which named An Optimized Iterative Semantic Compression Algorithm (Optimized ItCompress Algorithm). In order to further improve the speed of the algorithm, we propose a parallel optimization iterative semantic compression algorithm using GPU (POICAG) and an optimized iterative semantic compression algorithm using Spark (DOICAS). A lot of valid experiments are carried out on four kinds of datasets, which fully verified the efficiency of the proposed algorithm.

Fast Fuzzy Control of Warranty Claims System

  • Lee, Sang-Hyun;Cho, Sung-Eui;Moon, Kyung-Li
    • Journal of Information Processing Systems
    • /
    • v.6 no.2
    • /
    • pp.209-218
    • /
    • 2010
  • Classical warranty plans require crisp data obtained from strictly controlled reliability tests. However, in a real situation these requirements might not be fulfilled. In an extreme case, the warranty claims data come from users whose reports are expressed in a vague way. Furthermore, there are special situations where several characteristics are used together as criteria for judging the warranty eligibility of a failed product. This paper suggests a fast reasoning model based on fuzzy logic to handle multi-attribute and vague warranty data.

Multimedia Data Management System for the Store arid Retrieval of Large-scale Data (대용량 멀티미디어 데이터 저장 및 검색을 위한 데이터 관리 시스템)

  • Bok, Joong-Hyo;Kim, Kwang-Jong;Lee, Yon-Sik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.739-742
    • /
    • 2000
  • 본 논문에서는 객체지향 데이터베이스 시스템을 이용하여 대용량 멀티미디어 데이터를 저장 및 검색하는 멀티미디어 데이터 관리 시스템(Multimedia Data Management System : MDMS)을 설계 구현한다. 따라서, 사용자, 응용 및 데이터베이스 각 계층에 객체지향 설계 방법을 적용시켜 일관된 인터페이스와 다양한 응용 분야의 확장을 유도하고 기존의 파일 단위의 관리 방법과 데이터베이스 저장 관리 방법을 선택 또는 동시 이용 할 수 있도록 하여 관리자 요구 수용의 폭을 넓힌다. 또한, 질의에 대한 효율적인 검색을 위하여 질의 분석기, 객체 질의기, 객체 추출기와 데이터베이스 연산전, 후의 데이터 일관성 유지를 위한 객체 관리기를 구현한다. 향후에는 제안된 시스템을 기반으로 내용 기반 질의 처리 및 웹 연동 통합 관리 시스템의 개발이 요구된다.

  • PDF