• 제목/요약/키워드: data recover

검색결과 490건 처리시간 0.029초

Doubly-Selective Channel Estimation for OFDM Systems Using a Pilot-Embedded Training Scheme

  • Wang, Li-Dong;Lim, Dong-Min
    • Journal of electromagnetic engineering and science
    • /
    • 제6권4호
    • /
    • pp.203-208
    • /
    • 2006
  • Channel estimation and data detection for OFDM systems over time- and frequency-selective channels are investigated. Relying on the complex exponential basis expansion channel model, a pilot-embedded channel estimation scheme with low computational complexity and spectral efficiency is proposed. A periodic pilot sequence is superimposed at a low power on information bearing sequence at the transmitter before modulation and transmission. The channel state information(CSI) can be estimated using the first-order statistics of the received data. In order to enhance the performance of channel estimation, we recover the transmitted data which can be exploited to estimate CSI iteratively. Simulation results show that the proposed method is suitable for doubly-selective channel estimation for the OFDM systems and the performance of the proposed method can be better than that of the Wiener filter method under some conditions. Through simulations, we also analyze the factors which can affect the system performances.

File Signature's Automatic Calculation Algorithm Proposal for Digital Forensic

  • Jang, Eun-Jin;Shin, Seung-Jung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권3호
    • /
    • pp.118-123
    • /
    • 2021
  • Recently, digital crime is becoming more intelligent, and efficient digital forensic techniques are required to collect evidence for this. In the case of important files related to crime, a specific person may intentionally delete the file. In such a situation, data recovery is a very important procedure that can prove criminal charges. Although there are various methods to recover deleted files, we focuses on the recovery technique using HxD editor. When recovering a deleted file using the HxD editor, check the file structure and access the file data area through calculation. However, there is a possibility that errors such as arithmetic errors may occur when a file approach through calculation is used. Therefore, in this paper, we propose an algorithm that automatically calculates the header and footer of a file after checking the file signature in the root directory for efficient file recovery. If the algorithm proposed in this paper is used, it is expected that the error rate of arithmetic errors in the file recovery process can be reduced.

Realm 데이터베이스의 삭제된 레코드 복구 기법 (The Method of Recovery for Deleted Record of Realm Database)

  • 김준기;한재혁;최종현;이상진
    • 정보보호학회논문지
    • /
    • 제28권3호
    • /
    • pp.625-633
    • /
    • 2018
  • Realm은 모바일 기기에서 주로 사용되는 SQLite를 대체하기 위해 개발된 오픈 소스 데이터베이스이다. 데이터 베이스에 저장되는 데이터는 사용자의 행위를 파악하고 모바일 기기의 동작 여부를 확인하는 데 도움이 될 수 있어 모바일 기기를 대상으로 하는 디지털 포렌식 분석 과정에서 반드시 확인되어야 한다. 뿐만 아니라, 사용자가 의도적으로 데이터베이스에 저장된 데이터 삭제와 같은 안티 포렌식 기법을 사용할 수 있으므로 데이터베이스에서 삭제된 레코드를 복구하는 방법에 대한 연구가 필요하다. 본 논문은 Realm 데이터베이스 파일의 구조와 레코드의 저장 및 삭제 과정을 분석한 결과를 바탕으로 삭제된 후 덮어 쓰여지지 않은 레코드의 복구 기법을 제시하였다.

NAND 플래시 메모리에서 디지털 포렌식을 위한 파일 복구기법 (A File Recovery Technique for Digital Forensics on NAND Flash Memory)

  • 신명섭;박동주
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제37권6호
    • /
    • pp.292-299
    • /
    • 2010
  • 최근 플래시 메모리가 디지털 기기의 저장장치로 널리 사용됨에 따라 플래시 메모리에서 디지털 증거를 분석하기 위한 디지털 포렌식의 필요성이 증가하고 있다. 이를 위해 플래시 메모리에 저장되어 있는 파일을 효율적으로 복구하는 것이 매우 중요하다. 그러나 기존의 하드 디스크 기반 파일 복구 기법을 플래시 메모리에 그대로 적용하기에는 너무나 비효율적이다. 덮어쓰기 불가능과 같이 플래시 메모리는 하드 디스크와 전혀 다른 특성을 가지기 때문이다. 본 논문에서 디지털 포렌식을 지원하기 위한 플래시 메모리를 잘 이해하는 파일 복구 기법을 제안한다. 첫째, 플래시 메모리 저장장치로부터 복구 가능한 모든 파일들을 효과적으로 검색하는 방법을 제안한다. 이것은 플래시 메모리의 쓰기 연산을 담당하는 FTL(Flash Translation Layer)의 메타데이터를 최대한 활용한다. 둘째, 복구 대상 파일들 중에서 특정 파일을 효율적으로 복구할 수 있는 기법을 제안하며, 이를 위해 FTL의 사상 테이블의 위치 정보를 이용한다. 다양한 실험을 통해 본 논문에 제안하는 기법이 기존의 하드 디스크 기반 파일 복구 기법보다 우수함을 보인다.

XFS 파일 시스템 내의 삭제된 파일 복구 기법 연구 (The Research on the Recovery Techniques of Deleted Files in the XFS Filesystem)

  • 안재형;박정흠;이상진
    • 정보보호학회논문지
    • /
    • 제24권5호
    • /
    • pp.885-896
    • /
    • 2014
  • 일반적으로 사용하는 컴퓨터의 저장소는 예상치 못한 오류나 사고로 인해 파일이 삭제되는 일이 발생할 수 있다. 또한 악의적인 목적을 가진 누군가가 안티 포렌식을 목적으로 직접 데이터를 삭제하기도 한다. 이렇게 삭제된 파일이 범죄와 연관된 증거이거나 업무상 중요한 문서인 경우 복구를 위한 대책이 있어야 한다. NTFS, FAT, EXT와 같은 파일 시스템은 삭제된 파일을 복구하기 위한 기법이 활발히 연구되었고 많은 도구가 개발 되었다. 그러나 최근 NAS 및 CCTV 저장소에 적용된 XFS 파일 시스템을 대상으로는 삭제된 파일을 복구하기 위해 제안된 연구개발 결과가 거의 없으며 현재까지 개발된 도구들은 전통적인 시그니처 탐지 기반 카빙 기법에 의지하고 있어서 복구 성공률이 저조한 상황이기 때문에 이에 대한 연구가 필요하다. 따라서, 본 논문에서는 XFS 파일 시스템에서의 삭제된 파일을 복구하기 위해 메타데이터 기반 복구 방법과 시그니처 탐지 기반 복구 방법을 제안하며 실제 환경에서 실험하여 검증하였다.

오픈 소스 중복 제거 파일시스템에서의 완전 삭제 (Sanitization of Open-Source Based Deduplicated Filesystem)

  • 조현웅;김슬기;권태경
    • 정보보호학회논문지
    • /
    • 제26권5호
    • /
    • pp.1141-1149
    • /
    • 2016
  • 중복 제거 파일시스템은 저장 공간 절약의 이점이 있지만, 기존 완전 삭제 도구를 이용하는 경우 여전히 지워진 블록이 복원될 우려가 있다. 본 논문에서는 FUSE(Filesystem in USErspace)를 이용하여 개발된 오픈 소스 중복 제거 파일시스템인 LessFS를 바탕으로 완전 삭제 기법을 연구하였다. 먼저 중복 제거 파일시스템에서 지워진 데이터 블록을 복구하는 취약점을 보였으며, 데이터 블록과 함께 fingerprint DB영역을 고려한 완전 삭제 기법을 제안하고 구현하였다. 성능 측정 결과 완전 삭제에 필요한 시간은 완전 삭제가 적용되지 않은 경우에 비해 60~70배 가량으로 나타났으며, 이러한 작업 수행시간의 증가는 chunk의 증가로 인한 fingerprint DB 접근에 따른 오버헤드가 큰 비중을 차지하는 것으로 나타났다. 또한 chunk 크기가 65,536바이트를 넘는 경우에는 기존 파일시스템의 완전 삭제 기법보다더 좋은 완전 삭제 성능을 보였다.

전략적 정보제공을 위한 침수영향구역 클러스터링 (Dentifying and Clustering the Flood Impacted Areas for Strategic Information Provision)

  • 박은미;빌랄 무하메드
    • 한국ITS학회 논문지
    • /
    • 제20권6호
    • /
    • pp.100-109
    • /
    • 2021
  • 본 연구는 폭우로 인해 도로침수가 발생되고 그로 인한 교통상황 악화가 발생할 때, 도로이용자와 침수와 혼잡 상황을 관리하는 시의 관리자들에 필요한 정보를 생산하기 위한 방법론에 대한 연구이다. 홍수와 같은 재난상황에서, 도로이용자들의 2차 피해를 막고, 도로상황 악화를 방지하며 빠른 회복을 위해서는, 적절한 정보가 제공되어야 한다. 도시의 규모에 따라 차이가 있겠으나, 도시에 수천 개의 구간이 존재하고, 특히 홍수와 같은 상황에서 수백 개 내지 천개 이상의 혼잡구간이 존재할 때, 개별 구간단위 혼잡수준 정보는 재난상황관리에 더 이상 유용하지 않다. 본 연구에서는 홍수상황에 영향을 받는 링크들을 공간적으로 클러스터링하고, 클러스터에 포함되지 못하는 영향 링크들은 정보제공 대상에 열외 시켜 무의미한 정보는 제외될 수 있도록 하였다. 또한 클러스터의 시공간적 특성, 즉 시간적 지속성, 공간적 크기를 산정하여, 영향 지역의 심각도 정보가 제공될 수 있도록 하였다. 본 연구를 통하여 만들어진 정보는 도로 이용자와 도시 관리자 모두가 홍수로 파급된 도로네트워크 문제에 적절히 대응하게 하는데 활용될 수 있을 것으로 기대된다.

A Fast and Secure Scheme for Data Outsourcing in the Cloud

  • Liu, Yanjun;Wu, Hsiao-Ling;Chang, Chin-Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권8호
    • /
    • pp.2708-2721
    • /
    • 2014
  • Data outsourcing in the cloud (DOC) is a promising solution for data management at the present time, but it could result in the disclosure of outsourced data to unauthorized users. Therefore, protecting the confidentiality of such data has become a very challenging issue. The conventional way to achieve data confidentiality is to encrypt the data via asymmetric or symmetric encryptions before outsourcing. However, this is computationally inefficient because encryption/decryption operations are time-consuming. In recent years, a few DOC schemes based on secret sharing have emerged due to their low computational complexity. However, Dautrich and Ravishankar pointed out that most of them are insecure against certain kinds of collusion attacks. In this paper, we proposed a novel DOC scheme based on Shamir's secret sharing to overcome the security issues of these schemes. Our scheme can allow an authorized data user to recover all data files in a specified subset at once rather than one file at a time as required by other schemes that are based on secret sharing. Our thorough analyses showed that our proposed scheme is secure and that its performance is satisfactory.

광통신 수신기용 클럭/데이타 복구회로 설계 (Design of clock/data recovery circuit for optical communication receiver)

  • 이정봉;김성환;최평
    • 전자공학회논문지A
    • /
    • 제33A권11호
    • /
    • pp.1-9
    • /
    • 1996
  • In the following paper, new architectural algorithm of clock and data recovery circuit is proposed for 622.08 Mbps optical communication receiver. New algorithm makes use of charge pump PLL using voltage controlled ring oscillator and extracts 8-channel 77.76 MHz clock signals, which are delayed by i/8 (i=1,2, ...8), to convert and recover 8-channel parallel data from 662.08 Mbps MRZ serial data. This circuit includes clock genration block to produce clock signals continuously even if input data doesn't exist. And synchronization of data and clock is doen by the method which compares 1/2 bit delayed onput data and decided dta by extracted clock signals. Thus, we can stabilize frequency and phase of clock signal even if input data is distorted or doesn't exist and simplify receiver architecture compared to traditional receiver's. Also it is possible ot realize clock extraction, data decision and conversion simulataneously. Verification of this algorithm is executed by DESIGN CENTER (version 6.1) using test models which are modelized by analog behavior modeling and digital circuit model, modified to process input frequency sufficiently, in SPICE.

  • PDF

Secure and Efficient Privacy-Preserving Identity-Based Batch Public Auditing with Proxy Processing

  • Zhao, Jining;Xu, Chunxiang;Chen, Kefei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.1043-1063
    • /
    • 2019
  • With delegating proxy to process data before outsourcing, data owners in restricted access could enjoy flexible and powerful cloud storage service for productivity, but still confront with data integrity breach. Identity-based data auditing as a critical technology, could address this security concern efficiently and eliminate complicated owners' public key certificates management issue. Recently, Yu et al. proposed an Identity-Based Public Auditing for Dynamic Outsourced Data with Proxy Processing (https://doi.org/10.3837/tiis.2017.10.019). It aims to offer identity-based, privacy-preserving and batch auditing for multiple owners' data on different clouds, while allowing proxy processing. In this article, we first demonstrate this scheme is insecure in the sense that malicious cloud could pass integrity auditing without original data. Additionally, clouds and owners are able to recover proxy's private key and thus impersonate it to forge tags for any data. Secondly, we propose an improved scheme with provable security in the random oracle model, to achieve desirable secure identity based privacy-preserving batch public auditing with proxy processing. Thirdly, based on theoretical analysis and performance simulation, our scheme shows better efficiency over existing identity-based auditing scheme with proxy processing on single owner and single cloud effort, which will benefit secure big data storage if extrapolating in real application.