• Title/Summary/Keyword: 데이터압축

Search Result 1,719, Processing Time 0.037 seconds

MMT based V3C data packetizing method (MMT 기반 V3C 데이터 패킷화 방안)

  • Moon, Hyeongjun;Kim, Yeonwoong;Park, Seonghwan;Nam, Kwijung;Kim, Kyuhyeon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.836-838
    • /
    • 2022
  • 3D Point Cloud는 3D 콘텐츠를 더욱 실감 나게 표현하기 위한 데이터 포맷이다. Point Cloud 데이터는 3차원 공간상에 존재하는 데이터로 기존의 2D 영상에 비해 거대한 용량을 가지고 있다. 최근 대용량 Point Cloud의 3D 데이터를 압축하기 위해 V-PCC(Video-based Point Cloud Compression)와 같은 다양한 방법이 제시되고 있다. 따라서 Point Cloud 데이터의 원활한 전송 및 저장을 위해서는 V-PCC와 같은 압축 기술이 요구된다. V-PCC는 Point Cloud의 데이터들을 Patch로써 뜯어내고 2D에 Projection 시켜 3D의 영상을 2D 형식으로 변환하고 2D로 변환된 Point Cloud 영상을 기존의 2D 압축 코덱을 활용하여 압축하는 기술이다. 이 V-PCC로 변환된 2D 영상은 기존 2D 영상을 전송하는 방식을 활용하여 네트워크 기반 전송이 가능하다. 본 논문에서는 V-PCC 방식으로 압축한 V3C 데이터를 방송망으로 전송 및 소비하기 위해 MPEG Media Transport(MMT) Packet을 만드는 패킷화 방안을 제안한다. 또한 Server와 Client에서 주고받은 V3C(Visual Volumetric Video Coding) 데이터의 비트스트림을 비교하여 검증한다.

  • PDF

Design and Implementation of Run-Length/Byte-Packing Compression Algorithm to Improve Compressibility of Geographic Information Data (지리정보 데이터 압축률 향상을 위한 Run-Length/Byte-Packing 압축 알고리즘 설계 및 구현)

  • Yoon, Seok-Hwan;Yang, Seung-Su;Park, Seok-Cheon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.21 no.10
    • /
    • pp.1935-1942
    • /
    • 2017
  • Recently, a compression algorithm is widely used as a method for compressing geographic information data. However, such a compression algorithm has a problem that the continuity of the map data is insufficient to actually apply it to the geographic information data compression, and the compression rate is lowered because it can not be compressed into a single data. Therefore, in this paper, we have designed and implemented a Run-Length / Byte-Packing compression algorithm that enables compression of geographic information by combining the advantages of compression algorithms and improves compression and restoration speed. As a result of evaluating the implemented algorithm, it was confirmed that the proposed algorithm improved about 5% on average compared with the existing compression algorithm, and it was confirmed that the compression rate and the restoration speed were improved.

A Study on the Compression Methods of Hangul Data File by the Huffman Encoding (허프만부호화 방식에 의한 한글데이터의 압축에 관한 비교 연구)

  • Nam, Sang-Kee;Chung, Jin-Wook
    • Annual Conference on Human and Language Technology
    • /
    • 1989.10a
    • /
    • pp.168-173
    • /
    • 1989
  • 데이터의 압축은 화일의 저장공간과 전송시간을 줄이는 중요한 이점을 제공한다. 국내에는 많은 경우 데이터 화일에 2 바이트로 구성된 표준한글부호를 포함하고 있다. 본 논문에서는 2 바이트로 부호화 된 한글을 포함한 데이터 화일을 허프만 부호화 방식에 의해 압축 할때 한글을 한 바이트 단위로 인식하여 압축하는 경우와 두 바이트 단위로 인식하여 압축하는 경우의 여러가지 압축 특성을 비교하였다. 아울러 사전에 조사된 한글의 찾기 순서에 따라 고정된 압축 부호를 사용하는 경우와 앞에서 제시된 방법들을 비교하였다. 비교 결과 두 바이트 단위로 인식하여 압축하는 방법이 더 좋은 압축율을 보이었다.

  • PDF

Reversible Watermarking for Audio Using Recompression Method (재압축 기술을 이용한 오디오 파일에서의 가역 정보은닉)

  • Whang, Ho Young;Kim, Hyoung Joong
    • Journal of Digital Contents Society
    • /
    • v.14 no.2
    • /
    • pp.199-206
    • /
    • 2013
  • Various methods of data compression have been developed to handle data within limited storage capacity and limited transmission speed. Recompression technology, a technology most recent among them, is a technology that can embed data regardless of the information entropy of a data. Recompression technology separates original multimedia data in to blocks and embeds 0 or 1 according to whether each block is flipped or not. In this paper, this technology has been applied on audio files. And was able to implement reversible watermarking for audio files.

An Addaptive SAO Method for Efficient Texture Video Coding of V-PCC (V-PCC의 효율적인 Texture 영상 부호화를 위한 적응적 SAO 방법)

  • Son, Sohee;Gwon, Daehyeok;Choi, Haechul
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1216-1217
    • /
    • 2022
  • 포인트 클라우드는 객체 또는 장면을 재구성하기 위한 3D 데이터의 표현 방식 중 하나로써 가상 및 증강 현실을 포함한 다양한 분야에서 활용되고 있다. 포인트 클라우드 데이터는 품질에 따라 수많은 포인트로 이루어질 수 있으며, 이와 관련된 데이터의 양은 2차원 영상의 데이터보다 상당히 많다. 따라서 포인트 클라우드 데이터를 사용하여 다양한 서비스를 제공하기 위해서는 포인트 클라우드의 특징을 고려한 효율적인 압축 기술이 요구되며, 이에 따라 국제 표준화 단체의 Moving Picture Experts Group은 포인트 클라우드 데이터의 효율적인 압축을 위한 V-PCC 표준을 제정하였다. V-PCC는 포인트 클라우드 데이터를 다수의 2차원 공간으로 투영하여 점유 맵, 기하 영상, 그리고 속성 영상을 생성하고 각 2차원 영상을 기존의 비디오 코덱을 활용하여 압축하는 방식이다. 기존의 코덱을 사용하여 압축함에 따라 활용성이 높지만, 3차원 데이터를 다수의 2차원 영상을 통하여 압축하기 때문에 압축의 효율성을 높이기 위한 많은 연구가 필요하다. 본 논문에서는 V-PCC의 부호화 효율을 높이기 위해 점유 맵의 투영 정보를 활용한 속성 영상의 효율적인 압축 방법을 소개하고 이를 위한 적응적 SAO 방법을 제안한다. 실험에서 제안 방법은 V-PCC의 속성 영상에 대해 약 3.2%의 부호화 효율을 보인다.

  • PDF

Real-time data analysis technique using large data compression based spark (스파크 기반의 대용량 데이터 압축을 이용한 실시간 데이터 분석 기법)

  • Park, Soo-Yong;Shin, Yong-Tae
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.545-546
    • /
    • 2020
  • 스파크는 데이터 분석을 위한 오픈소스 툴이다. 스파크에서는 실시간 데이터 분석을 위하여 스파크 스트리밍이라는 기술을 제공한다. 스파크 스트리밍은 데이터 소스가 분석서버로 데이터 스트림을 전송한다. 이때 전송하는 데이터의 크기가 커질 경우 전송과정에서 지연이 발생할 수 있다. 제안하는 기법은 전송하고자 하는 데이터의 크기가 클 때 허프만 인코딩을 이용하여 데이터를 압축하여 전송시키므로 지연시간을 줄일 수 있다.

  • PDF

A 3D Data Compression Method Using Spiral Depth-First Search (나선형 깊이 우선 탐색 방법을 사용한 3차원 데이터 압축 방법)

  • 이신준;박우찬;이현석;양성봉
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.49-52
    • /
    • 2000
  • 최근에 3차원 데이터는 그 크기가 상당히 커지고 있으며, 이에 따라 3D 그래픽 파이프라인에 데이터를 전송할 때 메모리 버스 대역폭의 병목 현상에 대한 문제가 크게 대두되고 있다. 이를 해결하기 위한 방법으로 모델링된 3차원 데이터의 위상 정보를 압축하여 보내는 방법이 연구되고 있다. 본 논문에서는 3차원 데이터의 위상 정보를 효율적으로 압축하는 방법과 자료구조를 제안하였다. 기존의 위상 압축 방법들의 선형적인 탐색 방법에 비해 보다 효율적인 나선형 깊이 우선 탐색 방법을 사용하였다. 제안하는 방법은 이미 탐색한 정점들의 재사용도를 높임으로써 압축과정에서 생성되는 허프만 테이블의 크기를 줄였고 전체적으로 압축되는 데이터의 크기도 보다 줄였다. 실험한 결과, 비트수/정점이 평균 1.7 정도이었고, 비트수/폴리곤이 평균 1.3 정도고 이전 방법들보다 1.5배에서 2.5배정도 나은 결과를 보였다.

  • PDF

An Integrated Technique for Data Compression and Encoding for Bus Power Minimization (버스 전력 소모 최소를 위한 통합된 데이터 압축과 인코딩 기법)

  • Jung, Do-Han;Kim, Tae-Whan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07a
    • /
    • pp.718-720
    • /
    • 2005
  • 딥-서버마이크론 기술에서, 버스 상에서의 전력 소모를 최소화하는 것은 가장 중요한 설계 목표들 가운데 하나이다. 전력 소모를 줄이기 위해 일반적으로 사용되고 있는 효과적인 기법들은 근본적으로 데이터 압축 또는 데이터 인코딩을 이용하고 있지만 압축과 인코딩을 모두 사용한 기법은 현재까지 알려져 있지 않다. 본 논문은 버스에서의 데이터 전송 시 발생하는 전력소모량을 크로스톡 지연을 완전히 제거함과 동시에 최대한 줄이는 통합된 데이터 압축 및 인코딩 알고리즘을 제안한다. 전력 소모를 줄이는 문제를 셀프 천이와 크로스-커플된 천이 양에 대한 가중 합을 최소화하는 문제로 형상화하여 풀었으며, 이 과정에서 자주-인용 데이터에 기반한 압축과 셀프-쉴드 인코딩이라는 개념을 활용하였다. 벤치마크를 사용한 실험에서 우리는 제안한 방법을 사용하면, 기존의 순차적인 압축 및 인코딩 적용 방식보다 $7.9\%-39.4\%$ 더 적은 전력 소모를 가짐을 알 수 있었다.

  • PDF

Determinant Whether the Data Fragment in Unallocated Space is Compressed or Not and Decompressing of Compressed Data Fragment (비할당 영역 데이터 파편의 압축 여부 판단과 압축 해제)

  • Park, Bo-Ra;Lee, Sang-Jin
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.18 no.4
    • /
    • pp.175-185
    • /
    • 2008
  • It is meaningful to investigate data in unallocated space because we can investigate the deleted data. However the data in unallocated space is formed to fragmented and it cannot be read by application in most cases. Especially in case of being compressed or encrypted, the data is more difficult to be read. If the fragmented data is encrypted and damaged, it is almost impossible to be read. If the fragmented data is compressed and damaged, it is very difficult to be read but we can read and interpret it sometimes. Therefore if the computer forensic investigator wants to investigate data in unallocated space, formal work of determining the data is encrypted of compressed and decompressing the damaged compressed data. In this paper, I suggest the method of analyzing data in unallocated space from a viewpoint of computer forensics.

A Study for Efficiency Improvement of Compression Algorithm with Selective Data Distinction (선별적 데이터 판별에 의한 압축 알고리즘 효율 개선에 관한 연구)

  • Jang, Seung Ju
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.17 no.4
    • /
    • pp.902-908
    • /
    • 2013
  • This paper suggests to compress data selectively for improvement of data compression efficiency, not to perform unconditional compression on data. Whether to compress or not is determined by selective data distinction. By doing so, we can avoid unnecessary compression in the case of low compression efficiency. Cutting down the unnecessary compression, we can improve the performance of the pre-compression algorithm. Especially, the data algorithm which was already compressed could not be compressed efficiently in many cases, even if apply compression algorithm again. Even in these cases, we don't have to compress data unnecessarily. We implemented the proposed function actually and performed experiments with implementation. The experimental results showed normal operation.