• 제목/요약/키워드: 부분 중복 제거

검색결과 48건 처리시간 0.025초

추론적 부분 중복 제거의 최적화 예외 영역 문제 해결 알고리즘 (An Algorithm of Solution for the Exceptional Field Problem in the Speculative Partial Redundancy Elimination(SPRE) Optimization)

  • 신현덕;안희학
    • 정보처리학회논문지A
    • /
    • 제13A권6호
    • /
    • pp.489-494
    • /
    • 2006
  • 본 논문에서는 Knoop 등이 2004년에 제안한 추론적 부분 중복 제거 알고리즘을 개선한다. 본 연구에서는 기존 추론적 부분 중복 제거에서 최적화가 적용되지 않는 영역이 발생될 수 있는 문제를 제기하고 이 문제에 대한 해법을 제안한다. 개선된 추론적 부분 중복 제거 알고리즘은 컴파일러의 프로필링 기법을 통해 얻어진 실행 빈도에 대한 정보를 통해 실행 속도 최적화를 수행하며 메모리 최적화도 수행한다.

SSA Form에서 부분 중복 제거를 이용한 최적화 (Optimization Using Partial Redundancy Elimination in SSA Form)

  • 김기태;유원희
    • 정보처리학회논문지D
    • /
    • 제14D권2호
    • /
    • pp.217-224
    • /
    • 2007
  • CTOC에서는 정적으로 값과 타입을 결정하기 위해 변수를 배정에 따라 분리하는 SSA Form을 사용한다. SSA Form은 최근 데이터 흐름분석과 코드 최적화를 위해 컴파일러의 중간 표현으로 많이 사용되고 있다. 하지만 기존의 SSA Form은 표현적보다는 주로 변수에 관련된 것이다. 따라서 SSA Form 형태의 표현식에 대해 최적화를 적용하기 위해 중복된 표현식을 제거한다. 본 논문에서는 좀더 최적화된 코드를 얻기 위해 부분 중복 표현식을 정의하고, 부분 중복 표현식을 제거하는 방법을 구현한다.

대용량 데이터의 중복제거(De-Duplication) 성능 실험 (De-Duplication Performance Test for Massive Data)

  • 이철민;김재훈;김영규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.271-273
    • /
    • 2012
  • 중복 제거(De-duplication) 여러 데이터를 저장한 스토리지에서 같은 내용을 담고 있는 파일자체나 블록단위의 chunk 등을 찾아 중복된 내용을 제거하여 중복된 부분은 하나의 데이터 단위를 유지함으로써 스토리지 공간을 절약할 수 있다. 본 논문에서는 실험적인 데이터가 아닌 실제 업무 환경에서 적용될만한 대용량의 데이터 백업을 가정한 상황에 대해 중복 제거 기법을 테스트해봄으로써 중복제거율과 성능을 측정하였으며 이를 시각적으로 표현하는 방법을 제안함으로써 평가자 및 사용자가 알아보기 쉽게 하였다.

가상 환경에서 시멘틱 갭 연결을 통한 자원 중복성 제거 (Resource Redundancy Elimination by Bridging the Semantic Gap in Virtualized Systems)

  • 김인혁;김태형;엄영익
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2011년도 추계학술발표대회
    • /
    • pp.185-187
    • /
    • 2011
  • 전통적인 가상화 기술들은 하나의 물리 머신에서 서로 다른 운영체제들을 동작시키기 위해 여러 개의 가상 머신을 제공하고 있다. 이러한 가상화 기술들은 운영체제를 소스 수정없이, 혹은 약간의 수정만으로 물리 머신에서 동작하는 것과 동일한 방식으로 동작할 수 있도록 지원하기 때문에 호스트와 게스트 간의 깊은 시멘틱 갭을 발생시킨다. 이러한 시멘틱 갭은 여러 컴퓨팅 자원에 대한 공간 중복과 접근 중복의 중요한 원인이 되고, 이러한 자원 중복은 대규모 가상화 시스템의 확장성에 제약한다. 이러한 자원 중복을 제거하기 위해 컨텐츠 기반 페이지 공유 등 다양한 연구들이 진행되어 왔지만 운영체제 수정없이 지원하는 정책으로 인한 시멘틱 갭은 여전히 제안 기법들을 제한하게 된다. 이에 우리들은 운영체제의 자원 관리 부분을 수정하여 근본적인 시멘틱 갭을 제거함으로써 메모리와 스토리지의 공간 및 접근 중복성을 제거할 수 있는 파일시스템을 제안하였다. 그리고 실험을 통해 기존의 가상 블록 장치를 사용하는 파일시스템과 비교 및 평가하여 제안 시스템이 페이지 캐시 공유 및 스토리지 접근 중복 제거에 효과적임을 입증하였다.

다단계 중복 제거 기법을 이용한 클러스터 기반 파일 백업 서버 (A Clustering File Backup Server Using Multi-level De-duplication)

  • 고영웅;정호민;김진
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제14권7호
    • /
    • pp.657-668
    • /
    • 2008
  • 기존의 상용 저장 시스템은 데이타를 저장할 때 몇 가지 문제점을 가지고 있다. 먼저, 데이타를 저장함에 있어서 실용적인 중복제거 기법이 널리 활용되고 있지 못하기 때문에 저장 장치 낭비를 초래하고 있다. 또한 대규모 데이타 입출력을 처리하기 위해서 고사양의 시스템을 요구한다는 부분도 문제점으로 지적할 수 있다. 이와 같은 문제를 해결하기 위해서 본 논문에서는 블록 수준에서의 중복을 제거하기 위한 방안으로 파일 지문을 이용한 클러스터링 기반 저장 시스템을 제안하고 있다. 본 연구는 기존의 저장 시스템과 몇 가지 부분에서 차이를 보인다. 먼저, 파일 블록의 지문을 이용한 다단계 중복 제거 기법을 통하여 불필요한 데이타에 대한 저장 용량을 효과적으로 줄일 수 있었다. 또한 입출력 시스템 부분에서는 클러스터링 기법을 적용함으로써 데이타 전송 및 입출력 시간을 효과적으로 감소시켰다. 본 논문에서는 제안된 방법을 검증하기 위해서 몇 가지 실험을 수행하였으며, 실험 결과 저장 공간과 입출력 성능이 크게 개선되었음을 보였다.

윈도우 서버 2012에서 데이터 중복 제거 기능이 적용된 파일의 복원 방법에 관한 연구 (A Study of Method to Restore Deduplicated Files in Windows Server 2012)

  • 손관철;한재혁;이상진
    • 정보보호학회논문지
    • /
    • 제27권6호
    • /
    • pp.1373-1383
    • /
    • 2017
  • 중복 제거는 데이터를 효과적으로 관리하여 저장 공간의 효율성을 높이기 위한 기능이다. 중복 제거 기능이 시스템에 적용되면 저장되어 있는 파일을 청크 단위로 분할하고 중복되는 부분은 하나의 청크로만 저장함으로써 저장 공간을 효율적으로 사용할 수 있게 한다. 하지만 중복 제거된 데이터에 대해 상용 디지털 포렌식 도구에서 파일시스템 해석을 지원하지 않으며, 도구로 추출된 원본 파일을 실행하거나 열람할 수 없는 상황이다. 따라서 본 논문에서는 중복 제거 기능을 적용할 수 있는 윈도우 서버 2012 시스템을 대상으로 청크 단위의 데이터를 생성하는 과정과 그 결과로 생성되는 파일의 구조를 분석하고, 기존 연구에서 다뤄지지 않은 청크가 압축되는 경우에 대해서도 분석결과를 도출하였다. 이러한 결과를 바탕으로 디지털 포렌식 조사에서 적용할 수 있는 수집 절차와 원본 파일로 재조합하기 위한 방법을 제시한다.

부분 중복 데이터베이스에서 중복 데이터의 트리를 이용한 일관성 유지 (The Consistency Management Using Trees of Replicated Data Items in Partially Replicated Database)

  • 배미숙;황부현
    • 정보처리학회논문지D
    • /
    • 제10D권4호
    • /
    • pp.647-654
    • /
    • 2003
  • 데이터의 중복은 가용성과 시스템의 성능을 향상시키기 위하여 사용한다. 분산 데이터베이스 시스템에서는 데이터베이스의 일관성뿐만 아니라 중복 일판성도 유지해야 한다. 이 논문에서는 부분 중복 환경에서 각 데이터 마다 주사본을 루트로 하여 그 데이터의 사본들을 계층적인 트리로 조직화하고, 이 트리를 이용하여 연산들의 충돌문제를 해결하는 효율적인 알고리즘을 제안한다. 각 데이터의 계층구조화는 갱신이 데이터의 계층구조를 따라 사본이 갖는 사이트에만 전파될 수 있으므로 갱신의 불필요한 전파시간을 제거하여 갱신 전달 시간을 줄일 수 있다. 그리고 제안한 알고리즘은 지연 갱신 전파로 인하여 갱신 전파 도중에 발생할 수 있는 충돌로 인한 비직렬성 문제를 타임스탬프와 보상 트랜잭션을 이용하여 해결한다. 이러한 방식의 연산들의 충돌문제의 해결은 갱신전파 시간을 줄이면서도 일관성 있는 데이터를 제공할 수 있다.

기계학습을 이용한 불만족 고객의 예측 (Prediction of Unsatisfied Customers Using Machine Learning)

  • 오세창;최민
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2016년도 춘계학술발표대회
    • /
    • pp.667-670
    • /
    • 2016
  • 많은 기계학습 문제에서 특정 선택 문제는 전체적인 성능을 좌우하는 중요한 부분이다. 이는 불만족 고객의 식별 문제와 같이 수 많은 특징을 사용하는 문제에서 더욱 절실하다. 본 연구에서는 중요한 특징을 찾고 중복성을 제거하기 위한 몇 가지 대표적인 방법들을 불만족 고객의 식별 문제에 적용하였다. 이를 통해 먼저 정보 획득량 지표로 의미 있는 특징들을 선별하고, PCA를 사용해서 남아있는 중복성을 줄이는 방법이 가장 좋은 결과를 얻었다.

영역 병합을 이용한 웨이블릿 잡음 제거 (Wavelet Denoising Using Region Merging)

  • 엄일규;김유신
    • 한국통신학회논문지
    • /
    • 제30권3C호
    • /
    • pp.119-124
    • /
    • 2005
  • 본 논문에서는 영역 병합 방법을 사용하여 가변하는 국부 적응 창의 크기를 결정하는 새로운 알고리즘을 제안한다. 잡음 제거를 위한 한 점을 포함하고 있는 영역은 중복되지 않게 부분 영역으로 분할된다. 적절한 부분 영역을 선택하여 잡음 제거를 위한 국부 적응 창을 결정한다. 제안 방법에서는 거의 임의의 모양을 가지는 창을 얻을 수 있다. 모의실험결과에서 제안 방법이 다른 웨이블릿 기반 잡음 제거 방법보다 우수함을 보인다.

CTOC에서 코드 최적화 수행 (Processing of Code Optimization in CTOC)

  • 김기태;유원희
    • 한국멀티미디어학회논문지
    • /
    • 제10권5호
    • /
    • pp.687-697
    • /
    • 2007
  • 자바 바이트코드는 많은 장점을 가지고 있지만, 수행속도가 느리고 프로그램 분석이나 최적화에 적절한 표현이 아니라는 단점이 존재한다. 따라서 네트워크와 같은 실행 환경에서 효율적으로 수행되기 위해서는 최적화된 코드로 변환이 필요하다. 따라서 우리는 최적화된 코드로의 변환을 위해 CTOC를 구현하였다. 최적화 과정에서 CTOC는 정적으로 값과 타입을 결정하기 위해 변수를 배정에 따라 분리하는 SSA From을 사용하였다. 하지만 SSA Form변환 과정에서 ${\phi}$-함수의 추가에 의해 오히려 노드의 수가 증가되는 문제점이 발생하였다. 이를 해결하기 위해 본 논문에서는 SSA Form에서 복사 전파와 죽은 코드 제거 최적화를 수행한다. 또한 기존의 SSA Form은 표현식보다는 주로 변수에 관련된 것이라는 단점이 존재한다. 따라서 본 논문에서는 SSA Form 형태의 표현식에 대해 복사 전파와 죽은 코드 제거와 같은 최적화를 적용한 후 다시 중복된 표현식을 제거하는 과정을 추가로 수행한다.

  • PDF