• 제목/요약/키워드: 부분 중복 제거

검색결과 48건 처리시간 0.028초

Three-step 알고리즘을 이용한 H.263 기반의 움직임 측정 (H.263 Motion Estimation using the three-step algorithm)

  • 윤성규;유환종;임명수;임영환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1999년도 가을 학술발표논문집 Vol.26 No.2 (2)
    • /
    • pp.389-391
    • /
    • 1999
  • 영상 압축 기법에는 여러 가지 알고리즘을 적용되고 있다. 이런 알고리즘들에는 주파수 영역 중복을 제거하기 위한 DCT, 시간 중복성 제거를 위한 움직임 측정, 압축기법에 의해서 만들어진 정보를 부호화하는 VLC들이 있다. 이런 부호화 알고리즘들은 부호화기를 구현하는데 많은 시간을 요구하며 특히 움직임 추정은 부호화기의 절반에 가까운 시간을 소비한다. 움직임 측정 기술의 복잡도는 search algorithm, cost function, search range parameter의 요인으로 나타낼 수 있다. 본 논문에서는 기존의 Full Search 알고리즘 대신에 three-step 알고리즘을 사용하여 움직임 측정 시간을 줄였다. Full Search 알고리즘은 search area에서 모든 지역에 대해 cost function을 사용하여 이전 블록과 얼마나 유사한지를 조사한다. 따라서 이전 블록과 가장 유사한 부분을 찾는 좋은 방법이지만 그만큼 시간이 많이 사용한다. Three-step 알고리즘은 search area의 일정 지역에 대해 cost function를 사용하여 이전 블록과의 유사성을 찾는 fast 알고리즘이다. Three-step 알고리즘을 사용한 경우 기존의 full search 알고리즘을 사용할 때 보다 60% 정도의 시간이 단축되었다. 그리고 생성되는 압축 데이터의 크기는 full search 알고리즘을 사용할 때 보다 많이 차지한다. 생성되는 H.263파일의 화질에서는 Three-step 알고리즘을 사용한 경우일지라도 full search 알고리즘을 사용한 경우와 거의 비슷한 화질을 보여준다.

  • PDF

다단계 메타데이터 관리를 사용한 파일 동기화 시스템 (File Synchronization System Using Multi-Level Metadata Management)

  • 공진산;박재민;고영웅
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.79-82
    • /
    • 2013
  • 현재 널리 사용되는 클라우드 스토리지 서비스들의 파일 동기화 기능에 있어 적게 변경된 파일 또는 이름만 변경된 파일에 있어 동기화 시 전체를 전송하는 문제가 있다. 또한 사용자들 간 동일한 파일이 존재함에도 불구하고 전체를 전송하는 문제가 있다. 이러한 문제를 해결하기 위해 본 연구에서는 이중 레벨 메타데이터를 사용한 중복 제거 동기화 시스템을 구현하였다. 주요 아이디어는 VLC(Variable-length Chunking)를 사용하여 중복되지 않은 데이터만 전송하며 서버는 글로벌 메타데이터를 유지하여 사용자 간 중복된 데이터를 검출하는 것이다. 실험 결과로 부분 추가/삭제된 파일 전송 시 제안한 시스템이 네트워크 대역폭과 시간을 감소시키는 것을 보였다.

WSOLA 기반의 음성 시간축 변환을 위한 고속의 정규상호상관도 계산 (A Fast Normalized Cross-Correlation Computation for WSOLA-based Speech Time-Scale Modification)

  • 임상준;김형순
    • 한국음향학회지
    • /
    • 제31권7호
    • /
    • pp.427-434
    • /
    • 2012
  • WSOLA 방식은 음성 신호의 시간축 변환을 위한 고음질의 효율적인 알고리즘으로 알려져 있다. WSOLA의 계산량은 두 신호 파형 사이의 유사도를 평가하는 반복적인 정규상호상관도 계산에 집중되어 있다. 본 논문은 WSOLA 계산량 감축을 위해 고속의 정규상호상관도 계산 방법을 제안하며, 제안된 방법에서는 미리 계산된 합 테이블을 통해 인접한 구간에서의 반복적인 정규상호상관도 계산의 중복성을 제거한다. 정규상호상관도의 분모 부분은 시간축 변환 비율에 관계없이 높은 중복성을 가지는데 반해, 분자 부분은 보다 낮은 중복성을 가지며 중복 정도가 시간축 변환 비율과 최적 이동값에 의해 영향을 받기 때문에 고속 계산을 위해 보다 복잡한 알고리즘이 요구된다. 시뮬레이션 결과, 제안된 방법이 기존의 WSOLA와 완전히 동일한 음질을 유지하면서도 시간축 압축의 경우 약 40%, 그리고 1/2배속 및 1/3배속으로의 시간축 신장의 경우 각각 약 47% 및 52%의 실행시간을 감소시킴을 보인다.

원자력발전소의 인간 공학 주기적 안정성 평가 방법론 및 적용

  • 정연섭;지문구;김주택
    • 원자력산업
    • /
    • 제23권6호통권244호
    • /
    • pp.39-47
    • /
    • 2003
  • 법령에 의하여 요구되는 주기적 안전성 평가를 위하여 인적 요소 평가 방법론을 개발하였다. 특히 평가 하위 업무간의 중복을 제거하여 업무의 효율을 향상시키고 반복적으로 수행되는 동일발전소, 혹은 타발전소의 결과를 충분히 활용할 수 있도록 하였다. 이 방법론은 인간 기계 연계 체제의 현상태 평가, 운전 이력 중심 평가, 시뮬레이션 활용 평가라는 3가지로 특정지어진다. 이 평가 방법을 적용하여 고리 3$\cdot$4호기에 대해서 부분 평가를 수행하였고 그 결과를 제시하였다.

  • PDF

3-주소 코드를 스택-기반 코드로의 변환기 (Translator for Stack-Based Codes from Three-Address Codes)

  • 김영국;고훈준;유원희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.369-372
    • /
    • 2005
  • 자바의 문제점은 실행속도의 저하이다. 실행속도 저하의 해결 방법으로 네이티브 코드로 변환, JIT컴파일러, 바이트코드 최적화등의 연구가 되어 왔다. 그중에 바이트코드 최적화 방법을 사용하는 CTOC(Class To Optimized Classes)에서 3-주소 코드를 스택-기반 코드로 코드 확장 기법으로 변환 시 불필요한 store/load 코드가 생성된다. 따라서 본 논문은 불필요한 store/load 코드를 제거하기 위해서 부분 중복 코드 제거 후 불필요한 store/load문을 제거함으로서 불필요한 store/load 코드의 양을 줄이는 변환기를 제안하고, 거기에 대한 간단한 예를 들어 설명한다.

  • PDF

중간 코드를 스택-기반 코드로의 변환기 (Translator for Stack-Based Codes from Intermediated Codes)

  • 김영국;고훈준;유원희
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 한국컴퓨터종합학술대회 논문집 Vol.32 No.1 (B)
    • /
    • pp.895-897
    • /
    • 2005
  • 자바의 문제점은 실행속도의 저하이다. 실행속도 저하의 해결 방법으로 네이티브 코드로 변환, JIT컴파일러, 바이트코드 최적화등의 연구가 되어 왔다. 그 중에 바이트코드 최적화 방법을 사용하는 CTOC(Class To Optimized Classes)에서 중간코드로 사용하는 3-주소 코드를 스택-기반 코드로 코드 확장 기법으로 변환 시 불필요한 store/load 코드가 생성된다. 따라서 본 논문은 불필요한 store/load 코드를 제거하기 위해서 부분 중복 코드 제거 후 불필요한 store/load문을 제거함으로서 불필요한 store/load 코드의 양을 줄이는 변환기를 제안하고, 거기에 대한 간단한 예를 들어 설명한다.

  • PDF

다중척도 정칙화 방법을 이용한 영상복원 (Multiscale Regularization Method for Image Restoration)

  • 이남용
    • 융합신호처리학회논문지
    • /
    • 제5권3호
    • /
    • pp.173-180
    • /
    • 2004
  • 이 논문에서는 중복된 웨이블렛 변환영역에서 다중척도 정칙화를 이용한 새로운 영상복원방법을 제시하였다. 제안된 방법은 중복된 웨이블렛 변환을 이용하여 단일척도 영상복원문제를 다중척도의 영상복원문제로 변환한 후에, 각 척도에 의존하는 정칙화 방법을 이용하여 각 척도별로 영상복원을 하고 그 결과를 중복 웨이블렛 역변환을 통해 최종적인 영상복원을 얻는 방법이다. 제안된 방법은 웨이블렛 관련 복원부분에서는 다소 적은 정칙화 계수를 적용하여 뚜렷한 경계를 복원하는 반면, 적은 정칙화 계수에 적용한 것에 의해 발생하는 잡음은 웨이블렛 축소법을 이용하여 제거하였다. 제안된 방법의 향상된 영상복원 성능은 전통적인 Wiener 필터링과의 비교실험을 통해 검증하였다.

  • PDF

그래프 스트림에서 점진적 빈발 패턴 검출 (Incremental Frequent Pattern Detection in Graph Streams)

  • 정재윤;최도진;복경수;유재수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2017년도 춘계 종합학술대회 논문집
    • /
    • pp.39-40
    • /
    • 2017
  • 그래프 스트림 데이터에 대한 활용이 증가됨에 따라 빈발 패턴을 검출하는 연구가 활발하게 진행되고 있다. 본 논문에서는 슬라이딩 윈도우 내에 변경된 부분만을 계산하는 점진적인 빈발 패턴 검출 기법을 제안한다. 제안하는 기법은 윈도우에서 변경되는 부분만 계산함으로써 중복된 계산을 감소시킨다. 또한, 간선 관리 테이블을 이용해 관련이 없는 패턴들을 제거함으로써 의미 있는 빈발 패턴만을 검출한다.

  • PDF

공간 데이터웨어하우스에서 시공간 분석 지원을 위한 비중복 적재기법 (Non-Duplication Loading Method for supporting Spatio-Temporal Analysis in Spatial Data Warehouse)

  • 전치수;이동욱;유병섭;이순조;배해영
    • 한국공간정보시스템학회 논문지
    • /
    • 제9권2호
    • /
    • pp.81-91
    • /
    • 2007
  • 본 논문에서는 공간 데이터 웨어하우스에서 시공간 분석지원을 위한 공간 데이터의 비중복 적재 기법을 제안한다. SDW는 이기종의 다양한 서비스를 지원하는 SDBMS로부터 공간 데이터를 추출한다. 제안 기법에서는 SOW에 소스로 참여하는 SDBMS에서 변경된 부분만을 추출하고, 이를 공간연산을 통해 중복된 데이터를 제거한 후 통합된 형태로 적재함으로써 빠른 공간 데이터 분석을 지원할 수 있으며, 저장 공간의 낭비를 줄일 수 있다. 이는 공간 마이닝등의 시간에 따른 분석 및 예측 분야에 효율적인 형태로 공간 데이터를 적재한다.

  • PDF

메모리 파일 시스템 기반 고성능 메모리 맵 파일 입출력을 위한 매핑 캐시 (Mapping Cache for High-Performance Memory Mapped File I/O in Memory File Systems)

  • 김지원;최정식;한환수
    • 정보과학회 논문지
    • /
    • 제43권5호
    • /
    • pp.524-530
    • /
    • 2016
  • 기존보다 데이터를 빠르게 접근하기 위한 노력과 비-휘발성 메모리의 발전은 메모리 파일 시스템 연구에 큰 기여를 해왔다. 메모리 파일 시스템은 파일 입출력의 고성능을 위해서 기존에 사용하는 읽기-쓰기 입출력보다 오버헤드가 적은 메모리 맵 파일 입출력을 사용하도록 제안하고 있다. 하지만 메모리 맵 파일 입출력을 사용하게 되면서 페이지 테이블을 구축할 때 발생하는 오버헤드가 전체 입출력 성능의 큰 부분을 차지하게 되었다. 또한 같은 파일이 반복적으로 접근될 때마다 페이지 테이블을 매번 삭제하기 때문에, 오버헤드가 불필요하게 중복되어서 발생한다는 점을 발견했다. 본 논문이 제안하는 매핑 캐시는 이러한 중복되는 오버헤드를 제거하기 위해서, 매핑이 해제될 때 파일의 페이지 테이블을 제거하지 않고 저장하고 있다가 다시 접근될 때 이를 재활용할 수 있도록 고안한 기법이다. 매핑 캐시는 기존 파일 입출력 성능보다 2.8배, 그리고 웹서버 전체 성능보다 12% 향상을 보였다.