Abstract
In resolution-constrained quantization, the size of Voronoi cell varies depending on probability density function of the input data, which causes large amount of distortion outliers. We propose a vector quantization method that reduces distortion outliers by combining the generalized Lloyd algorithm (GLA) and the cell-size constrained vector quantization (CCVQ) scheme. The training data are divided into the inside and outside regions according to the size of Voronoi cell, and consequently CCVQ and GLA are applied to each region, respectively. As CCVQ is applied to the densely populated region of the source instead of GLA, the number of centroids for the outside region can be increased such that distortion outliers can be decreased. In real-world environment, source mismatch between training and test data is inevitable. For the source mismatch case, the proposed algorithm improves performance in terms of average distortion and distortion outliers.
고정 비트율을 사용하는 resolution-constrained quantization 방식은 입력 데이터 분포에 따라 보로노이 셀의 크기가 달라지므로 이상 신호왜곡 (distortion outliers)을 발생시킨다. 본 논문에서는 generalized Lloyd algorithm (GLA)과 cell-size constrained vector quantization (CCVQ) 방식을 결합하여 이상 신호왜곡을 줄이는 벡터 양자화 방식을 제안한다. 즉, 왜곡에 대한 문턱 값에 따라서 데이터 분포를 내부와 외부영역으로 나누고, 각각 CCVQ와 GLA 방식을 사용하여 학습하도록 한다. 데이터 분포가 높은 내부영역에 CCVQ 방식을 사용하게 됨에 따라 GLA를 사용하는 외부영역에서 사용이 가능한 셀의 개수가 늘어나게 되며, 이로 인해 이상 신호왜곡을 줄일 수 있었다. 또한, 실제 코딩 환경에서는 일반적으로 training과 test 데이터의 분포가 다르게 나타나는 소스 불일치 (source mismatch) 문제가 발생하게 된다. 제안하는 방식은 source mismatch 문제로 인해 일어나는 신호왜곡과 이상 신호왜곡에 대해서도 성능 개선을 가능하게 하였다.