Abstract
We improved the MLLR speaker adaptation algorithm with reduction of the order of HMM parameters using PCA(Principle Component Analysis) or ICA(Independent Component Analysis). To find a smaller set of variables with less redundancy, we adapt PCA(principal component analysis) and ICA(independent component analysis) that would give as good a representation as possible, minimize the correlations between data elements, and remove the axis with less covariance or higher-order statistical independencies. Ordinary MLLR algorithm needs more than 30 seconds adaptation data to represent higher word recognition rate of SD(Speaker Dependent) models than of SI(Speaker Independent) models, whereas proposed algorithm needs just more than 10 seconds adaptation data. 10 components for ICA and PCA represent similar performance with 36 components for ordinary MLLR framework. So, compared with ordinary MLLR algorithm, the amount of total computation requested in speaker adaptation is reduced by about 1/167 in proposed MLLR algorithm.
본 논문은 주성분분석(PCA, Principle Component Analysis) 혹은 독립성분분석(ICA, Independent Principle Component Analysis)를 이용하여 HMM(Hidden Markov Model) 파라메타의 차수를 감소시킴으로써 MLLR(Maximum Likelihood Linear Regression) 화자 적응 알고리즘을 개선하였다. 데이터의 특징을 잘 나타내는 PCA와 ICA를 통해 모델 mixture component의 상관관계를 줄이고 상대적으로 데이터의 분포가 적은 축을 삭제함으로써 추정해야 하는 적응 파라메타의 수를 줄였다. 기존의 MLLR 알고리즘은 SI(Speaker Independent)모델 보다 좋은 인식성능을 나타내기 위해 30초 이상의 적응 데이터가 요구되었고, 반면 제안한 알고리즘은 적응 파라메타의 수를 감소시킴으로써 10초 이상의 적응데이터가 요구되었다. 또한, 36차의 HMM 파라메타는 기존의 MLLR 알고리즘과 비슷한 인식성능을 나다내는 10차의 주성분이나 독릭성분을 사용함으로써 MLLR 알고리즘에서 적응파라메타를 추정할 때 요구되는 연산량을 1/167로 감소시켰다.