An English Essay Scoring System Based on Grammaticality and Lexical Cohesion

문법성과 어휘 응집성 기반의 영어 작문 평가 시스템

  • Kim, Dong-Sung (Dept. of Linguistics and Cognitive Science, Hankuk University of Foreign Studies) ;
  • Kim, Sang-Chul (Dept. of Computer Science, Hankuk University of Foreign Studies) ;
  • Chae, Hee-Rahk (Dept. of Linguistics and Cognitive Science, Hankuk University of Foreign Studies)
  • 김동성 (한국외국어대학교 언어인지과학과) ;
  • 김상철 (한국외국어대학교 컴퓨터공학과) ;
  • 채희락 (한국외국어대학교 언어인지과학과)
  • Published : 2008.09.30

Abstract

In this paper, we introduce an automatic system of scoring English essays. The system is comprised of three main components: a spelling checker, a grammar checker and a lexical cohesion checker. We have used such resources as WordNet, Link Grammar/parser and Roget's thesaurus for these components. The usefulness of an automatic scoring system depends on its reliability. To measure reliability, we compared the results of automatic scoring with those of manual scoring, on the basis of the Kappa statistics and the Multi-facet Rasch Model. The statistical data obtained from the comparison showed that the scoring system is as reliable as professional human graders. This system deals with textual units rather than sentential units and checks not only formal properties of a text but also its contents.

본 논문에서 우리는 문장의 문법성과 텍스트의 어휘 응집성 측정을 위주로 하는 영어 작문 자동평가시스템을 소개하려고 한다. 문법 검사를 위해서는 링크 파서를 사용하고 어휘 연쇄를 측정하기 위해서는 로제 시소러스를 사용한다. 자동 평가 시스템의 채점 신뢰도를 측정하기 위해서 자동 채점과 수동 채점의 결과를 통계적으로 비교한다. 카파 통계와 다국면 Rasch 모형에 따른 분석 결과 자동 채점은 수동 채점과 유사성이 크며 수동 채점과 비교해서 신뢰성에 특별한 문제가 없다는 결론을 내리게 된다. 본 연구의 가장 큰 의의는 다양한 종류의 기술과 도구를 바탕으로 신뢰할 만한 수준의 영작문 자동 평가 시스템을 개발했다는 것이다. 평가 대상이 문장 단위를 넘어 선 텍스트 단위이며, 단어나 문법 등의 형식적 측면만 검사하는 것이 아니라 내용적 측면도 평가한다.

Keywords