• 제목/요약/키워드: sentence translation

검색결과 106건 처리시간 0.027초

Sentence Translation and Vocabulary Retention in an EFL Reading Class

  • Kim, Boram
    • 영어어문교육
    • /
    • 제18권2호
    • /
    • pp.67-84
    • /
    • 2012
  • The present study investigated the effect of sentence translation as a production task on short-term and long-term retention of foreign vocabulary. 87 EFL university students at a beginning level, enrolled in reading class participated in the study. The study compared the performance of three groups on vocabulary recall: (1) Control group, (2) Translation group, and (3) Copy group. During the treatment sessions, translation group translated L1 sentences into English, while copy group simply copied given English sentences with each target word. Results of the immediate test were collected each week from week 2 to week 5 and analyzed by one-way ANOVA. Results revealed that regarding short-term vocabulary retention, participants in rote-copy condition outperformed those in translation group. Four weeks later a delayed test was administered to measure long-term vocabulary retention. In contrast, the results of two-way repeated measures ANOVA showed that long-term vocabulary retention of translation group was significantly greater than copy group. The findings suggest that although sentence translation is rather challenging to low-level learners, it may facilitate long-term retention of new vocabulary given the more elaborate and deeper processing the task entails.

  • PDF

English-Korean speech translation corpus (EnKoST-C): Construction procedure and evaluation results

  • Jeong-Uk Bang;Joon-Gyu Maeng;Jun Park;Seung Yun;Sang-Hun Kim
    • ETRI Journal
    • /
    • 제45권1호
    • /
    • pp.18-27
    • /
    • 2023
  • We present an English-Korean speech translation corpus, named EnKoST-C. End-to-end model training for speech translation tasks often suffers from a lack of parallel data, such as speech data in the source language and equivalent text data in the target language. Most available public speech translation corpora were developed for European languages, and there is currently no public corpus for English-Korean end-to-end speech translation. Thus, we created an EnKoST-C centered on TED Talks. In this process, we enhance the sentence alignment approach using the subtitle time information and bilingual sentence embedding information. As a result, we built a 559-h English-Korean speech translation corpus. The proposed sentence alignment approach showed excellent performance of 0.96 f-measure score. We also show the baseline performance of an English-Korean speech translation model trained with EnKoST-C. The EnKoST-C is freely available on a Korean government open data hub site.

기계번역 사후교정(Automatic Post Editing) 연구 (Automatic Post Editing Research)

  • 박찬준;임희석
    • 한국융합학회논문지
    • /
    • 제11권5호
    • /
    • pp.1-8
    • /
    • 2020
  • 기계번역이란 소스문장(Source Sentence)을 타겟문장(Target Sentence)으로 컴퓨터가 번역하는 시스템을 의미한다. 기계번역에는 다양한 하위분야가 존재하며 APE(Automatic Post Editing)이란 기계번역 시스템의 결과물을 교정하여 더 나은 번역문을 만들어내는 기계번역의 하위분야이다. 즉 기계번역 시스템이 생성한 번역문에 포함되어 있는 오류를 수정하여 교정문을 만드는 과정을 의미한다. 기계번역 모델을 변경하는 것이 아닌 기계번역 시스템의 결과 문장을 교정하여 번역품질을 높이는 연구분야이다. 2015년부터 WMT 공동 캠페인 과제로 선정되었으며 성능 평가는 TER(Translation Error Rate)을 이용한다. 이로 인해 최근 APE에 모델에 대한 다양한 연구들이 발표되고 있으며 이에 본 논문은 APE 분야의 최신 동향에 대해서 다루게 된다.

Simultaneous neural machine translation with a reinforced attention mechanism

  • Lee, YoHan;Shin, JongHun;Kim, YoungKil
    • ETRI Journal
    • /
    • 제43권5호
    • /
    • pp.775-786
    • /
    • 2021
  • To translate in real time, a simultaneous translation system should determine when to stop reading source tokens and generate target tokens corresponding to a partial source sentence read up to that point. However, conventional attention-based neural machine translation (NMT) models cannot produce translations with adequate latency in online scenarios because they wait until a source sentence is completed to compute alignment between the source and target tokens. To address this issue, we propose a reinforced learning (RL)-based attention mechanism, the reinforced attention mechanism, which allows a neural translation model to jointly train the stopping criterion and a partial translation model. The proposed attention mechanism comprises two modules, one to ensure translation quality and the other to address latency. Different from previous RL-based simultaneous translation systems, which learn the stopping criterion from a fixed NMT model, the modules can be trained jointly with a novel reward function. In our experiments, the proposed model has better translation quality and comparable latency compared to previous models.

형태소 분석 기반 전자책 수화 번역 프로그램 (E-book to sign-language translation program based on morpheme analysis)

  • 한솔이;김세아;황경호
    • 한국정보통신학회논문지
    • /
    • 제21권2호
    • /
    • pp.461-467
    • /
    • 2017
  • 인터넷의 발전과 스마트 디바이스의 확산으로 e-book에 대한 수요가 늘고 있다. 그러나 청각 손실로 정확한 언어를 배우기 어려운 청각장애인은 텍스트로만 이루어진 e-book 서비스를 사용하기 어렵다. 본 논문에서는 e-book의 문장을 읽어 수화 동영상으로 제공하는 안드로이드 기반 애플리케이션 프로그램을 설계하고 구현하였다. e-book의 한국어 문장을 수화 언어로 번역하기 위해 형태소 분석에 기반한 알고리즘을 사용하였다. 제안한 알고리즘은 3단계로 구성된다. 1단계는 수화 표현을 위한 문장 요소 제거, 2단계는 수화 표현의 변환 및 시제 표현, 3단계는 수화 높임말 용어 변경 및 위치 이동이다. 또한 수화 번역 품질에 대한 평가 방안을 제시하고 100개의 기준 문장에 대해 제안한 알고리즘을 통한 번역 결과의 우수성을 확인하였다.

한국어 문장 유형의 자동 분류 한국어-수화 변환 및 한국어 음성 합성에의 응용 (Sentence Type Identification in Korean Applications to Korean-Sign Language Translation and Korean Speech Synthesis)

  • 정진우;이호준;박종철
    • 한국HCI학회논문지
    • /
    • 제5권1호
    • /
    • pp.25-35
    • /
    • 2010
  • 본 논문에서는 한국어 문장 유형을 자동으로 분류하는 방법을 제안하고 한국어-수화 변환과 한국어 음성 합성 분야에서 문장 유형 정보가 자연스러운 수화 표현과 음성 표현을 생성하는데 이용되는 과정을 보인다. 한국어에서 문장 유형은 크게 평서문, 명령문, 청유문, 의문문, 감탄문의 다섯 가지로 분류되는데, 기존의 방법으로는 대화체 문장에서 동일한 문장이 여러 가지 유형으로 해석되는 중의성의 문제가 발생한다. 본 논문에서는 문장 내에서 형태소 및 구문단위의 다양한 단서들을 활용하여 이를 해결하는 방법을 제안하며, 실험 결과 본 논문에서 제시한 문장 유형 분류 시스템이 만족할 만한 성능을 보이는 것을 확인하였다. 이를 이용하여 한국어-수화 변환 시스템에서 문장 유형에 따라 수화의 비수지신호가 다르게 표현되는 현상을 처리하는 과정과 한국어 음성 합성 시스템에서 문장 유형에 따라 문장의 문미 억양이 변하는 현상을 처리하는 과정을 제시한다. 문장 유형 정보를 음성 합성과 수화 자동 생성에 이용하는 것은 기존에는 연구되지 않았던 방법으로, 좀 더 자연스러운 음성과 수화 표현을 생성하는데 중요한 역할을 할 것으로 기대한다.

  • PDF

가상세계 속에 보인 일본어의 가족 간의 문말 표현에 대해 - 교수매체로서의 문말의 정중체와 종조사 사용에 대해 (The Expression of Ending Sentence in Family Conversations in the Virtual Language - Focusing on Politeness and Sentence-final Particle with Instructional Media -)

  • 양정순
    • 비교문화연구
    • /
    • 제39권
    • /
    • pp.433-460
    • /
    • 2015
  • This paper was analyzed the politeness and the expression of ending sentence in family conversations in the virtual language of cartoon characters. Younger speakers have a tendency to unite sentence-final particle to the polite form, older speakers have a tendency to unite it to the plain form in the historical genre. But younger speakers and older speakers unite sentence-final particle to the plain form in other fiction genres. Using terms of respect is determined by circumstances and charactonym. Comparing the translation of conversations with the original, there were the different aspects of translated works. When Japanese instructors are used to study Japanese as the instructional media, they give a supplementary explanation to students. 'WA' 'KASIRA' that a female speaker usually uses are used by a male speaker, 'ZO' 'ZE' that a male speaker usually uses are used by a female speaker in the virtual language of cartoons. In the field of the translation, it is translated 'KANA' 'KASIRA' into 'KA?', 'WA' 'ZO' 'ZE' into 'A(EO)?', 'WAYO' 'ZEYO' into AYO(EOYO)'. When we use sentence-final particle in the virtual language of cartoon, we need to supply supplementary explanations and further examinations.

숫자 기호화를 통한 신경기계번역 성능 향상 (Symbolizing Numbers to Improve Neural Machine Translation)

  • 강청웅;노영헌;김지수;최희열
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권6호
    • /
    • pp.1161-1167
    • /
    • 2018
  • 기계 학습의 발전은 인간만이 할 수 있었던 섬세한 작업들을 기계가 할 수 있도록 이끌었고, 이에 따라 많은 기업체들은 기계 학습 기반의 번역기를 출시하였다. 현재 상용화된 번역기들은 우수한 성능을 보이지만 숫자 번역에서 문제가 발생하는 것을 발견했다. 번역기들은번역할문장에 큰숫자가 있을경우종종숫자를잘못번역하며, 같은문장에서숫자만바꿔번역할 때문장의구조를 완전히바꾸어 번역하기도 한다. 이러한 문제점은오번역의 가능성을 높이기 때문에해결해야 될 사안으로여겨진다. 본 논문에서는 Bidirectional RNN (Recurrent Neural Network), LSTM (Long Short Term Memory networks), Attention mechanism을 적용한 Neural Machine Translation 모델을 사용하여 데이터 클렌징, 사전 크기 변경을 통한 모델 최적화를 진행 하였고, 최적화된 모델에 숫자 기호화 알고리즘을 적용하여 상기 문제점을 해결하는 번역 시스템을 구현하였다. 본논문은 데이터 클렌징 방법과 사전 크기 변경, 그리고 숫자 기호화 알고리즘에 대해 서술하였으며, BLEU score (Bilingual Evaluation Understudy score) 를 이용하여 각 모델의 성능을 비교하였다.

일반 번역시스탬을 위한 일본어 해석기 설계 (A Design of Japanese Analyzer for Japanese to Korean Translation System)

  • 강석훈;최병욱
    • 전자공학회논문지B
    • /
    • 제32B권1호
    • /
    • pp.136-146
    • /
    • 1995
  • In this paper, a Japanese morphological analyzer for Japanese to Korean Machine Translation System is designed. The analyzer reconstructs the Japanese input sentence into word phrases that include grammatical and dictionary informations. Thus we propose the algorithm to separate morphemes and then connect them by reference to a corresponding Korean word phrases. And we define the connector to control Japanese word phrases It is used in controlling the start and the end point of the word phrase in the Japanese sentence which is without a space. The proposed analyzer uses the analysis dictionary to perform more efficient analysis than the existing analyzer. And we can decrease the number of its dictionary searches. Since the analyzer, proposed in this paper, for Japanese to Korean Machine Translation System processes each word phrase in consideration of the corresponding Korean word phrase, it can generate more accurate Korean expressions than the existing one which places great importance on the generation of the entire sentence structure.

  • PDF

Optimized Chinese Pronunciation Prediction by Component-Based Statistical Machine Translation

  • Zhu, Shunle
    • Journal of Information Processing Systems
    • /
    • 제17권1호
    • /
    • pp.203-212
    • /
    • 2021
  • To eliminate ambiguities in the existing methods to simplify Chinese pronunciation learning, we propose a model that can predict the pronunciation of Chinese characters automatically. The proposed model relies on a statistical machine translation (SMT) framework. In particular, we consider the components of Chinese characters as the basic unit and consider the pronunciation prediction as a machine translation procedure (the component sequence as a source sentence, the pronunciation, pinyin, as a target sentence). In addition to traditional features such as the bidirectional word translation and the n-gram language model, we also implement a component similarity feature to overcome some typos during practical use. We incorporate these features into a log-linear model. The experimental results show that our approach significantly outperforms other baseline models.