• 제목/요약/키워드: 모음 인식

검색결과 192건 처리시간 0.017초

미드라쉬의 성서교수학적 함의와 적용 (Biblical Didactical Implications and Applications of Midrash)

  • 김인혜;고원석
    • 기독교교육논총
    • /
    • 제67권
    • /
    • pp.45-75
    • /
    • 2021
  • 본 논문은 시대적 상황 속에서 성서교육에 대한 새 패러다임을 모색하며 유대 성서해석의 옛 전통인 미드라쉬로 시선을 돌린다. 이는 오늘의 상황 속에서 현재의 성서교육이 의미 있고 효과적인 교육이 되기 위한 준거틀을 삼고자 함이다. 유대 랍비들은 성경을 대할 때 특정한 해석지침을 가지고 있었는데, 이러한 해석지침은 미드라쉬와 함께 전수되었으며, 성경을 해석하는 태도를 형성하였다. 미드라쉬는 문집이나 강론 모음집, 랍비 문학의 특정 장르, 공개적으로 전달되는 성경 주석과 설교, 그리고 성경의 특정 책에 대한 주석 행위 등을 포함하는 상당히 넓은 의미지평을 가지고 있다. 랍비들의 미드라쉬 해석지침은 성경이 들음과 배움의 자세를 요청하고 탐구의 자세를 갖게 한다는 것, 여백을 통한 탐구를 하고자 하며 상호존중과 상호소통의 중요성을 알게 하고, 오늘 나에게 도전하는 말씀이라는 성서교수학적 의미를 발견하게 한다. 한편 미드라쉬를 성서교수학적으로 적용한 비블리오드라마는 미드라쉬의 해석지침과 많은 공유점을 갖고 있다. 비블리오드라마는 성경과 참여자의 대면을 통해 서로 인격적인 만남과 성찰을 일으킴으로써 서로를 새로운 모습으로 발견하는 기회를 제공한다. 그리하여 비블리오드라마는 성경의 내용을 바르게 이해하고 인식하는데 그치는 것이 아니라 그 이해와 인식을 바탕으로 참여자의 삶에 도전하고 새로운 관점으로 참여자 자신의 삶을 돌아보게 함으로써 새로운 정체성 형성을 도모한다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.