• Title/Summary/Keyword: 영상 번역

Search Result 50, Processing Time 0.025 seconds

An Implementation of a System for Video Translation on Window Platform Using OCR (윈도우 기반의 광학문자인식을 이용한 영상 번역 시스템 구현)

  • Hwang, Sun-Myung;Yeom, Hee-Gyun
    • Journal of Internet of Things and Convergence
    • /
    • v.5 no.2
    • /
    • pp.15-20
    • /
    • 2019
  • As the machine learning research has developed, the field of translation and image analysis such as optical character recognition has made great progress. However, video translation that combines these two is slower than previous developments. In this paper, we develop an image translator that combines existing OCR technology and translation technology and verify its effectiveness. Before developing, we presented what functions are needed to implement this system and how to implement them, and then tested their performance. With the application program developed through this paper, users can access translation more conveniently, and also can contribute to ensuring the convenience provided in any environment.

The actual condition and improvement of audiovisual translation through analysis of subtitle in Netflix and YouTube: focusing on Korean translation. (Netflix와 Youtube 플랫폼 내의 영화 자막오역 분석을 통한 영상번역 실태와 개선점: 한국어 번역본을 중심으로.)

  • Oh, Kyunghan;Noh, Younghee
    • Journal of Digital Convergence
    • /
    • v.19 no.3
    • /
    • pp.25-35
    • /
    • 2021
  • We are able to watch international multimedia anytime and anywhere, if we have the devices to connect Internet. Netflix and Youtube are the most massive and the most visited streaming platforms in the world. So If audiences are not familiar with the exotic culture such as behaviors, contexts, sarcasm, history and the current issues, It would happen a consequence that they entirely have to rely on subtitles in order to get inform. This research hereby aims to compare Korean transcriptions of the same movies streamed by the two selected platforms(Netflix and Youtube). As a result, good translation is that translators should use appropriate omissions and detailed explanations in limited time and space so that audience can concentrate on the vedio. If translators study the work in depth and spend enough time working on it, the quality of translation will definitely increase. Finally, this study contributed to the revitalization of the video translation market, which is still in the past, through the misinterpretation of videos produced at a low unit price and with minimal time without guidelines for video translation.

Chinese and Korean Cross Lingual News Detection in Twitter (트위터에서 이슈가 되고 있는 중국어-한국어 교차언어 뉴스 탐지)

  • Zhao, Shengnan;Tsolmon, Bayar;Lee, Kyung-Soon;Lee, Yong-Seok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.658-661
    • /
    • 2012
  • 국제적으로 이슈가 되고있는 사건들의 뉴스는 보도당국의 입장차이에 따라 동일 이슈에 대한 관점의 차이를 나타낸다. 교차언어 연구에서는 번역하는 과정이 중요하다. 본 논문에서는 중-한 어휘번역에서 발생하는 오류 및 모호성을 해결하기 위해 키워드를 중심으로 문맥 어휘를 이용해서 번역한 후 번역결과에서 빈도가 높은 한국어 어휘를 선택하는 방법을 제안한다. 제안 방법의 유효성을 검증하기 위해 소셜 이슈 3 개에 대한 트윗 데이터에서 실험하여 추출된 중-한 이슈 뉴스 결과에서의 정확도 85.8%의 성능을 보였다. 실험을 통해 제안 방법이 중-한 교차언어 트위터 데이터에서 동일한 이슈와 관련된 뉴스를 찾는데 효과적인 방법임을 알 수 있다.

A Lesson Plan and Class Effect of Audiovisual Translation Class (영상번역 수업 지도안과 수업 효과)

  • Joo Eun Park
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.3
    • /
    • pp.213-219
    • /
    • 2023
  • The purpose of this study is to prove the students' understanding of audiovisual translation and the class effect by using the lesson plan that can efficiently teach the audiovisual translation class, which is one of the major elective courses at S University. After taking the course, a questionnaire was surveyed and the results were analyzed. The response and satisfaction with the content of the class was positive and very high, and it was confirmed that the background knowledge of the movie was especially helpful for translation practice. The effect of the class was focused on translating subtitles, and only the abbreviated part of the response to the questionnaire was expressed in a table, and the rest was expressed descriptively. Specifically, the response rate for abbreviations, pronouns, titles suitable for personal relationships, putting subjects and predicates close together were the most positive, followed by natural expressions, sign writing, handling of honorifics and informal words, attaching subject and predicates closer, translating them in reverse, and converting units.

Text/Voice Recognition & Translation Application Development Using Open-Source (오픈소스를 이용한 문자/음성 인식 및 번역 앱 개발)

  • Yun, Tae-Jin;Seo, Hyo-Jong;Kim, Do-Heon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.07a
    • /
    • pp.425-426
    • /
    • 2017
  • 본 논문에서는 Google에서 지원하는 오픈소스인 Tesseract-OCR을 이용한 문자/음성 인식 및 번역 앱에 대해 제안한다. 최근 한국어를 포함한 외국어 인식과 번역기능을 이용한 다양한 스마트폰 앱이 개발되어 여행에 필수품으로 자리잡고 있다. 스마트폰의 카메라기능을 이용하여 촬영한 영상을 인식률을 높이도록 처리하고, Crop기능을 넣어 부분 인식기능을 지원하며, Tesseract-OCR의 train data를 보완하여 인식률을 높이고, Google 음성인식 API를 이용한 음성인식 기능을 통해 인식된 유사한 문장들을 선택하도록 하고, 이를 번역하고 보여주도록 개발하였다. 번역 기능은 번역대상 언어와 번역할 언어를 선택할 수 있고 기본적으로 영어, 한국어, 일본어, 중국어로 번역이 가능하다. 이 기능을 이용하여 차량번호 인식, 사진에 포함된 글자를 통한 검색 등 다양한 응용분야에 맞게 앱을 개발할 수 있다.

  • PDF

A Design of Sign Language-Text Translation System Using Deep Learning Vedio Recognition (딥러닝 영상인식을 이용한 수화-텍스트 번역 시스템 설계)

  • Lee, JongMyeong;Kim, Kang-Gyoo;Yoo, Seoyeon;Lee, SeungGeon;Chun, Seunghyun;Beak, JeongYoon;Ha, Ok-Kyoon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.07a
    • /
    • pp.475-476
    • /
    • 2022
  • 본 논문에서는 청각장애인의 사회참여성 증진 및 사회적 차별감소를 목적으로 딥러닝 영상인식 기반으로 MediaPipe 기술을 활용한 수화-텍스트 번역시스템을 설계한다. 제시하는 시스템은 실시간으로 수집된 수화 사용자의 영상정보를 통해 동작과 표정을 인식하여 텍스트로 번역함으로써 장애인과 비장애인의 원활한 의사소통 서비스를 제공하는 것을 주 목적으로한다. 향후 개선된 수화 인식 및 문장 조합을 통해 일상에서 청각장애인과 일반인의 자유로운 커뮤니케이션을 제공하는 서비스로 확장하고자한다.

  • PDF

A Script Format of Korean Sing Language for Animated Signing Avatar Service (아바타수어 서비스를 위한 한국수어 스크립트 기술)

  • Lee, Han-kyu;Choi, Ji Hoon;AHN, ChungHyun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.456-458
    • /
    • 2020
  • 한국수화언어(한국수어)는 농인들이 사용하는 언어이며, 농인이라 함은 청각장애를 가진 사람으로서 한국수어를 일상어로 사용하는 사람을 말한다. 수어를 하나의 언어로써 다른 언어로의 번역 또는 상호번역을 위하여 기계학습 기반의 기술이 연구개발 되고 있으나, 수어는 영상 기반의 언어이고 한국수어의 문법 및 사전체계의 구축이 진행 중인 이유로 한국수어의 번역기술은 상대적으로 다른 이종언어 간의 번역기술에 비하여 발전속도가 느리다. 본 논문에서는 한국어를 한국수어로 번역하여 표현하기 위하여 필요한 수어 스크립트 포맷 및 데이터 인터페이스 규격을 제안한다.

  • PDF

Developing a mobile application serving sign-language to text translation for the deaf (청각 장애인을 위한 수어 영상-자연어 번역 서비스 및 모바일 어플리케이션 구현)

  • Cho, Su-Min;Cho, Seong-Yeon;Shin, So-Yeon;Lee, Jee Hang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.1012-1015
    • /
    • 2021
  • Covid-19 로 인한 마스크 착용이 청각장애인들의 소통을 더 어렵게 하는 바, 제 3 자의 도움 없이 쌍방향 소통을 가능하게 하는 서비스의 필요성이 커지고 있다. 이에 본 논문은 소통의 어려움을 겪는 청각장애인과 비청각장애인을 위한 쌍방향 소통 서비스에 대한 연구와 개발 과정, 기대 효과를 담는다. 서비스는 GRU-CNN 하이브리드 아키텍처를 사용하여 데이터셋을 영상 공간 정보와 시간 정보를 포함한 프레임으로 분할하는 영상 분류 기법과 같은 딥 러닝 알고리즘을 통해 수어 영상을 분류한다. 해당 연구는 "눈속말" 모바일 어플리케이션으로 제작 중이며 음성을 인식하여 수어영상과 텍스트로 번역결과를 제공하는 청각장애인 버전과 카메라를 통해 들어온 수어 영상을 텍스트로 변환하여 음성과 함께 제공하는 비청각장애인 버전 두 가지로 나누어 구현한다. 청각장애인과 비장애인의 쌍방향 소통을 위한 서비스는 청각장애인이 사회로 나아가기 위한 가장 기본적인 관문으로서의 역할을 할 것이며 사회 참여를 돕고 소통이라는 장벽을 넘어서는 발돋움이 될 것이라 예측된다.

Sign language translation using video captioning and sign language recognition using action recognition (비디오 캡셔닝을 적용한 수어 번역 및 행동 인식을 적용한 수어 인식)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.317-319
    • /
    • 2024
  • 본 논문에서는 비디오 캡셔닝 알고리즘을 적용한 수어 번역 및 행동 인식 알고리즘을 적용한 수어 인식 알고리즘을 제안한다. 본 논문에 사용된 비디오 캡셔닝 알고리즘으로 40개의 연속된 입력 데이터 프레임을 CNN 네트워크를 통해 임베딩 하고 트랜스포머의 입력으로 하여 문장을 출력하였다. 행동 인식 알고리즘은 랜덤 샘플링을 하여 한 영상에 40개의 인덱스에서 40개의 연속된 데이터에 CNN 네트워크를 통해 임베딩하고 GRU, 트랜스포머를 결합한 RNN 모델을 통해 인식 결과를 출력하였다. 수어 번역에서 BLEU-4의 경우 7.85, CIDEr는 53.12를 얻었고 수어 인식으로 96.26%의 인식 정확도를 얻었다.

  • PDF

Analysis of Signboard Characteristics and Dictionary Construction for Text Recognition in Signboard Images (간판영상의 텍스트 인식을 위한 영상데이터 특성 분석 및 사전 구축)

  • Lee, Myung-Hun;Yang, Hyung-Jeong;Kim, Soo-Hyung;Lee, Guee-Sang;Oh, Sang-Wook;Kim, Sun-Hee
    • The Journal of the Korea Contents Association
    • /
    • v.8 no.11
    • /
    • pp.10-17
    • /
    • 2008
  • The sign recognition and translation offer information and support decision making for foreigners or city tourist. Collecting sign images and building words in signs are essential to train machine recognizers and to evaluate systems. In this paper, we analyze the characteristics of sign images. The collected sign images are about 1000 captured from difference conditions and locations. We also build a dictionary of words in 100,000 sign names.