• 제목/요약/키워드: 영상 번역

검색결과 50건 처리시간 0.047초

윈도우 기반의 광학문자인식을 이용한 영상 번역 시스템 구현 (An Implementation of a System for Video Translation on Window Platform Using OCR)

  • 황선명;염희균
    • 사물인터넷융복합논문지
    • /
    • 제5권2호
    • /
    • pp.15-20
    • /
    • 2019
  • 기계학습 연구가 발달함에 따라 번역 분야 및, 광학 문자 인식(Optical Character Recognition, OCR) 등의 이미지 분석 기술은 뛰어난 발전을 보였다. 하지만 이 두 가지를 접목시킨 영상 번역은 기존의 개발에 비해 그 진척이 더딘 편이다. 본 논문에서는 기존의 OCR 기술과 번역기술을 접목시킨 이미지 번역기를 개발하고 그 효용성을 검증한다. 개발에 앞서 본 시스템을 구현하기 위하여 어떤 기능을 필요로 하는지, 기능을 구현하기 위한 방법은 어떤 것이 있는지 제시한 뒤 각기 그 성능을 시험하였다. 본 논문을 통하여 개발된 응용프로그램으로 사용자들은 좀 더 편리하게 번역에 접근할 수 있으며, 영상 번역이라는 특수한 환경으로 한정된 번역기능에서 벗어나 어떠한 환경에서라도 제공되는 편의성을 확보하는데 기여할 수 있을 것이다.

Netflix와 Youtube 플랫폼 내의 영화 자막오역 분석을 통한 영상번역 실태와 개선점: 한국어 번역본을 중심으로. (The actual condition and improvement of audiovisual translation through analysis of subtitle in Netflix and YouTube: focusing on Korean translation.)

  • 오경한;노영희
    • 디지털융복합연구
    • /
    • 제19권3호
    • /
    • pp.25-35
    • /
    • 2021
  • 인터넷과 연결 가능한 기기만 있다면 어디서든 외국의 영상매체를 시청할 수 있게 되었다. Netflix와 Youtube는 대표적인 영상 플랫폼이고 많은 사람들이 이용하고 있기도 하다. 그러다보니 외국어를 알지 못하는 경우, 전적으로 자막에 의존할 수밖에 없다. 이에 본 연구에서는 두 개의 인기 플랫폼에서 양질의 번역을 제공하고 있는지 알아보기 위해 두 곳에서 동시에 상영하고 있는 영화를 골라 한국어 번역본을 가지고 비교해보고 더 나은 방향과 문제점을 도출하였다. 그 결과, 좋은 번역이란 번역가가 시청자들이 집중을 할 수 있게 적절한 생략과 자세한 설명을 한정된 시간과 공간 안에 할 수 있어야 한다. 작업물을 심도 있게 연구하고 충분한 시간을 들여 작업에 임한다면 번역의 퀼리티는 확연히 올라갈 것이다. 마지막으로 본 연구는 영상번역에 대한 가이드라인 없이 싼 단가에 최소한의 시간을 들여 제작한 영상물들의 오역을 통해 아직 과거에 머물고 있는 영상번역 시장 활성화에 기여하였다.

트위터에서 이슈가 되고 있는 중국어-한국어 교차언어 뉴스 탐지 (Chinese and Korean Cross Lingual News Detection in Twitter)

  • 조승남;촐몽 바야르;이경순;이용석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.658-661
    • /
    • 2012
  • 국제적으로 이슈가 되고있는 사건들의 뉴스는 보도당국의 입장차이에 따라 동일 이슈에 대한 관점의 차이를 나타낸다. 교차언어 연구에서는 번역하는 과정이 중요하다. 본 논문에서는 중-한 어휘번역에서 발생하는 오류 및 모호성을 해결하기 위해 키워드를 중심으로 문맥 어휘를 이용해서 번역한 후 번역결과에서 빈도가 높은 한국어 어휘를 선택하는 방법을 제안한다. 제안 방법의 유효성을 검증하기 위해 소셜 이슈 3 개에 대한 트윗 데이터에서 실험하여 추출된 중-한 이슈 뉴스 결과에서의 정확도 85.8%의 성능을 보였다. 실험을 통해 제안 방법이 중-한 교차언어 트위터 데이터에서 동일한 이슈와 관련된 뉴스를 찾는데 효과적인 방법임을 알 수 있다.

영상번역 수업 지도안과 수업 효과 (A Lesson Plan and Class Effect of Audiovisual Translation Class)

  • 박주은
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.213-219
    • /
    • 2023
  • 이 연구의 목적은 S 대학교 전공 선택 과목 중 하나인 영상번역 수업을 효율적으로 지도할 수 있는 수업 지도안을 활용하여 학생들의 영상번역에 대한 이해력과 수업 효과를 증명하는 것이다. 수강 후 설문지를 조사하여 그 결과를 분석하였다. 수업 내용에 대한 반응과 만족도는 긍정적이고 매우 높았고 특히 영화 배경지식이 번역 실습하는데 도움이 되었음을 확인할 수 있었다. 수업 효과는 자막 번역에 초점을 둔 것으로 설문에 응답한 결과를 축약 부분만 표로 나머지는 서술적으로 표현하였다. 구체적으로 축약, 대명사, 인물관계에 알맞은 호칭, 주어와 술어를 가까이 붙이기, 영화에 자주 나오는 표현에 대한 응답 비율이 가장 긍정적인 반응이 나타났고, 자연스러운 표현, 부호 쓰기, 존칭어와 반말 처리, 주어와 술어를 가까이 붙이기, 반대로 번역하기, 단위 환산 순으로 긍정적인 반응이 나타났다.

오픈소스를 이용한 문자/음성 인식 및 번역 앱 개발 (Text/Voice Recognition & Translation Application Development Using Open-Source)

  • 윤태진;서효종;김도헌
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2017년도 제56차 하계학술대회논문집 25권2호
    • /
    • pp.425-426
    • /
    • 2017
  • 본 논문에서는 Google에서 지원하는 오픈소스인 Tesseract-OCR을 이용한 문자/음성 인식 및 번역 앱에 대해 제안한다. 최근 한국어를 포함한 외국어 인식과 번역기능을 이용한 다양한 스마트폰 앱이 개발되어 여행에 필수품으로 자리잡고 있다. 스마트폰의 카메라기능을 이용하여 촬영한 영상을 인식률을 높이도록 처리하고, Crop기능을 넣어 부분 인식기능을 지원하며, Tesseract-OCR의 train data를 보완하여 인식률을 높이고, Google 음성인식 API를 이용한 음성인식 기능을 통해 인식된 유사한 문장들을 선택하도록 하고, 이를 번역하고 보여주도록 개발하였다. 번역 기능은 번역대상 언어와 번역할 언어를 선택할 수 있고 기본적으로 영어, 한국어, 일본어, 중국어로 번역이 가능하다. 이 기능을 이용하여 차량번호 인식, 사진에 포함된 글자를 통한 검색 등 다양한 응용분야에 맞게 앱을 개발할 수 있다.

  • PDF

딥러닝 영상인식을 이용한 수화-텍스트 번역 시스템 설계 (A Design of Sign Language-Text Translation System Using Deep Learning Vedio Recognition)

  • 이종명;김강규;유서연;이승건;천승현;백정윤;하옥균
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.475-476
    • /
    • 2022
  • 본 논문에서는 청각장애인의 사회참여성 증진 및 사회적 차별감소를 목적으로 딥러닝 영상인식 기반으로 MediaPipe 기술을 활용한 수화-텍스트 번역시스템을 설계한다. 제시하는 시스템은 실시간으로 수집된 수화 사용자의 영상정보를 통해 동작과 표정을 인식하여 텍스트로 번역함으로써 장애인과 비장애인의 원활한 의사소통 서비스를 제공하는 것을 주 목적으로한다. 향후 개선된 수화 인식 및 문장 조합을 통해 일상에서 청각장애인과 일반인의 자유로운 커뮤니케이션을 제공하는 서비스로 확장하고자한다.

  • PDF

아바타수어 서비스를 위한 한국수어 스크립트 기술 (A Script Format of Korean Sing Language for Animated Signing Avatar Service)

  • 이한규;최지훈;안충현
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.456-458
    • /
    • 2020
  • 한국수화언어(한국수어)는 농인들이 사용하는 언어이며, 농인이라 함은 청각장애를 가진 사람으로서 한국수어를 일상어로 사용하는 사람을 말한다. 수어를 하나의 언어로써 다른 언어로의 번역 또는 상호번역을 위하여 기계학습 기반의 기술이 연구개발 되고 있으나, 수어는 영상 기반의 언어이고 한국수어의 문법 및 사전체계의 구축이 진행 중인 이유로 한국수어의 번역기술은 상대적으로 다른 이종언어 간의 번역기술에 비하여 발전속도가 느리다. 본 논문에서는 한국어를 한국수어로 번역하여 표현하기 위하여 필요한 수어 스크립트 포맷 및 데이터 인터페이스 규격을 제안한다.

  • PDF

청각 장애인을 위한 수어 영상-자연어 번역 서비스 및 모바일 어플리케이션 구현 (Developing a mobile application serving sign-language to text translation for the deaf)

  • 조수민;조성연;신소연;이지항
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.1012-1015
    • /
    • 2021
  • Covid-19 로 인한 마스크 착용이 청각장애인들의 소통을 더 어렵게 하는 바, 제 3 자의 도움 없이 쌍방향 소통을 가능하게 하는 서비스의 필요성이 커지고 있다. 이에 본 논문은 소통의 어려움을 겪는 청각장애인과 비청각장애인을 위한 쌍방향 소통 서비스에 대한 연구와 개발 과정, 기대 효과를 담는다. 서비스는 GRU-CNN 하이브리드 아키텍처를 사용하여 데이터셋을 영상 공간 정보와 시간 정보를 포함한 프레임으로 분할하는 영상 분류 기법과 같은 딥 러닝 알고리즘을 통해 수어 영상을 분류한다. 해당 연구는 "눈속말" 모바일 어플리케이션으로 제작 중이며 음성을 인식하여 수어영상과 텍스트로 번역결과를 제공하는 청각장애인 버전과 카메라를 통해 들어온 수어 영상을 텍스트로 변환하여 음성과 함께 제공하는 비청각장애인 버전 두 가지로 나누어 구현한다. 청각장애인과 비장애인의 쌍방향 소통을 위한 서비스는 청각장애인이 사회로 나아가기 위한 가장 기본적인 관문으로서의 역할을 할 것이며 사회 참여를 돕고 소통이라는 장벽을 넘어서는 발돋움이 될 것이라 예측된다.

비디오 캡셔닝을 적용한 수어 번역 및 행동 인식을 적용한 수어 인식 (Sign language translation using video captioning and sign language recognition using action recognition)

  • 김기덕;이근후
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.317-319
    • /
    • 2024
  • 본 논문에서는 비디오 캡셔닝 알고리즘을 적용한 수어 번역 및 행동 인식 알고리즘을 적용한 수어 인식 알고리즘을 제안한다. 본 논문에 사용된 비디오 캡셔닝 알고리즘으로 40개의 연속된 입력 데이터 프레임을 CNN 네트워크를 통해 임베딩 하고 트랜스포머의 입력으로 하여 문장을 출력하였다. 행동 인식 알고리즘은 랜덤 샘플링을 하여 한 영상에 40개의 인덱스에서 40개의 연속된 데이터에 CNN 네트워크를 통해 임베딩하고 GRU, 트랜스포머를 결합한 RNN 모델을 통해 인식 결과를 출력하였다. 수어 번역에서 BLEU-4의 경우 7.85, CIDEr는 53.12를 얻었고 수어 인식으로 96.26%의 인식 정확도를 얻었다.

  • PDF

간판영상의 텍스트 인식을 위한 영상데이터 특성 분석 및 사전 구축 (Analysis of Signboard Characteristics and Dictionary Construction for Text Recognition in Signboard Images)

  • 이명훈;양형정;김수형;이귀상;오상욱;김선희
    • 한국콘텐츠학회논문지
    • /
    • 제8권11호
    • /
    • pp.10-17
    • /
    • 2008
  • 간판 텍스트 인식 및 번역은 관광지나 주요도심을 찾는 외국인 또는 외지인에게 정보제공과 의사결정을 지원하는 목적으로 제공된다. 간판 텍스트 인식 연구에서 인식기의 훈련과 성능 측정을 위해서는 간판영상 데이터 수집과 상호명 출현단어 사전구축이 필수적이다. 본 논문에서는 간판영상 데이터를 다양한 환경에서 수집하고 특성을 분석하며 상호명 출현 단어의 사전을 구축한다. 본 연구에서는 총 1000여장의 간판을 여러 조건에서 획득하였고 10여만 상호명에서 출현한 단어로 상호명 인식용 사전을 구축하였다.