• 제목/요약/키워드: caption

검색결과 168건 처리시간 0.023초

위치적 연관성과 어휘적 유사성을 이용한 웹 이미지 캡션 추출 (Web Image Caption Extraction using Positional Relation and Lexical Similarity)

  • 이형규;김민정;홍금원;임해창
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권4호
    • /
    • pp.335-345
    • /
    • 2009
  • 이 논문은 웹 문서의 이미지 캡션 추출을 위한 방법으로서 이미지와 캡션의 위치적 연관성과 본문과 캡션의 어휘적 유사성을 동시에 고려한 방법을 제안한다. 이미지와 캡션의 위치적 연관성은 거리와 방향 관점에서 캡션이 이미지에 상대적으로 어떻게 위치하고 있는지를 나타내며, 본문과 캡션의 어휘적 유사성은 이미지를 설명하고 있는 캡션이 어휘적으로 본문과 어느 정도 유사한지를 나타낸다. 이미지와 캡션을 독립적으로 고려한 자질만을 사용한 캡션 추출 방법을 기저 방법으로 놓고 제안하는 방법들을 추가적인 자질로 사용하여 캡션을 추출하였을 때, 캡션 추출 정확률과 캡션 추출 재현율이 모두 향상되며, 캡션 추출 F-measure가 약 28% 향상되었다.

비디오 자막 문자의 효과적인 교환 방법 (An Effective Method for Replacing Caption in Video Images)

  • 전병태;김숙연
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권2호
    • /
    • pp.97-104
    • /
    • 2005
  • 자막 문자는 시청자의 이해를 돕기 위하여 제작된 비디오 영상에 종종 삽입한다. 영화의 경우 영상과 자막과 영상의 트랙이 달라 자막 교환이 영상에 손실을 주지 않고 이루어 질 수 있다. 자막이 삽입된 비디오 영상의 경우, 기존의 자막 교환 방법은 자막이 존재하는 부분 박스 형태로 일정 영역을 색칠한 후 그위에 새로운 자막을 삽입한다. 이러한 자막 교환 방법은 문자 영역을 포함한 주변 영역의 원영상의 손실을 초래함으로써 시청자에 시청의 불편을 초래하는 문제가 있다. 본 논문에서는 기존 방법의 문제점을 해결하기 위한 효과적인 자막 교환 방법을 제안하고자 한다 효과적인 교환 방법은 자막 영역을 원영상으로 복원한 복원된 문자 영역에 교환될 문자를 삽입하는 방법이다. 실험결과 대부분 자막이 복원이 잘 되어 효과적인 자막 교환이 이루어짐을 볼 수 있었다. 일부 복잡한 영상의 경우 복원 결과 약간의 왜곡 현상은 보여주나 왜곡된 위치에 새로운 자막을 삽입은 복원의 오류를 보완하는 역할을 함으로써 자연스런 자막 교환이 이루어짐을 볼 수 있었다.

  • PDF

EXTRACTION OF DTV CLOSED CAPTION STREAM AND GENERATION OF VIDEO CAPTION FILE

  • Kim, Jung-Youn;Nam, Je-Ho
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.364-367
    • /
    • 2009
  • This paper presents a scheme that generates a caption file by extracting a Closed Caption stream from DTV signal. Note that Closed-Captioning service helps to bridge "digital divide" through extending broadcasting accessibility of a neglected class such as hearing-impaired person and foreigner. In Korea, DTV Closed Captioning standard was developed in June 2007, and Closed Captioning service should be supported by an enforcing law in all broadcasting services in 2008. In this paper, we describe the method of extracting a caption data from MPEG-2 Transport Stream of ATSC-based digital TV signal and generating a caption file (SAMI and SRT) using the extracted caption data and time information. Experimental results verify the feasibility of a generated caption file using a PC-based media player which is widely used in multimedia service.

  • PDF

다중 프레임 병합을 이용한 스포츠 비디오 자막 영역 추출 (Caption Region Extraction of Sports Video Using Multiple Frame Merge)

  • 강오형;황대훈;이양원
    • 한국멀티미디어학회논문지
    • /
    • 제7권4호
    • /
    • pp.467-473
    • /
    • 2004
  • 비디오내에서의 자막은 비디오 내용을 전달하는 중요한 역할을 수행한다. 기존의 자막 영 역 추출방법들은 잡음에 민감하여 배경에서 자막 영역의 추출이 어려웠다. 본 논문에서는 다중 프레임 병합과 영역 최소 사각형을 이용하여 스포츠 비디오에서 자막 영역을 추출하는 방법을 제안한다. 전처리과정으로서 명암 대비 스트래칭과 Othu Method를 이용하여 적응적 임계치를 추출할 수 있다. 다중 프레임 병합에 의하여 자막 프레임 구간을 추출하고, 자막 영역은 미디언 필터링, 형태학적 불림, 영역 레이블링, 후보 문자영역 필터링, 영역 최소 사각형 검출에 의하여 효율적으로 추출된다.

  • PDF

스포츠 중계 화면 내 숫자영역에 대한 실시간 문자인식 시스템 구현 (Implement of Realtime Character Recognition System for Numeric Region of Sportscast)

  • 성시훈;전우성
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(4)
    • /
    • pp.5-8
    • /
    • 2001
  • We propose a realtime numeric caption recognition algorithm that automatically recognizes the numeric caption generated by computer graphics (CG) and displays the modified caption using the recognized resource only when a valuable numeric caption appears in the aimed specific region of the live sportscast scene produced by other broadcasting stations. We extract the mesh feature from the enhanced binary image as a feature vector after acquiring the sports broadcast scenes using a frame grabber in realtime and then recover the valuable resource from just a numeric image by perceiving the character using the neural network. Finally, the result is verified by the knowledge-based rule set designed for more stable and reliable output and is displayed on a screen as the converted CC caption serving our purpose. At present, we have actually provided the realtime automatic mile-to-kilometer caption conversion system taking up our algorithm f3r the regular Major League Baseball (MLB) program being broadcasted live throughout Korea over our nationwide network. This caption conversion system is able to automatically convert the caption in mile universally used in the United States into that in kilometer in realtime, which is familiar to almost Koreans, and makes us get a favorable criticism from the TV audience.

  • PDF

DTV 화질향상을 위한 자막데이터 전송방법 (Caption Data Transmission Method for HDTV Picture Quality Improvement)

  • 한찬호
    • 한국멀티미디어학회논문지
    • /
    • 제20권10호
    • /
    • pp.1628-1636
    • /
    • 2017
  • Such as closed caption, ancillary data, electronic program guide(EPG), data broadcasting, and etc, increased data for service convenience cause to degrade video quality of high definition contents. This article propose a method to transfer the closed caption data of video contents without video quality degradation. Video quality degradation does not cause in video compression by the block image insertion of caption data in DTV essential hidden area. Additionally the proposed methods have advantage to synchronize video, audio, and caption from preinserted script without time delay.

TV 자막 신호를 이용한 한글 수화 발생 시스템의 개발 (Development of Korean Sign Language Generation System using TV Caption Signal)

  • 김대진;김정배;장원;변증남
    • 전자공학회논문지CI
    • /
    • 제39권5호
    • /
    • pp.32-44
    • /
    • 2002
  • 본 논문에서는 TV 자막 신호를 이용한 한글 수화 발생 시스템을 다룬다. TV 자막 방송 프로그램에 포함된 자막 신호는 자막 신호 복호화기(Caption Decoder)를 이용하여 PC로 전송된 후, 한글 수화의 특성에 적합하게 개발된 형태소 분석기를 통하여 의미 있는 단위로 나누어 진다. 분석된 형태소는 3차원 수화 애니메이션 데이터로 변환되어 3차원 한글 수화 발생기를 통하여 시각적으로 표현된다. 특히, 실시간 처리가 가능하도록 각종 전처리 기법들에 기반한 형태소 분석기를 제안하였다. 개발된 시스템은 실제 자막 방송 프로그램에 적용되어 그 유용성을 검증하였으며 실제 농아인들의 사용에 의하여 그 실용성을 검증하였다.

비디오 분석을 위한 자막프레임구간과 자막영역 추출 (Extraction of Superimposed-Caption Frame Scopes and Its Regions for Analyzing Digital Video)

  • 임문철;김우생
    • 한국정보처리학회논문지
    • /
    • 제7권11호
    • /
    • pp.3333-3340
    • /
    • 2000
  • 최근 하드웨어와 압축기술의 발달로 비디오 데이터에 대한 요구가 급증하고 있다. 비디오 데이터는 비정형으로 되어있고 용량이 커서 내용기반 등 다양한 검색 기법이 요구된다. 비디오에 인위적으로 추가된 자막(Superimposed caption)은 비디오 내용을 분석하는데 중요한 역할을 하며 다양한 검색을 위한 색인 정보로 사용될 수 있다. 본 연구에서는 비디오 프레임 내의 자막영역이 가지고 있는 텍스처 특성을 분석하여 자막영역을 분할하고 프레임들 간에 자막영역의 연속성을 이용하여 정확한 자막프레임구간과 대표자막영역 및 색상을 추출하는 방법을 기술한다.

  • PDF

정지자막 영역의 움직임 보상 보간 기법 (Motion-Compensated Interpolation for Non-moving Caption Region)

  • 이정훈;한동일
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2007년도 하계종합학술대회 논문집
    • /
    • pp.363-364
    • /
    • 2007
  • In this paper, we present a novel motion-compensated interpolation technique for non-moving caption region to prevent the block artifacts due to the failure of conventional block-based motion estimation algorithm on the block is consist of non-moving caption and moving object. Experimental results indicate good performance of the proposed scheme with significantly reduced block artifacts on image sequence that include non-moving caption. Also the proposed method is simple and adequate for hardware implementation.

  • PDF

시·공간 정보를 이용한 동영상의 인공 캡션 검출 (Detection of Artificial Caption using Temporal and Spatial Information in Video)

  • 주성일;원선희;최형일
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권2호
    • /
    • pp.115-126
    • /
    • 2012
  • 동영상에 포함되는 인공 캡션은 영상과 관계있는 의미정보를 포함한다. 이러한 영상을 표현하는 정보를 이용하기 위해 캡션을 추출하는 연구는 근래에 들어 활발히 진행되고 있다. 기존 방법들은 대부분 정지영상에서 캡션을 검출하였다. 하지만 동영상의 경우에는 유용한 시간정보가 있다. 따라서 본 연구는 이러한 시간정보를 사용한 캡션영역 검출방법을 제안한다. 먼저, 캡션후보영역 검출을 위해 문자출현맵을 생성하고, 후보영역 매칭 과정에서 지속후보영역을 검출한다. 검출된 지속후보영역의 소멸성 검사를 통해 캡션의 소멸 여부를 검출하고 소멸된 캡션 일 경우 시 공간정보에 의한 병합과정을 통해 캡션후보영역을 결정한다. 마지막으로 결정된 캡션후보영역을 검증하기 위하여 에지 방향 히스토그램을 이용한 신경망 인식기를 통하여 최종캡션영역을 검출한다. 실험을 위해 다양한 크기와 형태, 위치의 캡션을 포함하는 동영상에 대해 영역검출의 성능을 평가하고자 Recall과 Precision을 이용하여 제안하는 방법의 영역검출에 대한 효율성을 입증한다.