• 제목/요약/키워드: Scene Text Detection

검색결과 38건 처리시간 0.024초

비디오에서 프로젝션을 이용한 문자 인식 (Identification of Korea Traditional Color Harmony)

  • 백정욱;신성윤;이양원
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 추계학술대회
    • /
    • pp.196-197
    • /
    • 2009
  • 비디오에서 우선 장면 전환 검출을 통해 생성된 키 프레임을 대상으로 프로젝션을 통하여 문자 인식을 수행하도록 한다. 텍스트의 자간 분리를 수직 프로젝션에 의해 분리 한다. 자소는 초성, 중성, 종성으로 분리하고 6가지 유형으로 분리한다. 자소 패턴 분리는 수평 프로젝션을 통하여 6가지 유형에 맞도록 분리한다. 자소는 수평, 수직, 사선, 역사선 방향으로 분리한다. 자소의 인식은 4-방향 프로젝션과 위치정보를 이용하여 인식하도록 한다.

  • PDF

이미지 속 문자열 탐지에 대한 YOLO와 EAST 신경망의 성능 비교 (A Comparison of Deep Neural Network based Scene Text Detection with YOLO and EAST)

  • 박찬용;이규현;임영민;정승대;조영혁;김진욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.422-425
    • /
    • 2021
  • 본 논문에서는 최근 다양한 분야에서 많이 활용되고 있는 YOLO와 EAST 신경망을 이미지 속 문자열 탐지문제에 적용해보고 이들의 성능을 비교분석 해 보았다. YOLO 신경망은 v3 이전 모델까지는 이미지 속 문자영역 탐지에 낮은 성능을 보인다고 알려졌으나, 최근 출시된 YOLOv4와 YOLOv5의 경우 다양한 형태의 이미지 속에 있는 한글과 영문 문자열 탐지에 뛰어난 성능을 보여줌을 확인하고 향후 문자 인식 분야에서 많이 활용될 것으로 기대된다.

Label Restoration Using Biquadratic Transformation

  • Le, Huy Phat;Nguyen, Toan Dinh;Lee, Guee-Sang
    • International Journal of Contents
    • /
    • 제6권1호
    • /
    • pp.6-11
    • /
    • 2010
  • Recently, there has been research to use portable digital camera to recognize objects in natural scene images, including labels or marks on a cylindrical surface. In many cases, text or logo in a label can be distorted by a structural movement of the object on which the label resides. Since the distortion in the label can degrade the performance of object recognition, the label should be rectified or restored from deformations. In this paper, a new method for label detection and restoration in digital images is presented. In the detection phase, the Hough transform is employed to detect two vertical boundaries of the label, and a horizontal edge profile is analyzed to detect upper-side and lower-side boundaries of the label. Then, the biquadratic transformation is used to restore the rectangular shape of the label. The proposed algorithm performs restoration of 3D objects in a 2D space, and it requires neither an auxiliary hardware such as 3D camera to construct 3D models nor a multi-camera to capture objects in different views. Experimental results demonstrate the effectiveness of the proposed method.

지역적 연결요소 및 에지 구조 성분 특징을 이용한 자연이미지로부터 문자영역 검출 (Text Region Detection Using Regional Connected Component and Edge Structure Component Feature From Natural Scene Images)

  • 박종천;황동국;권교현;전병민
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2009년도 춘계학술발표논문집
    • /
    • pp.40-43
    • /
    • 2009
  • 최근 모바일 영상기반 응용 분야에 관한 연구가 활발히 진행되고 있으며 모바일기기로 촬영된 영상에서 문자정보를 추출하고자 하는 많은 연구도 진행되고 있다. 자연이미지로부터 문자정보를 추출을 위한 전단계로 문자영역 검출이 필수적이다. 본 연구는 문자영역의 지역적 에지 및 연결요소 특징을 고려하여 조명 및 복잡한 배경에서도 문자영역을 검출하는 방법을 제안한다. 에지 검출은 캐니-에지 검출기로 추출하고, RGB 컬러분포 패턴을 분석하여 컬러 양자화를 함으로서 연결성분을 추출한다. 각각 추출된 에지 및 연결성분으로부터 문자후보 영역을 검출하고, 각각의 결과를 결합하여 최종적인 문자 후보 영역을 검출하고, 문자 후보 영역에 대한 검증을 수행함으로서 최종적인 문자영역을 검출한다. 제안한 방법은 다양한 환경에서 얻어진 자연이미지를 대상으로 실험한 결과, 에지 및 연결성분의 두 가지 특징을 결합함으로서 자연이미지에 존재하는 다양한 형태의 문자영역을 효과적으로 검출하였다.

  • PDF

Framework for Content-Based Image Identification with Standardized Multiview Features

  • Das, Rik;Thepade, Sudeep;Ghosh, Saurav
    • ETRI Journal
    • /
    • 제38권1호
    • /
    • pp.174-184
    • /
    • 2016
  • Information identification with image data by means of low-level visual features has evolved as a challenging research domain. Conventional text-based mapping of image data has been gradually replaced by content-based techniques of image identification. Feature extraction from image content plays a crucial role in facilitating content-based detection processes. In this paper, the authors have proposed four different techniques for multiview feature extraction from images. The efficiency of extracted feature vectors for content-based image classification and retrieval is evaluated by means of fusion-based and data standardization-based techniques. It is observed that the latter surpasses the former. The proposed methods outclass state-of-the-art techniques for content-based image identification and show an average increase in precision of 17.71% and 22.78% for classification and retrieval, respectively. Three public datasets - Wang; Oliva and Torralba (OT-Scene); and Corel - are used for verification purposes. The research findings are statistically validated by conducting a paired t-test.

맞춤형 여행 콘텐츠 개발을 위한 OCR 기법을 활용한 영화 속 촬영지 정보 추출 방안 제시 (Study on Extracting Filming Location Information in Movies Using OCR for Developing Customized Travel Content)

  • 박은비;신유빈;강주영
    • 한국빅데이터학회지
    • /
    • 제5권1호
    • /
    • pp.29-39
    • /
    • 2020
  • 목적 사회 전반적으로 퍼진 개인의 취향에 대해 존중하는 분위기는 소비 트렌드를 바꾸었다. 그에 따라 여행 산업에서도 소비자 개인의 취향을 반영하는 맞춤형 여행이 새로운 트렌드로 주목받고 있다. 특히 여행 산업 분야 중 하나인 '영화 관광'에 대한 관심이 커지고 있음에 주목하였다. 영화를 시청하며 발생하는 개인의 여행 동기를 맞춤형 여행 제안으로 충족시키고자 하며, 이는 '영화 관광 산업'의 지속적 발전의 촉진제가 될 것으로 기대한다. 설계/방법론/접근 본 연구에서는 시청자가 실제로 방문하고 싶은 영화 속 촬영지 정보를 'OCR'을 통해 추출, 제안하는 방법론을 구현하였다. 먼저, 실시간 이미지 프로세싱 라이브러리인 'OpenCV'를 활용하여 사용자가 선택한 영화 속 장면을 추출 받는다. 또한, 딥러닝 기반의 텍스트 영역 탐지모델인 'EAST 모델'을 활용하여 해당 장면 이미지에서 문자가 위치한 곳을 탐지하여 검출한다. 검출한 이미지는 'OpenCV 내장 함수'를 사용해 전처리하여 인식의 정확도를 높인다. 마지막으로 광학 문자 인식 엔진인 'Tesseract'를 사용하여 이미지 속 문자를 인식 가능한 텍스트로 변환한 후, 'Google Map API'를 통해 실제 위치 정보를 반환한다. 의의 본 연구는 기존의 영화 관광에서 나아가, 4차 산업 기술을 활용한 개인 맞춤 관광 콘텐츠를 제공해준다는 점에서 큰 의의가 있다. 이는 앞으로 여행사와 함께 영화 관광 패키지 상품 개발에 활용될 수 있다. 또한 국내에서 해외로의 유입뿐만 아니라, 해외에서 국내로의 유입에 활용될 가능성 역시 내포하고 있다.

수술 동영상의 비식별화를 위한 개인식별정보 자동 검출 시스템 설계 및 구현 (Design and Implementation of Automated Detection System of Personal Identification Information for Surgical Video De-Identification)

  • 조영탁;안기옥
    • 융합보안논문지
    • /
    • 제19권5호
    • /
    • pp.75-84
    • /
    • 2019
  • 최근 의료정보기술 분야에서 비디오는 풍부한 임상정보를 포함하는 특징으로 인하여 새로운 서비스 창출 및 연구개발을 위한 중요한 데이터로서 그 가치를 새롭게 평가받고 있다. 그러나 임상정보는 개인정보를 포함하고 있어, 생명윤리 혹은 연구 윤리에 대한 고려가 필요하다. 따라서 비디오 또한 의료영상으로서 비식별화가 요구되지만 기존 방법은 주로 정형데이터와 정지영상에 특화되어 기존의 방법을 그대로 적용하기 어려운 문제가 있다. 본 논문에서는 개인정보 비식별화 처리 시스템과의 연동을 고려하여 비디오 내에서 개인식별정보를 검출하는 자동화 시스템을 제안한다. 제안 시스템은 장면분할과 체내외 영역 검출의 전처리 후에 텍스트 및 사람검출을 통한 인덱싱과정을 수행한다. 검출된 개인식별 인덱스 정보는 비식별화를 수행하는 외부 시스템 및 시각화를 위한 메타데이터로 제공된다. 제안 시스템의 효용성을 검증하기 위하여 프로토타입을 구현하고 실제 수술비디오를 대상으로 인덱싱 속도를 측정하였다. 그 결과 입력 비디오의 재생시간 대비 2배 이상의 빠른 작업속도를 보였으며, 수술교육콘텐츠 제작 및 학술용 반자동 편집시스템의 사례를 통해 빠른 의사결정을 보조할 수 있음을 확인하였다.

IMToon: 영상처리를 활용한 영상기반 카툰 저작 시스템 (IMToon: Image-based Cartoon Authoring System using Image Processing)

  • 서반석;김진모
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권2호
    • /
    • pp.11-22
    • /
    • 2017
  • 본 연구는 영상처리 알고리즘을 활용하여 영상 기반의 카툰을 제작하는 저작 시스템인 IMToon(IMage-based carToon)을 제안한다. 제안하는 IMToon은 영상을 기반으로 하여 일반 사용자들도 쉽고 효율적으로 카툰을 구성하는 프레임들을 제작할 수 있도록 한다. 이를 위해 저작시스템을 크게 카툰 이펙터와 대화형 이야기 편집기의 두 기능으로 나누어 설계한다. 카툰 이펙터는 입력 영상을 카툰 형식의 영상으로 자동 변환하는 기능으로 영상기반 카툰 쉐이딩과 윤곽 드로잉의 단계로 진행된다. 영상기반 카툰 쉐이딩은 사용자로부터 원하는 장면의 사진을 입력으로 받아 입력 사진의 컬러 모델에서 명암 정보를 분리하고, 원하는 단계의 음영대로 단순화하여 카툰 형식의 영상으로 생성하는 방법이다. 그리고 테두리 검출을 통해 쉐이딩된 영상에 윤곽선을 적용시키는 윤곽 드로잉 단계를 거쳐 최종적으로 카툰 형식의 영상을 생성한다. 대화형 이야기 편집기는 웹툰이나 만화책과 같이 이야기를 전달하는 완성된 카툰의 한 장면을 생성하기 위하여 말풍선과 자막 등을 대화형 구조로 입력하는 기능이다. 여기에 단일 영상을 카툰방식으로 변환하는 카툰 이펙터를 비디오로 확장시켜 정지 영상 뿐 아니라 동영상에도 응용할 수 있도록 설계한다. 마지막으로 제안한 IMToon 시스템을 통해 사용자가 원하는 카툰을 영상을 기반으로 보다 쉽고 효율적으로 제작할 수 있는지 여부를 다양한 실험을 통해 확인한다.