• Title/Summary/Keyword: 문자영상

Search Result 796, Processing Time 0.037 seconds

An Efficient Character Image Enhancement and Region Segmentation Using Watershed Transformation (Watershed 변환을 이용한 효율적인 문자 영상 향상 및 영역 분할)

  • Choi, Young-Kyoo;Rhee, Sang-Burm
    • The KIPS Transactions:PartB
    • /
    • v.9B no.4
    • /
    • pp.481-490
    • /
    • 2002
  • Off-line handwritten character recognition is in difficulty of incomplete preprocessing because it has not dynamic information has various handwriting, extreme overlap of the consonant and vowel and many error image of stroke. Consequently off-line handwritten character recognition needs to study about preprocessing of various methods such as binarization and thinning. This paper considers running time of watershed algorithm and the quality of resulting image as preprocessing for off-line handwritten Korean character recognition. So it proposes application of effective watershed algorithm for segmentation of character region and background region in gray level character image and segmentation function for binarization by extracted watershed image. Besides it proposes thinning methods that effectively extracts skeleton through conditional test mask considering routing time and quality of skeleton, estimates efficiency of existing methods and this paper's methods as running time and quality. Average execution time on the previous method was 2.16 second and on this paper method was 1.72 second. We prove that this paper's method removed noise effectively with overlap stroke as compared with the previous method.

Block Classification of Document Images by Block Attributes and Texture Features (블록의 속성과 질감특징을 이용한 문서영상의 블록분류)

  • Jang, Young-Nae;Kim, Joong-Soo;Lee, Cheol-Hee
    • Journal of Korea Multimedia Society
    • /
    • v.10 no.7
    • /
    • pp.856-868
    • /
    • 2007
  • We propose an effective method for block classification in a document image. The gray level document image is converted to the binary image for a block segmentation. This binary image would be smoothed to find the locations and sizes of each block. And especially during this smoothing, the inner block heights of each block are obtained. The gray level image is divided to several blocks by these location informations. The SGLDM(spatial gray level dependence matrices) are made using the each gray-level document block and the seven second-order statistical texture features are extracted from the (0,1) direction's SGLDM which include the document attributes. Document image blocks are classified to two groups, text and non-text group, by the inner block height of the block at the nearest neighbor rule. The seven texture features(that were extracted from the SGLDM) are used for the five detail categories of small font, large font, table, graphic and photo blocks. These document blocks are available not only for structure analysis of document recognition but also the various applied area.

  • PDF

Study on News Video Character Extraction and Recognition (뉴스 비디오 자막 추출 및 인식 기법에 관한 연구)

  • 김종열;김성섭;문영식
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.40 no.1
    • /
    • pp.10-19
    • /
    • 2003
  • Caption information in news videos can be useful for video indexing and retrieval since it usually suggests or implies the contents of the video very well. In this paper, a new algorithm for extracting and recognizing characters from news video is proposed, without a priori knowledge such as font type, color, size of character. In the process of text region extraction, in order to improve the recognition rate for videos with complex background at low resolution, continuous frames with identical text regions are automatically detected to compose an average frame. The image of the averaged frame is projected to horizontal and vertical direction, and we apply region filling to remove backgrounds to produce the character. Then, K-means color clustering is applied to remove remaining backgrounds to produce the final text image. In the process of character recognition, simple features such as white run and zero-one transition from the center, are extracted from unknown characters. These feature are compared with the pre-composed character feature set to recognize the characters. Experimental results tested on various news videos show that the proposed method is superior in terms of caption extraction ability and character recognition rate.

Word Extraction from Table Regions in Document Images (문서 영상 내 테이블 영역에서의 단어 추출)

  • Jeong, Chang-Bu;Kim, Soo-Hyung
    • The KIPS Transactions:PartB
    • /
    • v.12B no.4 s.100
    • /
    • pp.369-378
    • /
    • 2005
  • Document image is segmented and classified into text, picture, or table by a document layout analysis, and the words in table regions are significant for keyword spotting because they are more meaningful than the words in other regions. This paper proposes a method to extract words from table regions in document images. As word extraction from table regions is practically regarded extracting words from cell regions composing the table, it is necessary to extract the cell correctly. In the cell extraction module, table frame is extracted first by analyzing connected components, and then the intersection points are extracted from the table frame. We modify the false intersections using the correlation between the neighboring intersections, and extract the cells using the information of intersections. Text regions in the individual cells are located by using the connected components information that was obtained during the cell extraction module, and they are segmented into text lines by using projection profiles. Finally we divide the segmented lines into words using gap clustering and special symbol detection. The experiment performed on In table images that are extracted from Korean documents, and shows $99.16\%$ accuracy of word extraction.

ART2 기반 RBF 네트워크와 얼굴 인증을 이용한 주민등록증 인식

  • ;Lee, Jae-Eon;Kim, Kwang-Baek
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2005.11a
    • /
    • pp.526-535
    • /
    • 2005
  • 우리나라의 주민등록증은 주소지, 주민등록 변호, 얼굴사진, 지문 등 개개인의 방대한 정보를 가진다. 현재의 플라스틱 주민등록증은 위조 및 변조가 쉽고 날로 전문화 되어가고 있다. 따라서 육안으로 위조 및 변조 사실을 쉽게 확인하기가 어려워 사회적으로 많은 문제를 일으키고 있다. 이에 본 논문에서는 주민등록증 영상을 자동 인식할 수 있는 개선된 ART2 기반 RBF 네트워크와 얼굴인증을 이용한 주민등록증 자동 인식 방법을 제안한다. 제안된 방법은 주민등록증 영상에서 주민등록번호와 발행일을 추출하기 위하여 영상을 소벨마스크와 미디언 필터링을 적용한 후에 수평 스미어링을 적용하여 주민등록번호와 발행일 영역을 검출한다. 그리고 4 방향 윤곽선 추적 알고리즘으로 개별 문자를 추출하기 위한 전 단계로 주민등록증 영상에 대해 고주파 필터링을 적용하여 주민등록증 영상 전체를 이진화 한다. 이진화된 주민등록영상에서 COM 마스크를 적용하여 주민등록번호와 발행일 코드를 복원하고 검출된 각 영역에 대해 4 방향 윤곽선 추적 알고리즘으로 개별 문자를 추출한다. 추출된 개별 문자는 개선된 ART2 기반 RBF 네트워크를 제안하여 인식에 적용한다. 제안된 ART2 기반 RBF 네트워크는 학습 성능을 개선하기 위하여 중간충과 출력층의 학습에 퍼지 제어 기법을 적용하여 학습률을 동적으로 조정한다. 얼굴인증은 템플릿 매칭 알고리즘을 이용하여 얼굴 템플릿 데이터베이스를 구축하고 주민등록증애서 추출된 얼굴영역과의 유사도를 측정하여 주민등록증 얼굴 영역의 위조여부를 판별한다.

  • PDF

Recognition of Word-level Attributed in Machine-printed Document Images (인쇄 문서 영상의 단어 단위 속성 인식)

  • Gwak, Hui-Gyu;Kim, Su-Hyeong
    • Journal of KIISE:Software and Applications
    • /
    • v.28 no.5
    • /
    • pp.412-421
    • /
    • 2001
  • 본 논문은 문서 영상에 존재하는 개별 단어들에 대한 속성정보 추출 방법을 제안한다. 단어 단위의 속성 인식은 단어 영상 매칭의 정확도 및 속도 개선, OCR 시스템에서 인식률 향상, 문서의 재생산 등 다양한 응용 가치를 찾을 수 있으며, 메타정보(meta-information) 추출을 통해 영상 검색(image retrieval)이나 요약(summary) 생성 등에 활용할 수 있다. 제안하는 시스템에서 고려하는 단어 영상의 속성은 언어의 종류(한글, 영문), 스타일(볼드, 이탤릭, 보통, 밑줄), 문자 크기(10, 12, 14 포인트), 문자 개수 (한글: 2, 3, 4, 5, 영문: 4, 5, 6, 7, 8, 9, 10), 서체(명조, 고딕)의 다섯 가지 정보이다. 속성 인식을 위한 특징은, 언어 종류 인식에 2개, 스타일 인식에 3개, 문자 크기와 개수는 각각 1개, 한글 서체 인식은 1개, 영문 서체 인식은 2개를 사용한다. 분류기는 신경망, 2차형 판별함수(QDF), 선형 판별함수(LDF)를 계층적으로 구성한다. 다섯 가지 속성이 조합된 26,400개의 단어 영상을 사용한 실험을 통해, 제안된 방법이 소수의 특징만으로도 우수한 속성 인식 성능을 보임을 입증하였다.

  • PDF

Recognition of Digit Strings from Celluar Phone image by Sequential Color Clustering (순차적 칼라 클러스터링에 기반 한 휴대폰 카메라 영상에서의 숫자열 인식)

  • 박현일;김수형
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.766-768
    • /
    • 2004
  • 자연영상에서 획득된 문자를 인식하는 연구는 대부분 디지털 카메라나 캠코더를 이용하여 획득된 고해상도 영상을 입력영상으로 사용하고 있다. 본 논문에서는 휴대폰 카메라로 획득된 저해상도 영상을 입력영상으로 사용하였다. 저해상도의 영상은 적은 수의 픽셀로 정보를 표현하고 있기 때문에 기존에 제시되었던 다양한 이진화 방법으로는 문자와 배경을 깨끗하게 분리해 낼 수 없다. 본 논문은 입력영상의 이진화를 위친 K-Means 알고리즘을 이용하여 칼라 클러스터링을 하였으며, 이진화 성능을 향상시키기 위해 지능형 주파수 필터를 사용하였다. 이진화된 영상을 파이프라인 구조의 인식 시스템에 인식시킴으로써 기존의 제안 방법들에 비하여 인식 성능을 향상시킬 수 있었다.

  • PDF

Odometry Using Strong Features of Recognized Text (인식된 문자의 강한 특징점을 활용하는 측위시스템)

  • Song, Do-hoon;Park, Jong-il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.219-222
    • /
    • 2021
  • 본 논문에서는 시각-관성 측위시스템(Visual-Inertial Odometry, VIO)에서 광학 문자 인식(Optical Character Recognition, OCR)을 활용해 문자의 영역을 찾아내고, 그 위치를 기억해 측위시스템에서 다시 인식되었을 때 비교하기 위해 위치와 특징점을 저장하고자 한다. 먼저, 실시간으로 움직이는 카메라의 영상에서 문자를 찾아내고, 카메라의 상대적인 위치를 이용하여 문자가 인식된 위치와 특징점을 저장하는 방법을 제안한다. 또한 저장된 문자가 다시 탐색되었을 때, 문자가 재인식되었는 지 판별하기 위한 방법을 제안한다. 인공적인 마커나 미리 학습된 객체를 사용하지 않고 상황에 따른 문자를 사용하는 이 방법은 문자가 존재하는 범용적인 공간에서 사용이 가능하다.

  • PDF

A Generalized Method for Extracting Characters and Video Captions (일반화된 문자 및 비디오 자막 영역 추출 방법)

  • Chun, Byung-Tae;Bae, Young-Lae;Kim, Tai-Yun
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.6
    • /
    • pp.632-641
    • /
    • 2000
  • Conventional character extraction methods extract character regions using methods such as color reduction, region split and merge and texture analysis from the whole image. Because these methods use many heuristic variables and thresholding values derived from a priori knowledge, it is difficult to generalize them algorithmically. In this paper, we propose a method that can extract character regions using a topographical feature extraction method and a point-line-region extension method. The proposed method can also solve the problems of conventional methods by reducing heuristic variables and generalizing thresholding values. We see that character regions can be extracted by generalized variables and thresolding values without using a priori knowledge of character region. Experimental results show that the candidate region extraction rate is 100%, and the character region extraction rate is over 98%.

  • PDF

An Improved Method for Detecting Caption in image using DCT-coefficient and Transition-map Analysis (DCT계수와 천이지도 분석을 이용한 개선된 영상 내 자막영역 검출방법)

  • An, Kwon-Jae;Joo, Sung-Il;Kim, Gye-Young;Choi, Hyung-Il
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.4
    • /
    • pp.61-71
    • /
    • 2011
  • In this paper, we proposed the method for detecting text region on image using DCT-coefficient and transition-map analysis. The detecting rate of traditional method for detecting text region using DCT-coefficient analysis is high, but false positive detecting rate also is high and the method using transition-map often reject true text region in step of verification because of sticky threshold. To overcome these problems, we generated PTRmap(Promising Text Region map) through DCT-coefficient analysis and applied PTRmap to method for detecting text region using transition map. As the result, the false positive detecting rate decreased as compared with the method using DCT-coefficient analysis, and the detecting rate increased as compared with the method using transition map.