• 제목/요약/키워드: text-to-image

검색결과 892건 처리시간 0.025초

SOM 기반 웹 이미지 분류에서 고수준 텍스트 특징들의 효과 (The Effectiveness of High-level Text Features in SOM-based Web Image Clustering)

  • 조수선
    • 정보처리학회논문지B
    • /
    • 제13B권2호
    • /
    • pp.121-126
    • /
    • 2006
  • 본 논문에서는 웹 이미지의 분류 효과를 높이기 위해 이미지 자체에서 추출된 저수준의 비주얼 특징뿐만 아니라 이미지와 관련된 텍스트 정보로부터 나온 고수준 시맨틱 특징들을 이용하는 분류 방법을 제안한다. 이 고수준의 텍스트 특징들은 이미지 URL, 파일명, 페이지 타이틀, 하이퍼링크 및 이미지 주변 텍스트로부터 얻어진다. 분류 엔진으로는 Kohonen의 SOM(Self Organizing Map)을 사용한다. 고수준의 텍스트 특징들과 저수준의 비주얼 특징들을 동시에 사용하는 SOM 기반의 이미지 분류에서는 10개의 카테고리로부터 수집된 200개의 테스트 이미지들이 사용되었다. 분류 성능을 평가하기 위해 간단하면서도 새로운 두 가지 척도, 즉 동일 카테고리 이미지들의 산포 정도와 집적 정도를 나타내는 각각의 척도를 정의하고 사용하였다. 실험결과, SOM기반의 웹 이미지 분류에서는 고수준의 텍스트 특징들이 보다 유용한 것임이 밝혀졌다.

Arabic Words Extraction and Character Recognition from Picturesque Image Macros with Enhanced VGG-16 based Model Functionality Using Neural Networks

  • Ayed Ahmad Hamdan Al-Radaideh;Mohd Shafry bin Mohd Rahim;Wad Ghaban;Majdi Bsoul;Shahid Kamal;Naveed Abbas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1807-1822
    • /
    • 2023
  • Innovation and rapid increased functionality in user friendly smartphones has encouraged shutterbugs to have picturesque image macros while in work environment or during travel. Formal signboards are placed with marketing objectives and are enriched with text for attracting people. Extracting and recognition of the text from natural images is an emerging research issue and needs consideration. When compared to conventional optical character recognition (OCR), the complex background, implicit noise, lighting, and orientation of these scenic text photos make this problem more difficult. Arabic language text scene extraction and recognition adds a number of complications and difficulties. The method described in this paper uses a two-phase methodology to extract Arabic text and word boundaries awareness from scenic images with varying text orientations. The first stage uses a convolution autoencoder, and the second uses Arabic Character Segmentation (ACS), which is followed by traditional two-layer neural networks for recognition. This study presents the way that how can an Arabic training and synthetic dataset be created for exemplify the superimposed text in different scene images. For this purpose a dataset of size 10K of cropped images has been created in the detection phase wherein Arabic text was found and 127k Arabic character dataset for the recognition phase. The phase-1 labels were generated from an Arabic corpus of quotes and sentences, which consists of 15kquotes and sentences. This study ensures that Arabic Word Awareness Region Detection (AWARD) approach with high flexibility in identifying complex Arabic text scene images, such as texts that are arbitrarily oriented, curved, or deformed, is used to detect these texts. Our research after experimentations shows that the system has a 91.8% word segmentation accuracy and a 94.2% character recognition accuracy. We believe in the future that the researchers will excel in the field of image processing while treating text images to improve or reduce noise by processing scene images in any language by enhancing the functionality of VGG-16 based model using Neural Networks.

A Comparative Study on OCR using Super-Resolution for Small Fonts

  • Cho, Wooyeong;Kwon, Juwon;Kwon, Soonchu;Yoo, Jisang
    • International journal of advanced smart convergence
    • /
    • 제8권3호
    • /
    • pp.95-101
    • /
    • 2019
  • Recently, there have been many issues related to text recognition using Tesseract. One of these issues is that the text recognition accuracy is significantly lower for smaller fonts. Tesseract extracts text by creating an outline with direction in the image. By searching the Tesseract database, template matching with characters with similar feature points is used to select the character with the lowest error. Because of the poor text extraction, the recognition accuracy is lowerd. In this paper, we compared text recognition accuracy after applying various super-resolution methods to smaller text images and experimented with how the recognition accuracy varies for various image size. In order to recognize small Korean text images, we have used super-resolution algorithms based on deep learning models such as SRCNN, ESRCNN, DSRCNN, and DCSCN. The dataset for training and testing consisted of Korean-based scanned images. The images was resized from 0.5 times to 0.8 times with 12pt font size. The experiment was performed on x0.5 resized images, and the experimental result showed that DCSCN super-resolution is the most efficient method to reduce precision error rate by 7.8%, and reduce the recall error rate by 8.4%. The experimental results have demonstrated that the accuracy of text recognition for smaller Korean fonts can be improved by adding super-resolution methods to the OCR preprocessing module.

인터넷상에서 텍스트와 TIFF 이미지 자료 디스플레이를 위한 뷰어 구현 및 평가 (Implementation and Evaluation of Integrated Viewier for Displanning Text and TIFF Image Materials on the Internet Environments)

  • 최흥식
    • 정보관리학회지
    • /
    • 제17권1호
    • /
    • pp.67-87
    • /
    • 2000
  • The purpose of the study is to develop an integrated viewer which can display both text and image files on the Internet environment. Up to now, most viewers for full-text databases can be displayed documents only by image or graphic viewers. The newly developed system can compress document files in commercial word processors (e.g, 한글TM, WordTM, ExceITM, PowerpointTM, HunminJungumTM, ArirangTM, CADTM), as well as conventional TIFF image file in smaller size, which were converted into DVI(DeVice Independent) file format, and display them on computer screen. IDoc Viewer was evaluated to test its performance by user group, consisting of 5 system developers, 5 librarians, and 10 end-users. IDoc Viewer has been proved to be good or excellent at 20 out of 26 check lists.

  • PDF

대역분할과 BW 변환을 이용한 무손실 영상압축 (Lossless image compression using subband decomposition and BW transform)

  • 윤정오;박영호;황찬식
    • 한국산업정보학회논문지
    • /
    • 제5권1호
    • /
    • pp.102-107
    • /
    • 2000
  • 일반적으로 문자와 영상이 갖는 특성이 서로 다르기 때문에 문자 압축 기법들을 영상 압축에 직접 사용하지 않는다. 최근 문자 압축에 뛰어난 결과를 얻을 수 있는 블록 정렬 알고리즘인 BW 변환이 소개되었으나 BW 변환을 직접 영상에 적용하면 만족할 만한 결과를 얻을 수가 없다. 따라서 BW 변환을 영상에 적용할 때 무손실 압축성능 개선을 위한 새로운 방법을 제안한다. 제안한 방법의 구성은 3단계로 나누어지며 SSKF 필터에 의한 10개 영역으로 계층적 대역 분할을 하고 BW 변환에 의한 블록 정렬 알고리즘을 수행하여 적응적 산술 부호화에 의한 중복성를 제거한다. 실험 결과 제안한 방법이 무손실 JPEG 표준안과 LZ계열의 PKZIP 보다 뛰어난 압축 성능을 가졌다.

  • PDF

컬러 영상 위에서 DCT 기반의 빠른 문자 열 구간 분리 모델 (Fast Text Line Segmentation Model Based on DCT for Color Image)

  • 신현경
    • 정보처리학회논문지D
    • /
    • 제17D권6호
    • /
    • pp.463-470
    • /
    • 2010
  • 본 논문에서는 DCT 데이터에서 영상 데이터로의 해독 및 이진화 과정을 생략하고 컬러 영상의 DCT 관련 원자료를 사용하는 방법에 기반을 둔 매우 빠르고 안정적인 문자열 구간 분리 모형을 제안하였다. DCT 블록에 저장된 DC 및 3개의 주요 AC 변수들을 조합하여 축소된 저해상도 회색 영상을 만들고 횡렬 및 종렬 투영법을 통해 얻어진 픽셀 값의 히스토그램을 분석하여 문자 열 구간 사이에 존재하는 백색의 띠 공간을 찾아내었다. 이 과정 중 탐색되지 않은 문자 열 구간은 마코프 모델을 사용하여 숨겨진 주기를 찾아내어 복원하였다. 본 논문에 실험 결과를 제시하였으며 기존의 방법보다 약 40 - 100배 빠른 방법임을 입증하였다.

컬러 영상의 조명성분 분석을 통한 문자인식 성능 향상 (Improved Text Recognition using Analysis of Illumination Component in Color Images)

  • 치미영;김계영;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.131-136
    • /
    • 2007
  • 본 논문에서는 컬러영상에 존재하는 문자들을 효율적으로 추출하기 위한 새로운 접근 방법을 제안한다. 빛 또는 조명성분의 영향에 의해 획득된 영상 내에 존재하는 반사성분은 문자 또는 관심객체들의 경계가 모호해 지거나 관심객체와 배경이 서로 혼합 되었을 경우, 문자추출 및 인식을 함에 있어서 오류를 포함시킬 수 있다. 따라서 영상 내에 존재하는 반사성분을 제거하기 위해 먼저. 컬러영상으로부터 Red컬러 성분에 해당하는 히스토그램에서 두개의 pick점을 검출한다. 이후 검출된 두 개의 pick점들 간의 분포를 사용하여 노말 또는 편광 영상에 해당하는지를 판별한다. 노말 영상의 경우 부가적인 처리를 거치지 않고 문자에 해당하는 영역을 검출하며, 편광 영상에 해당하는 경우 반사성분을 제거하기 위해 호모모픽필터링 방법을 적용하여 반사성분에 해당하는 영역을 제거한다. 이후 문자영역을 검출하기 위해 최적전역임계화방식을 적용하여 전경과 배경을 분리하였으며 문자영역 추출 및 인식의 성능을 향상시켰다. 널리 사용되고 있는 문자 인식기를 사용하여 제안한 방식 적용 전과 후의 인식결과를 비교하였다. 편광영상에서 제안된 방법 적용 후, 문자인식을 한 경우 인식률이 향상되었다.

  • PDF

고 품질 텍스트 압축 기능을 지원하는 정지영상 압축 시스템 (A Still Image Compression System with a High Quality Text Compression Capability)

  • 이제명;이호석
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권3호
    • /
    • pp.275-302
    • /
    • 2007
  • 본 논문은 고품질 텍스트 압축 기능을 지원하는 우수한 정지영상 압축 시스템을 제안한다. 영상에서 텍스트 부분을 분리하여 압축을 수행함으로서 고품질의 텍스트 압축 기능을 지원한다. 시스템은 코드블록 단위로 적응 이진 산술부호화를 수행하여 48:1 이상의 높은 정지영상 압축률을 보여주고 있다. 코드블록은 비트평면을 구성하는 비트들을 서브블록 단위로 파악하여 산술부호에 적합한 코드블록을 구성한 것이다. 산술부호기는 구성된 코드블록을 문맥을 기반으로 압축한다. 시스템의 입력 모드는 분할(Segmentation) 모드와 ROI(Region Of Interest) 모드로 구성된다. 분할 모드는 입력 영상을 텍스트 부분과 배경 영상 부분으로 분할하여 입력할 수 있게 한다. ROI 모드는 입력 영상을 관심 영역과 그 밖의 영역으로 구분하여 입력할 수 있게 한다. 현재 시스템이 나타내는 텍스트 압축 기능과 높은 압축률은 다른 JPEG2000 시스템들과 충분히 비교할 수 있는 수준이다. 시스템은 그 밖에 그레이 코딩을 수행하여 압축률을 향상시킨다.

실세계 영상에서 적응적 에지 강화 기반의 MSER을 이용한 글자 영역 추출 기법 (An Extracting Text Area Using Adaptive Edge Enhanced MSER in Real World Image)

  • 박영목;박순화;서영건
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권4호
    • /
    • pp.219-226
    • /
    • 2016
  • 일반 생활 속에서 우리 인간의 눈으로 정보를 인식하고 그 정보를 이용하는 것에는 한계가 없을 만큼 다양하고 방대하다. 그러나 인공지능이 발달한 현재의 기술로도, 인간의 시각 처리 능력에 비하면 턱없이 능력이 부족하다. 그럼에도 불구하고 많은 연구자들은 실생활 속에서 정보를 얻고자 하고 있고, 특히 글자로 된 정보를 인식하는데 많은 노력을 기울이고 있다. 글자를 인식하는 분야에서 일반적인 문서에서 글자를 추출하는 것은 일부 정보처리 분야에서 이용되고 있지만, 실영상에서 문자를 추출하고 인식하는 부분은 아직도 많이 부족하다. 그 이유는 실영상에서는 색깔, 크기, 방향, 공통점 등에서 다양한 특징을 갖고 있기 때문이다. 본 논문에서는 이런 다양한 환경에서 문자 영역을 추출하기 위하여 적응적 에지 강화 기반의 MSER을 적용하여 장면 텍스트 추출을 시도하고, 비교적 좋은 방법임을 실험으로 보인다.

Ship Number Recognition Method Based on An improved CRNN Model

  • Wenqi Xu;Yuesheng Liu;Ziyang Zhong;Yang Chen;Jinfeng Xia;Yunjie Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.740-753
    • /
    • 2023
  • Text recognition in natural scene images is a challenging problem in computer vision. The accurate identification of ship number characters can effectively improve the level of ship traffic management. However, due to the blurring caused by motion and text occlusion, the accuracy of ship number recognition is difficult to meet the actual requirements. To solve these problems, this paper proposes a dual-branch network based on the CRNN identification network. The network couples image restoration and character recognition. The CycleGAN module is used for blur restoration branch, and the Pix2pix module is used for character occlusion branch. The two are coupled to reduce the impact of image blur and occlusion. Input the recovered image into the text recognition branch to improve the recognition accuracy. After a lot of experiments, the model is robust and easy to train. Experiments on CTW datasets and real ship maps illustrate that our method can get more accurate results.