• 제목/요약/키워드: text enhancement

검색결과 71건 처리시간 0.031초

문자 영역을 강조하기 위한 적응적 오차 확산법 (Adaptive Error Diffusion for Text Enhancement)

  • 권재현;손창환;박태용;조양호;하영호
    • 대한전자공학회논문지SP
    • /
    • 제43권1호
    • /
    • pp.9-16
    • /
    • 2006
  • 본 논문에서는 최대 기울기 차이(maximum gradient difference, MGD)를 이용한 효과적인 문자 분할과 문자 영역을 강조하기 위한 적응적 오차 확산법을 제안한다. 스캔 라인을 따라 기울기를 계산하고, 잠재적 문자 영역을 융합하기 위해 국부적 윈도우 내에 MGD 값을 채운다. 노이즈 필터링을 거친 후, 배경에는 기존 오차 확산법, 문자에는 경계 향상 오차 확산법을 적용한다. 서로 다른 하프토닝 알고리즘의 사용으로 눈에 거슬리는 결함이 발생하기 때문에 경계 결함을 줄이기 위해 단계적 팽창(gradual dilation)을 적용한다. 단계적으로 팽창된 문자 영역(gradually dilated to저 region, GDTR)에 기반한 샤프닝(sharpening)은 문자 영역의 경계에서 연속적으로 점이 찍히는 것을 막을 수 있다. 제안한 적응적 오차 확산법은 일반적인 오차 필터를 이용하여 경계 향상 정도를 조절할 수 있는 칼라 하프토닝 방법이다. 경계 향상 정도와 색차를 분석하여 경계 향상 계수를 정하고, 경계 향상 오차 확산법의 사용으로 인해 점이 찍히지 않는 결함을 줄이기 위하여 추가적인 오차 요소를 반영하였다. 스캔한 영상을 제안한 방법을 이용하여 하프토닝하면 배경의 변화 없이 문자 부분이 선명한 결과를 얻을 수 있다.

Representative Batch Normalization for Scene Text Recognition

  • Sun, Yajie;Cao, Xiaoling;Sun, Yingying
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권7호
    • /
    • pp.2390-2406
    • /
    • 2022
  • Scene text recognition has important application value and attracted the interest of plenty of researchers. At present, many methods have achieved good results, but most of the existing approaches attempt to improve the performance of scene text recognition from the image level. They have a good effect on reading regular scene texts. However, there are still many obstacles to recognizing text on low-quality images such as curved, occlusion, and blur. This exacerbates the difficulty of feature extraction because the image quality is uneven. In addition, the results of model testing are highly dependent on training data, so there is still room for improvement in scene text recognition methods. In this work, we present a natural scene text recognizer to improve the recognition performance from the feature level, which contains feature representation and feature enhancement. In terms of feature representation, we propose an efficient feature extractor combined with Representative Batch Normalization and ResNet. It reduces the dependence of the model on training data and improves the feature representation ability of different instances. In terms of feature enhancement, we use a feature enhancement network to expand the receptive field of feature maps, so that feature maps contain rich feature information. Enhanced feature representation capability helps to improve the recognition performance of the model. We conducted experiments on 7 benchmarks, which shows that this method is highly competitive in recognizing both regular and irregular texts. The method achieved top1 recognition accuracy on four benchmarks of IC03, IC13, IC15, and SVTP.

시공간 정보를 이용한 자막 탐지 및 향상 기법 (A Method for Text Detection and Enhancement using Spatio-Temporal Information)

  • 정종면
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권8호
    • /
    • pp.43-50
    • /
    • 2009
  • 디지털 비디오에서 텍스트 정보는 비디오 데이터의 시청각적인 정보를 보강하고 부가 정보를 제공하기 때문에 방대한 멀티미디어의 내용을 예측할 수 있는 중요한 단서를 제공한다. 본 논문에서 제안된 방법은 주어진 영상열로부터 자막의 획 특징을 이용하여 자막을 탐지하고, 프로젝션을 이용하여 자막의 위치를 찾는다. 찾아진 자막을 포함하는 바운딩박스에 대한 기하학적인 검증을 거친 후, 서로 인접하는 프레임에 있는 바운딩박스 중 공간적으로 동일한 위치의 바운딩박스에 대한 MAD를 이용하여 바운딩박스를 추적하고, 시간적 중복성을 이용하여 바운딩박스 영역의 화질을 향상시킨다. 다양한 비디오에 대한 실험 결과는 제안된 방법의 타당성을 보인다.

Development Status and Prospects of Graphical Password Authentication System in Korea

  • Yang, Gi-Chul
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권11호
    • /
    • pp.5755-5772
    • /
    • 2019
  • Security is becoming more important as society changes rapidly. In addition, today's ICT environment demands changes in existing security technologies. As a result, password authentication methods are also changing. The authentication method most often used for security is password authentication. The most-commonly used passwords are text-based. Security enhancement requires longer and more complex passwords, but long, complex, text-based passwords are hard to remember and inconvenient to use. Therefore, authentication techniques that can replace text-based passwords are required today. Graphical passwords are more difficult to steal than text-based passwords and are easier for users to remember. In recent years, researches into graphical passwords that can replace existing text-based passwords are being actively conducting in various places throughout the world. This article surveys recent research and development directions of graphical password authentication systems in Korea. For this purpose, security authentication methods using graphical passwords are categorized into technical groups and the research associated with graphical passwords performed in Korea is explored. In addition, the advantages and disadvantages of all investigated graphical password authentication methods were analyzed along with their characteristics.

비디오 품질 향상 응용을 위한 오버레이 텍스트 그래픽 영역 검출 (Overlay Text Graphic Region Extraction for Video Quality Enhancement Application)

  • 이상희;박한성;안정일;온영상;조강현
    • 방송공학회논문지
    • /
    • 제18권4호
    • /
    • pp.559-571
    • /
    • 2013
  • 2차원 비디오를 3차원 스테레오 비디오로 변환할 때 기존 비디오에 삽입되어 있는 오버레이 텍스트(overlay text) 그래픽 영역으로 인해 발생하는 문제점을 이 논문에서 제시한다. 이를 해결하기 위한 방법으로 2차원 비디오를 오버레이 텍스트 그래픽 영역만 있는 영상과 오버레이 그래픽 영역이 추출되어 홀(hole)이 있는 영상으로 분리하여 처리하는 시나리오를 제안한다. 그리고 이 시나리오의 첫 번째 단계로 오버레이 텍스트 영역을 검색하고 추출하는 방법에 대해서만 이 논문에서 논한다. 비디오 시퀀스(sequence)가 입력되면 불필요한 연산 과정을 줄이기 위해 해리스 코너(Harris corner)로 얻어진 코너 밀도 맵을 이용하여 프레임 내 오버레이 텍스트의 존재 유무를 먼저 판단한다. 오버레이 텍스트가 있다면, 색(color) 정보와 움직임(motion) 정보를 결합하여 오버레이 텍스트 그래픽 영역을 검색하고 추출한다. 실험에서는 여러 가지 장르의 방송용 비디오에 대한 처리 결과를 보여주고 분석했다.

Research on Chinese Microblog Sentiment Classification Based on TextCNN-BiLSTM Model

  • Haiqin Tang;Ruirui Zhang
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.842-857
    • /
    • 2023
  • Currently, most sentiment classification models on microblogging platforms analyze sentence parts of speech and emoticons without comprehending users' emotional inclinations and grasping moral nuances. This study proposes a hybrid sentiment analysis model. Given the distinct nature of microblog comments, the model employs a combined stop-word list and word2vec for word vectorization. To mitigate local information loss, the TextCNN model, devoid of pooling layers, is employed for local feature extraction, while BiLSTM is utilized for contextual feature extraction in deep learning. Subsequently, microblog comment sentiments are categorized using a classification layer. Given the binary classification task at the output layer and the numerous hidden layers within BiLSTM, the Tanh activation function is adopted in this model. Experimental findings demonstrate that the enhanced TextCNN-BiLSTM model attains a precision of 94.75%. This represents a 1.21%, 1.25%, and 1.25% enhancement in precision, recall, and F1 values, respectively, in comparison to the individual deep learning models TextCNN. Furthermore, it outperforms BiLSTM by 0.78%, 0.9%, and 0.9% in precision, recall, and F1 values.