• 제목, 요약, 키워드: recognition

검색결과 18,545건 처리시간 0.138초

딥 러닝 기법을 활용한 이미지 내 한글 텍스트 인식에 관한 연구 (Research on Korea Text Recognition in Images Using Deep Learning)

  • 성상하;이강배;박성호
    • 한국융합학회논문지
    • /
    • v.11 no.6
    • /
    • pp.1-6
    • /
    • 2020
  • 본 연구에서는 컴퓨터 비전의 분야 중 하나인 문자 인식에 관한 연구를 수행했다. 대표적인 문자인식 기법 중 하나인 광학식 문자 판독 기법의 경우 일정한 규격과 서식에서 벗어나게 되면 인식률이 떨어진다는 한계점이 있다. 따라서 본 연구에서는 딥 러닝 기법을 적용해 이러한 문제점을 해결하고자 한다. 또한 기존의 문자 인식 연구의 경우 대부분 영어 및 숫자 인식에 국한되어 있다. 따라서 본 연구는 한글 인식을 위한 딥 러닝 기반 문자 인식 알고리즘을 제시한다. 알고리즘은 1-NED 평가 방법에서 0.841의 점수를 얻었으며, 이는 영어 인식 결과와 비슷한 수치이다. 본 연구를 통해 딥 러닝 기반 한글 인식 알고리즘의 성능을 확인할 수 있으며, 이를 통해 향후 연구방향에 대해 제시한다.

ART와 다층 퍼셉트론을 이용한 얼굴인식 시스템의 성능분석 (Performance Analysis of Face Image Recognition System Using A R T Model and Multi-layer perceptron)

  • 김영일;안민옥
    • 전자공학회논문지B
    • /
    • v.30B no.2
    • /
    • pp.69-77
    • /
    • 1993
  • Automatic image recognition system is essential for a better man-to machine interaction. Because of the noise and deformation due to the sensor operation, it is not simple to build an image recognition system even for the fixed images. In this paper neural network which has been reported to be adequate for pattern recognition task is applied to the fixed and variational(rotation, size, position variation for the fixed image)recognition with a hope that the problems of conventional pattern recognition techniques are overcome. At fixed image recognition system. ART model is trained with face images obtained by camera. When recognizing an matching score. In the test when wigilance level 0.6 - 0.8 the system has achievel 100% correct face recognition rate. In the variational image recognition system, 65 invariant moment features sets are taken from thirteen persons. 39 data are taken to train multi-layer perceptron and other 26 data used for testing. The result shows 92.5% recognition rate.

  • PDF

얼굴추출 및 인식 영상정보 시스템 상용화 성공요인 분석 (A Factor Analysis for the Success of Commercialization of the Facial Extraction and Recognition Image Information System)

  • 김신표;오세동
    • 산업융합연구
    • /
    • v.13 no.2
    • /
    • pp.45-54
    • /
    • 2015
  • This Study aims to analyze the factors for the success of commercialization of the facial extraction and recognition image security information system of the domestic companies in Korea. As the results of the analysis, the internal factors for the success of commercialization of the facial extraction and recognition image security information system of the company were found to include (1) Holding of technology for close range facial recognition, (2) Holding of several facial recognition related patents, (3) Preference for the facial recognition security system over the fingerprint recognition and (4) strong volition of the CEO of the corresponding company. On the other hand, the external environmental factors for the success were found to include (1) Extensiveness of the market, (2) Rapid growth of the global facial recognition market, (3) Increased demand for the image security system, (4) Competition in securing of the engine for facial extraction and recognition and (5) Selection by the government as one of the 100 major strategic products.

  • PDF

Implementation of Real-time Wheel Order Recognition System Based on the Predictive Parameters for Speaker's Intention

  • Moon, Serng-Bae;Jun, Seung-Hwan
    • 한국항해항만학회지
    • /
    • v.35 no.7
    • /
    • pp.551-556
    • /
    • 2011
  • In this paper new enhanced post-process predicting the speaker's intention was suggested to implement the real-time control module for ship's autopilot using speech recognition algorithm. The parameter was developed to predict the likeliest wheel order based on the previous order and expected to increase the recognition rate more than pre-recognition process depending on the universal speech recognition algorithms. The values of parameter were assessed by five certified deck officers being good at conning vessel. And the entire wheel order recognition process were programmed to TMS320C5416 DSP so that the system could recognize the speaker's orders and control the autopilot in real-time. We conducted some experiments to verify the usefulness of suggested module. As a result, we have confirmed that the post-recognition process module could make good enough accuracy in recognition capabilities to realize the autopilot being operated by the speech recognition system.

A Multimodal Emotion Recognition Using the Facial Image and Speech Signal

  • Go, Hyoun-Joo;Kim, Yong-Tae;Chun, Myung-Geun
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • v.5 no.1
    • /
    • pp.1-6
    • /
    • 2005
  • In this paper, we propose an emotion recognition method using the facial images and speech signals. Six basic emotions including happiness, sadness, anger, surprise, fear and dislike are investigated. Facia] expression recognition is performed by using the multi-resolution analysis based on the discrete wavelet. Here, we obtain the feature vectors through the ICA(Independent Component Analysis). On the other hand, the emotion recognition from the speech signal method has a structure of performing the recognition algorithm independently for each wavelet subband and the final recognition is obtained from the multi-decision making scheme. After merging the facial and speech emotion recognition results, we obtained better performance than previous ones.

Recognition of Emotion and Emotional Speech Based on Prosodic Processing

  • Kim, Sung-Ill
    • The Journal of the Acoustical Society of Korea
    • /
    • v.23 no.3E
    • /
    • pp.85-90
    • /
    • 2004
  • This paper presents two kinds of new approaches, one of which is concerned with recognition of emotional speech such as anger, happiness, normal, sadness, or surprise. The other is concerned with emotion recognition in speech. For the proposed speech recognition system handling human speech with emotional states, total nine kinds of prosodic features were first extracted and then given to prosodic identifier. In evaluation, the recognition results on emotional speech showed that the rates using proposed method increased more greatly than the existing speech recognizer. For recognition of emotion, on the other hands, four kinds of prosodic parameters such as pitch, energy, and their derivatives were proposed, that were then trained by discrete duration continuous hidden Markov models(DDCHMM) for recognition. In this approach, the emotional models were adapted by specific speaker's speech, using maximum a posteriori(MAP) estimation. In evaluation, the recognition results on emotional states showed that the rates on the vocal emotions gradually increased with an increase of adaptation sample number.

음성과 영상 정보를 이용한 우리말 숫자음 인식 (Digit Recognition using Speech and Image Information)

  • 이종혁;최재원
    • 한국정보통신학회논문지
    • /
    • v.6 no.1
    • /
    • pp.83-88
    • /
    • 2002
  • 대부분 음성 인식 시스템에서는 음성 신호에서 추출한 특징 파라미터를 입력 정보로 하고 있다. 본 연구에서는 숫자음 인식률을 높이기 위하여 음성 인식 시스템에 음성과 영상 정보를 동시에 이용할 수 있는 방법을 제안하였다. 실험을 통하여 음성정보만을 사용한 인식결과와 음성과 영상정보를 동시에 사용한 인식결과를 비교한 결과, 음성과 영상 정보를 동시에 입력했을 때 약 6%정도의 인식률의 증가를 가져옴을 알 수 있었다. 이를 통해 숫자음 인식을 위해 음성정보만을 사용하는 것보다 영상정보를 같이 사용하는 것이 더욱 효과적임을 알 수 있었다.

인공지능 객체인식에 관한 파라미터 측정 연구 (A Study On Parameter Measurement for Artificial Intelligence Object Recognition)

  • 최병관
    • 디지털산업정보학회논문지
    • /
    • v.15 no.3
    • /
    • pp.15-28
    • /
    • 2019
  • Artificial intelligence is evolving rapidly in the ICT field, smart convergence media system and content industry through the fourth industrial revolution, and it is evolving very rapidly through Big Data. In this paper, we propose a face recognition method based on object recognition based on object recognition through artificial intelligence. In this method, Were experimented and studied through the object recognition technique of artificial intelligence. In the conventional 3D image field, general research on object recognition has been carried out variously, and researches have been conducted on the side effects of visual fatigue and dizziness through 3D image. However, in this study, we tried to solve the problem caused by the quantitative difference between object recognition and object recognition for human factor algorithm that measure visual fatigue through cognitive function, morphological analysis and object recognition. Especially, The new method of computer interaction is presented and the results are shown through experiments.

개선된 Google Activity Recognition을 이용한 상황인지 모델 (Context Awareness Model using the Improved Google Activity Recognition)

  • 백승은;박상원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • v.4 no.1
    • /
    • pp.57-64
    • /
    • 2015
  • 사용자의 상황에 따라 유용한 정보를 제공할 수 있는 행위인식 기술은 최근 많은 주목을 받고 있다. 스마트폰이 보급되기 전 행위인식 연구에서는 독립된 센서를 사용하여 사용자의 행위를 추론해야 했지만, 현재는 IT산업의 발달로 스마트폰의 내부 센서를 사용해 사용자의 행위를 추론할 수 있게 되었다. 따라서 행위인식 분야의 연구가 더욱 활발히 진행되고 있다. 행위인식 기술을 응용하면 사용자의 선호도에 따라 애플리케이션을 추천하거나 경로 정보를 제공하는 서비스 등을 개발할 수 있다. 기존의 행위인식 시스템들은 GPS를 이용하기 때문에 전력을 많이 소모한다는 단점이 있다. 반면에 최근 Google에서 발표한 행위인식(Google Activity Recognition) 시스템은 Network Provider를 이용하기 때문에 GPS 방식에 비해 전력소모가 적어 휴대해야 하는 스마트폰 응용 시스템에 적합하다. 하지만 Google Activity Recognition의 성능을 테스트한 결과 불필요한 행위 항목과 일부 잘못된 상황인지로 인해 정확한 사용자 행위를 파악하기 어렵다는 것을 발견했다. 행위인식 기술을 기반으로 한 새로운 서비스 개발을 위해 더욱 정확한 상황인지가 필요하므로 본 논문에서는 GAR의 문제점을 기술하고 정확도를 높이는 개선 방법을 적용한 AGAR(Advanced Google Activity Recognition)을 제안한다. 또한 AGAR의 이용가치를 평가하기 위하여 다른 여러 행위인식 시스템과 성능과 전력소모량을 비교분석하고 AGAR을 검증하는 예시 프로그램을 개발하여 응용 가능성을 설명한다.

얼굴과 음성 정보를 이용한 바이모달 사용자 인식 시스템 설계 및 구현 (Design and Implementation of a Bimodal User Recognition System using Face and Audio)

  • 김명훈;이지근;소인미;정성태
    • 한국컴퓨터정보학회논문지
    • /
    • v.10 no.5
    • /
    • pp.353-362
    • /
    • 2005
  • 최근 들어 바이모달 인식에 관한 연구가 활발히 진행되고 있다. 본 논문에서는 음성 정보와 얼굴정보를 이용하여 바이모달 시스템을 구현하였다. 얼굴인식은 얼굴 검출과 얼굴 인식 두 부분으로 나누어서 실험을 하였다. 얼굴 검출 단계에서는 AdaBoost를 이용하여 얼굴 후보 영역을 검출 한 뒤 PCA를 통해 특징 벡터 계수를 줄였다. PCA를 통해 추출된 특징 벡터를 객체 분류 기법인 SVM을 이용하여 얼굴을 검출 및 인식하였다. 음성인식은 MFCC를 이용하여 음성 특징 추출을 하였으며 HMM을 이용하여 음성인식을 하였다. 인식결과, 단일 인식을 사용하는 것보다 얼굴과 음성을 같이 사용하였을 때 인식률의 향상을 가져왔고, 잡음 환경에서는 더욱 높은 성능을 나타냈었다.

  • PDF