• Title/Summary/Keyword: 관심영역 자동추출

Search Result 74, Processing Time 0.027 seconds

Automatic gasometer reading system using selective optical character recognition (관심 문자열 인식 기술을 이용한 가스계량기 자동 검침 시스템)

  • Lee, Kyohyuk;Kim, Taeyeon;Kim, Wooju
    • Journal of Intelligence and Information Systems
    • /
    • v.26 no.2
    • /
    • pp.1-25
    • /
    • 2020
  • In this paper, we suggest an application system architecture which provides accurate, fast and efficient automatic gasometer reading function. The system captures gasometer image using mobile device camera, transmits the image to a cloud server on top of private LTE network, and analyzes the image to extract character information of device ID and gas usage amount by selective optical character recognition based on deep learning technology. In general, there are many types of character in an image and optical character recognition technology extracts all character information in an image. But some applications need to ignore non-of-interest types of character and only have to focus on some specific types of characters. For an example of the application, automatic gasometer reading system only need to extract device ID and gas usage amount character information from gasometer images to send bill to users. Non-of-interest character strings, such as device type, manufacturer, manufacturing date, specification and etc., are not valuable information to the application. Thus, the application have to analyze point of interest region and specific types of characters to extract valuable information only. We adopted CNN (Convolutional Neural Network) based object detection and CRNN (Convolutional Recurrent Neural Network) technology for selective optical character recognition which only analyze point of interest region for selective character information extraction. We build up 3 neural networks for the application system. The first is a convolutional neural network which detects point of interest region of gas usage amount and device ID information character strings, the second is another convolutional neural network which transforms spatial information of point of interest region to spatial sequential feature vectors, and the third is bi-directional long short term memory network which converts spatial sequential information to character strings using time-series analysis mapping from feature vectors to character strings. In this research, point of interest character strings are device ID and gas usage amount. Device ID consists of 12 arabic character strings and gas usage amount consists of 4 ~ 5 arabic character strings. All system components are implemented in Amazon Web Service Cloud with Intel Zeon E5-2686 v4 CPU and NVidia TESLA V100 GPU. The system architecture adopts master-lave processing structure for efficient and fast parallel processing coping with about 700,000 requests per day. Mobile device captures gasometer image and transmits to master process in AWS cloud. Master process runs on Intel Zeon CPU and pushes reading request from mobile device to an input queue with FIFO (First In First Out) structure. Slave process consists of 3 types of deep neural networks which conduct character recognition process and runs on NVidia GPU module. Slave process is always polling the input queue to get recognition request. If there are some requests from master process in the input queue, slave process converts the image in the input queue to device ID character string, gas usage amount character string and position information of the strings, returns the information to output queue, and switch to idle mode to poll the input queue. Master process gets final information form the output queue and delivers the information to the mobile device. We used total 27,120 gasometer images for training, validation and testing of 3 types of deep neural network. 22,985 images were used for training and validation, 4,135 images were used for testing. We randomly splitted 22,985 images with 8:2 ratio for training and validation respectively for each training epoch. 4,135 test image were categorized into 5 types (Normal, noise, reflex, scale and slant). Normal data is clean image data, noise means image with noise signal, relfex means image with light reflection in gasometer region, scale means images with small object size due to long-distance capturing and slant means images which is not horizontally flat. Final character string recognition accuracies for device ID and gas usage amount of normal data are 0.960 and 0.864 respectively.

Automatic Extraction of Ascending Aorta and Ostium in Cardiac CT Angiography Images (심장 CT 혈관 조영 영상에서 대동맥 및 심문 자동 검출)

  • Kim, Hye-Ryun;Kang, Mi-Sun;Kim, Myoung-Hee
    • Journal of the Korea Computer Graphics Society
    • /
    • v.23 no.1
    • /
    • pp.49-55
    • /
    • 2017
  • Computed tomographic angiography (CTA) is widely used in the diagnosis and treatment of coronary artery disease because it shows not only the whole anatomical structure of the cardiovascular three-dimensionally but also provides information on the lesion and type of plaque. However, due to the large size of the image, there is a limitation in manually extracting coronary arteries, and related researches are performed to automatically extract coronary arteries accurately. As the coronary artery originate from the ascending aorta, the ascending aorta and ostium should be detected to extract the coronary tree accurately. In this paper, we propose an automatic segmentation for the ostium as a starting structure of coronary artery in CTA. First, the region of the ascending aorta is initially detected by using Hough circle transform based on the relative position and size of the ascending aorta. Second, the volume of interest is defined to reduce the search range based on the initial area. Third, the refined ascending aorta is segmented by using a two-dimensional geodesic active contour. Finally, the two ostia are detected within the region of the refined ascending aorta. For the evaluation of our method, we measured the Euclidean distance between the result and the ground truths annotated manually by medical experts in 20 CTA images. The experimental results showed that the ostia were accurately detected.

Development of Content Based Breast Tumor Image Retrieval System Using Multi Features (다중특징을 이용한 유방종양영상 내용기반검색 시스템 개발)

  • Kim Min-Kyoung;Choi Heong-Kook
    • Annual Conference of KIPS
    • /
    • 2004.11a
    • /
    • pp.43-46
    • /
    • 2004
  • 현재 병리 의사에 의해 주관적으로 이루어지고 있는 병리 영상의 진단에 도움을 주기 위해 병리영상에서 객관적으로 추출 가능한 정보를 이용하여 유방종양 검색 시스템을 개발하였다. 다중 특징을 이용한 내용 기반 검색 방법을 사용하였으며, 영상에서 자동으로 추출 가능한 다양한 특징을 검색의 파라미터로 이용하였다. 진단에 도움을 주기 위해 전체 영상 뿐만 아니라 관심 있는 영역의 부분영상도 추출하여 검색이 가능하게 설계하였으며 시스템의 평가를 위해 단일 특징을 이용하여 영상을 검색 하였을 때와 다중 특징을 이용하여 영상을 검색 하였을 때의 검색율을 비교하였다. 향후 이 시스템은 병리영상의 진단에 있어 객관적이고 높은 재현성을 가지게 하는 보조도구로 사용될 수 있을 것이다.

  • PDF

Event Sentence Extraction for Information Extraction (정보 추출을 위한 이벤트 문장 추출)

  • Kim, Tae-Hyun;Lim, Soo-Jong;Yun, Bo-Hyun;Park, Sang-Gyu
    • Annual Conference on Human and Language Technology
    • /
    • 2002.10e
    • /
    • pp.325-331
    • /
    • 2002
  • 정보추출 시스템의 목적은 관심의 대상이 되는 특정 정보를 선택적으로 찾아내 제시하는데 있다. 따라서 도메인 정보에 의존적인 방법으로 정보추출이 이루어질 수밖에 없고, 이에 따른 도메인 정보 구축의 부담이 컸다. 이러한 부담을 줄이기 위해 본 연구에서는 특정 주제영역과 관련한 문서로부터 자동으로 이벤트 문장을 추출하는 시스템을 제안한다. 이벤트 문장이란, 특정도메인에서 다루어지는 이벤트의 구체적인 내용을 포함하고 있는 문장이다. 이러한 문장을 추출함으로써 기본적인 수준의 정보추출 요구를 만족시킬 수 있을 뿐만 아니라, 주출된 이벤트 문장을 도메인 정보 구축에 활용할 수 있을 것이다. 본 연구에서는 동사, 명사, 명사구, 및 3W 자질을 이용하여 문장추출의 성능을 최대화하기 위한 방안을 제안하고, 세 개의 평가 도메인을 대상으로 실험을 수행하였다. 실험 결과, when 및 where 자질과 동사, 명사. 명사구의 가중치를 이용하여 문장 가중치를 계산함으로써 최적의 이벤트 문장추출 성능을 얻을 수 있음을 알 수 있었다.

  • PDF

Fourier 변환을 이용한 미소 기하 특징 소거

  • 이용구;이건우
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 1996.04a
    • /
    • pp.666-669
    • /
    • 1996
  • 기계 부품 응력 해석 시 널리 쓰이는 유한 요소 해법은 형상을 작은 유한 요소로 근사화하는 과정이 필요하다. 유한 요소생성의자동화는 많은 기존 연구가 있었고 산업 현장에서도 실질적인 자동 유한 요소 생성의 혜택을 받고있다. 이러한 자동 유한 요소 생성 알고리즘들은 형상을 충실하게 유한 요소로 근사화 하는데 그목적이 있다. 때로는 이러한 충실성이 너무 많은 유한 요소들을 관심 영역이 아닌 곳에 생성하게 된다. 컴퓨터의 계산 능력이 눈부시게 발전하고 있지만 기술자가 다루고자 하는 기술적인 문제가 나날이 복잡해지고있는 상황에서 컴퓨터의 계산 능력에 너무 의존하는 것은 바람직하지 않다. 본 논문은 지능과 유사하게 미소 특징을 추출하고 이를 바탕으로 기하 형상 에서 미소 특징을 소거하는 알고리즘을 소개한다. 이를 활용하면 유한 요소의 수를 해석 결과에 악 영향을 미치지 않는 상태에서 줄일 수 있으며, 결과적으로 불필요한 계산비용을 절감할 수 있다.

  • PDF

Region Segmentation Algorithm of Object Using Self-Extraction of Reference Template (기준 템플릿의 자동 생성 기법을 이용한 물체 영역 분할 알고리즘)

  • Lee, Gyoon-Jung;Lee, Dong-Won;Joo, Jae-Heum;Bae, Jong-Gab;Nam, Ki-Gon
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.12 no.1
    • /
    • pp.7-12
    • /
    • 2011
  • In this paper, we propose the technique detecting interest object region effectively in the images from periscope of submarine based on self-generated template. First, we extract the sea-sky line, and divide it into sky and sea area from background region based on the sea-sky line. In each divided background region, the blocks which can be represented in each background region are set as a reference template. After dividing an image into several same size of blocks, we apply multi template matching to the divided search blocks and histogram template to divide the image into object region and background region. Proposed algorithm is adapted to various images in which objects exist in the background of sea and sky. We verified that proposed algorithm performed properly without given informmed prby prior learning.ropso, regardless of the slope of sea-sky line and the locmed p of object based on sea-sky line, we verified that the objects region was segmented effectively from the input image.

Depth Map Generation Based on Motion (움직임 기반의 실시간 자동 깊이맵 생성)

  • Lee, Kwan Wook;Gil, Jong In;Choi, Chang Yeol;Kim, Man Bae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.11a
    • /
    • pp.242-243
    • /
    • 2010
  • 최근 3D 콘텐츠의 관심 증가는 Display 장치, 모바일 기기 등의 하드웨어적인 발전을 가져왔고, 이에 따른 입체 콘텐츠의 필요성이 대두되고 있다. 또한 단순히 영상을 비 실시간으로 처리하여 입체로 변환하는 것 외에, 방송이나 모니터 자체에서의 입체변환에 대한 기술은 3D콘텐츠 산업에서 또 다른 이슈로 부각되고 있다. 본 논문에서는 깊이 필터와 움직임 예측을 이용한 깊이맵 생성 기법을 제안한다. 영상에서 Y 버퍼를 추출하고, 이에 깊이 필터를 적용시킨 후 블록단위 움직임 예측을 적용한다. 이렇게 구해진 움직임 벡터에 노이즈 제거 등을 통하여 물체의 영역을 추출한 후, 최종적으로 깊이맵을 생성한다.

  • PDF

Channel Logo Recognition based on Visual Information (영상 정보 기반의 채널 로고 인식 기법)

  • Jang, Won-Dong;Lee, Chulwoo;Kim, Chang-Su
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.1-2
    • /
    • 2013
  • 최근 다양한 모바일 디바이스의 개발 및 대중화로 인해, 사용자가 콘텐츠에 노출되는 시간이 급증하고 있다. 이와 함께, 사용자가 필요한 정보를 선택적으로 제공하기 위한 사용자 맞춤형 서비스의 개발도 많은 관심을 받고 있다. 이를 위해서는 콘텐츠가 내포하는 정보를 자동적으로 추출하여 인식하는 기술이 필수적이며, 채널 정보는 지능적 상황 인지를 위해 방송 영상이 가지는 중요한 정보 중 하나이다. 이에 본 논문은 영상 정보 기반의 채널 로고 인식 기법을 제안한다. 본 기법은 채널 로고가 포함된 동영상에서 색상 정보와 그라디언트를 추출하여 동영상 내의 각 좌표가 로고에 해당할 가능성을 의미하는 Logosity 개념을 정의한다. Logosity를 기반으로 채널 로고 후보 영역을 탐지하고, 각 로고 후보에 대해 채널 종류를 판단하는 분류를 수행한다. 실험을 통하여 제안하는 알고리즘이 다양한 채널의 영상에 대해 뛰어난 인식 및 분류 성능을 나타냄을 확인한다.

  • PDF

Automatic classification of man-made/ natural object image using multiple features (다중 특징을 이용한 인공/자연객체 영상의 자동 분류 방법)

  • 구경모;박창민;김민환
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.656-659
    • /
    • 2004
  • 최근 많은 연구에서, 동일한 영상그룹들로부터 추출된 저수준의 특징들을 이용해서 고수준의 정보를 분석한 뒤, 이를 이용해서 영상을 분류하는 방법들을 소개하고 있다. 이러한 연구는 CBIR의 인덱싱에서 저수준의 특징만을 사용할 때 발생하는 의미적인 차이(semantic gap)문제를 해결하여, 검색의 효율을 높일 수 있게 한다. 하지만 이들 연구는 대부분 전경(scenery)영상만을 대상으로 하고 있다. 한편 영상을 객체 단위로 다루는 것은 CBIR의 성능을 크게 향상 시킬 수 있는 요인이 된다. 왜냐하면 대부분의 사용자는 관심있는 객체가 포함된 영상을 검색하기 원하기 때문이다. 본 논문에서는 영상의 객체를 인공객체와 자연객체로 분류하는 방법을 제안한다. 인공객체의 경우 자연객체에 비해 상대적으로 직선형태의 에지가 많이 발견되며 객체를 구성하는 패턴이 규칙적이고 방향성을 가진다. 또한 인공객체는 자연객체에 비해 객체영역의 경계가 직선에 의한 단순한 형태로 나타난다. 이러한 특징들을 EDH(edge Direction Histogram)의 에너지, EDAS(Energy Difference of Adjacent Sector)와 가버 필터를 통해 추출하여 분류에 이용한다. 실험을 통하여 각 특징들을 개별적으로 사용해서 76%에서 84% 사이의 분류 정확성을 얻었으며, 제안한 머징 방법을 이용하여 최종적으로 약 90%의 정확성으로 분류하였다.

  • PDF

Object/Non-object Image Classification Based on the Detection of Objects of Interest (관심 객체 검출에 기반한 객체 및 비객체 영상 분류 기법)

  • Kim Sung-Young
    • Journal of the Korea Society of Computer and Information
    • /
    • v.11 no.2 s.40
    • /
    • pp.25-33
    • /
    • 2006
  • We propose a method that automatically classifies the images into the object and non-object images. An object image is the image with object(s). An object in an image is defined as a set of regions that lie around center of the image and have significant color distribution against the other surround (or background) regions. We define four measures based on the characteristics of an object to classify the images. The center significance is calculated from the difference in color distribution between the center area and its surrounding region. Second measure is the variance of significantly correlated colors in the image plane. Significantly correlated colors are first defined as the colors of two adjacent pixels that appear more frequently around center of an image rather than at the background of the image. Third one is edge strength at the boundary of candidate for the object. By the way, it is computationally expensive to extract third value because central objects are extracted. So, we define fourth measure which is similar with third measure in characteristic. Fourth one can be calculated more fast but show less accuracy than third one. To classify the images we combine each measure by training the neural network and SYM. We compare classification accuracies of these two classifiers.

  • PDF