• 제목/요약/키워드: Image Extraction and Segmentation

검색결과 363건 처리시간 0.027초

모델 정보를 이용한 2단계 윤곽선 추출 기법 (Two-step Boundary Extraction Algorithm with Model)

  • 최해철;이진성;조주현;신호철;김승대
    • 대한전자공학회논문지SP
    • /
    • 제39권1호
    • /
    • pp.49-60
    • /
    • 2002
  • 본 논문에서는 물체의 모양에 대한 개략적인 정보가 주어질 때, 그 물체의 윤곽선을 획득하는 알고리즘을 제안한다. 이 기법은 주어진 모델을 확률적으로 이용하여, 결과 윤곽선의 모양이 모델의 모양과 비슷하도록 유도하며, 윤곽선 분할 과정에서 밝기의 변화량 뿐만 아니라 밝기 변화의 방향까지 고려하여 저화질 영상에도 적용될 수 있도록 하였다. 제안한 알고리즘은 다음 두 단계의 영역 분할 기법으로 구성된다. 첫 번째 근사적 영역 분할 단계에서는 밝기 변화의 방향을 고려하여 에지와, 모델들을 근거로 확률적 모델링에 의해 산출된 윤곽선이 될 확률을 이용하여 물체의 근사적인 윤곽선을 획득한다. 두 번째 세부적 영역 분할 과정에서는 제안한 씨앗점 추출 및 에지 연결(seed-point extraction and edge linking) 알고리즘을 이용하여, 근사적 윤곽선을 중심으로 윤곽 후보점을 검출하고 이들을 물체의 윤곽선을 따르도록 적절히 연결하여 최종적으로 세밀한 물체 윤곽선을 획득한다. 실험 결과에서는 제안한 기법이 영상의 배경 혹은 물체 내부의 복잡함과 잡음에 강인하며, 적외선 영상과 같은 저화질의 영상에도 적용될 수 있음을 보인다.

고속 Genome-Wide RNA 간섭 스크리닝을 위한 세포영상의 자동 분할 (Automatic Segmentation of Cellular Images for High-Throughput Genome-Wide RNA Interference Screening)

  • 한찬희;송인환;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제10권4호
    • /
    • pp.19-27
    • /
    • 2010
  • 최근에 고속 genome-wide RNA 간섭 스크리닝 기술은 복잡한 세포 기능을 이해하는 생명공학 연구의 핵심적인 도구로 자리 잡고 있다. 그러나 관련 연구에서 발생되는 수많은 영상을 수작업을 통해 분석하는 것은 많은 시간과 노력이 요구된다. 따라서 세포영상의 자동분석 기술은 매우 시급히 확보되어야 하는 기술이며, 그 중 영상 분할은 자동분석을 위한 첫 단계로서 가장 중요한 과정이라 할 수 있다. 세포영상의 자동분할에서는 영역의 겹침 현상과 영역별 모양의 다양성 및 영상 특성의 불균일성 등이 정확한 세포 분할을 어렵게 만드는 주원인으로 작용한다. 본 논문에서는 이러한 문제점을 극복하기 위해 영상 특징들의 국부적인 연속성과 특징 벡터 기반의 워터쉐드 알고리즘을 적용한 새로운 자동 세포 분할 알고리즘을 제안한다. 영상 특징들의 연속성을 국부적인 영역으로 제한함으로써 영역별 모양의 다양성 및 영상 특성의 불균일성에 따른 문제점을 극복할 수 있으며, 특징벡터의 사용을 통해 하나의 영상특징만을 고려한 경우 발생되는 겹침 영역에서의 분할 성능 저하를 개선할 수 있다. 세포영상 분석을 위한 소프트웨어 패키지인 Cellprofiler와의 비교/분석 실험을 통해 제안 알고리즘의 효율성을 입증하였다.

Arabic Words Extraction and Character Recognition from Picturesque Image Macros with Enhanced VGG-16 based Model Functionality Using Neural Networks

  • Ayed Ahmad Hamdan Al-Radaideh;Mohd Shafry bin Mohd Rahim;Wad Ghaban;Majdi Bsoul;Shahid Kamal;Naveed Abbas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권7호
    • /
    • pp.1807-1822
    • /
    • 2023
  • Innovation and rapid increased functionality in user friendly smartphones has encouraged shutterbugs to have picturesque image macros while in work environment or during travel. Formal signboards are placed with marketing objectives and are enriched with text for attracting people. Extracting and recognition of the text from natural images is an emerging research issue and needs consideration. When compared to conventional optical character recognition (OCR), the complex background, implicit noise, lighting, and orientation of these scenic text photos make this problem more difficult. Arabic language text scene extraction and recognition adds a number of complications and difficulties. The method described in this paper uses a two-phase methodology to extract Arabic text and word boundaries awareness from scenic images with varying text orientations. The first stage uses a convolution autoencoder, and the second uses Arabic Character Segmentation (ACS), which is followed by traditional two-layer neural networks for recognition. This study presents the way that how can an Arabic training and synthetic dataset be created for exemplify the superimposed text in different scene images. For this purpose a dataset of size 10K of cropped images has been created in the detection phase wherein Arabic text was found and 127k Arabic character dataset for the recognition phase. The phase-1 labels were generated from an Arabic corpus of quotes and sentences, which consists of 15kquotes and sentences. This study ensures that Arabic Word Awareness Region Detection (AWARD) approach with high flexibility in identifying complex Arabic text scene images, such as texts that are arbitrarily oriented, curved, or deformed, is used to detect these texts. Our research after experimentations shows that the system has a 91.8% word segmentation accuracy and a 94.2% character recognition accuracy. We believe in the future that the researchers will excel in the field of image processing while treating text images to improve or reduce noise by processing scene images in any language by enhancing the functionality of VGG-16 based model using Neural Networks.

지폐검사를 위한 UV 패턴의 자동추출 (Automatic Extraction of UV patterns for Paper Money Inspection)

  • 이건호;박태형
    • 한국지능시스템학회논문지
    • /
    • 제21권3호
    • /
    • pp.365-371
    • /
    • 2011
  • 최근에 발행되는 대부분의 지폐는 UV(ultra violet)조명에 반응하는 UV패턴을 포함한다. 본 논문은 지폐검사를 위하여 지폐 내부에 존재하는 UV패턴을 자동으로 추출하는 방법을 제안한다. UV조명을 이용하여 촬영한 영상을 전 처리 과정을 통하여 입력데이터로 변환시킨 후, 가우시안 혼합 모형과 split-and merge EM(SMEM)알고리즘을 적용하여 영상을 몇 개의 영역으로 분리시킨다. 영역 분리된 영상 중 원하는 패턴을 추출하기 위하여, 공분산 벡터의 넓이와 가중치를 이용하는 방법을 새로이 제안한다. 다양한 지폐에 대한 실험을 통하여 제안방법의 유용성을 보인다.

교육용 도서 영상을 위한 효과적인 객체 자동 분류 기술 (Efficient Object Classification Scheme for Scanned Educational Book Image)

  • 최영주;김지해;이영운;이종혁;홍광수;김병규
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권7호
    • /
    • pp.1323-1331
    • /
    • 2017
  • 오늘날 저작권 관련 산업이 사회, 경제적으로 큰 영향을 미치는 대규모 산업으로 성장하였음에도 불구하고 저작물에 대한 소유권 및 저작권에 대한 문제가 끊임없이 발생하고 있으며 특히 이미지 저작권과 관련된 연구는 거의 진행되지 않는 상태이다. 본 연구에서는 기존의 문서 영상처리 기술과 딥 러닝 기술을 융합하여 교육용 도서 영상에서의 객체 자동 추출 및 분류 기술 시스템을 제안한다. 제안된 기술은 먼저 잡음을 제거한 후, 시각적 주의(visual attention) 기반 영역 추출 과정을 수행한다. 추출된 영역을 기반으로 블록화 작업을 수행하고, 각 블록을 그림인지 아니면 문자 영역인지를 분류한다. 마지막으로 추출된 그림 영역 주위를 검색하여 캡션 영역을 추출한다. 본 연구에서 진행한 성능 평가 결과, 그림 영역은 최대 97% 정확도를 보이며, 그림 및 캡션 영역 추출에 있어서는 평균 83%의 정확도를 보여 준다.

광학 영상과 Lidar의 정보 융합에 의한 신뢰성 있는 구조물 검출 (Information Fusion of Photogrammetric Imagery and Lidar for Reliable Building Extraction)

  • 이동혁;이경무;이상욱
    • 방송공학회논문지
    • /
    • 제13권2호
    • /
    • pp.236-244
    • /
    • 2008
  • 본 논문에서는 칼라 세그멘테이션, 에지 정합, 지각적 그룹핑 등을 사용하여 Lidar 데이터와 광학 영상의 정보 융합에 의한 새로운 구조물 검출 및 복원 알고리듬을 제안한다. 제안하는 알고리듬은 두 가지 단계로 구성된다. 첫 번째로, 항공 Lidar 데이터로부터 초기 구조물 추출 결과와 영상의 칼라 세그멘테이션 결과를 사용하여 coarse building boundary를 추출한다. 두 번째로, coarse building boundary와 에지 정합 및 지각적 그룹핑에 의해 보다 정밀한 구조물 추출 결과인 precise building boundary를 추출한다. 본 논문에서 제안하는 알고리듬은 보다 신뢰성 있는 구조물 검출을 위해, 광학 영상으로부터 칼라 정보를 사용한다. 이를 통해, Lidar에 의해 획득된 붕괴된 형태의 구조물 외곽선을 보완한다. 또한, 인공지물의 특징으로서, 에지의 직선성 및 다면체 형태의 지붕모양을 반영함으로써 신뢰성 있는 구조물을 검출한다. 다중 센서 데이터에 대한 실험은 제안하는 알고리듬이 Lidar 단일 센서 결과에 비해 정밀하고 신뢰성 있는 결과를 보여준다.

압축영역에서의 대표프레임 추출 및 영역분할기반 비디오 검색 기법 (Key Frame Extraction and Region Segmentation-based Video Retrieval in Compressed Domain)

  • 강응관;김성주;송호근;최종수
    • 한국통신학회논문지
    • /
    • 제24권9B호
    • /
    • pp.1713-1720
    • /
    • 1999
  • 본 논문에서는 동영상 압축 부호화에 대한 표준안인 MPEG 기반의 압축 비디오 시퀀스로부터 DCT DC 계수를 추출하고, 이들로 구성된 DC 이미지로부터 AHIM (Accumulative Histogram Intersection Measure)을 이용하여 장면 전환 검출을 수행한 후 대표 프레임을 추출하는 방법을 제시한다. 또한, 추출된 대표 프레임을 두 단계를 거쳐 데이터베이스의 색인 정보로 저장한 후, 입력되는 질의 영상에 대해 사용자가 원하는 검색 결과를 제시하는 방법에 대해 제안한다. 즉 전처리 과정으로 추출된 대표 프레임에 대해 영역 분할을 한 후, 첫 번째 단계에서 수평 투영된 결과를 히스토그램 분포 특성으로 변환시켜 데이터베이스의 색인 정보로 저장한다. 두 번째 단계에서는 영상의 모멘트 특성을 거리함수 값으로 변환시킨다. 실험 결과 제안된 방법이 검색에 있어 우수한 성능을 갖추고 또한 상당한 양의 처리 시간과 메모리 공간을 줄일 수 있음을 확인하였다. 향후 제안한 방법은 색상과 같은 다른 색인 정보와 결합할 경우, 보다 나은 영상 색인과 검색 수단을 제공할 것이다.

  • PDF

쿼드트리로 구성된 한글 문서 영상에서의 문자추출에 관한 연구 (EXTRACTION OF CHARACTERS FROM THE QUADTREE ENCODE DOCUMENT IMAGE OF HANGUL)

  • 백은경;조동섭
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1991년도 추계학술대회 논문집 학회본부
    • /
    • pp.201-204
    • /
    • 1991
  • In this paper the method of representing the document image by the quadtree data structure, and extracting each character seperately from the constructed quadtree are described. The document image is represented by a binary encoded quadtree and the segmentation is performed according to the information of each leaf node of the quadtree. Then, each character is extracted by the relation of positions of segments. This method enables to extract characters without examining every pixel in the image and the required storage of document image is decreased.

  • PDF

Nonlinear Diffusion and Structure Tensor Based Segmentation of Valid Measurement Region from Interference Fringe Patterns on Gear Systems

  • Wang, Xian;Fang, Suping;Zhu, Xindong;Ji, Jing;Yang, Pengcheng;Komori, Masaharu;Kubo, Aizoh
    • Current Optics and Photonics
    • /
    • 제1권6호
    • /
    • pp.587-597
    • /
    • 2017
  • The extraction of the valid measurement region from the interference fringe pattern is a significant step when measuring gear tooth flank form deviation with grazing incidence interferometry, which will affect the measurement accuracy. In order to overcome the drawback of the conventionally used method in which the object image pattern must be captured, an improved segmentation approach is proposed in this paper. The interference fringe patterns feature, which is smoothed by the nonlinear diffusion, would be extracted by the structure tensor first. And then they are incorporated into the vector-valued Chan-Vese model to extract the valid measurement region. This method is verified in a variety of interference fringe patterns, and the segmentation results show its feasibility and accuracy.

Preceding Layer Driven 다층 퍼셉트론을 이용한 한글문자 인식 (The Recognition of Korean Character Using Preceding Layer Driven MLP)

  • 백승엽;김동훈;정호선
    • 전자공학회논문지B
    • /
    • 제28B권5호
    • /
    • pp.382-393
    • /
    • 1991
  • In this paper, we propose a method for recognizing printed Korean characters using the Preceding Layer Driven multi-layer perceptron. The new learning algorithm which assigns the weight values to an integer and makes use of the transfer function as the step function was presented to design the hardware. We obtained 522 Korean character-image as an experimental object through scanner with 600DPI resolution. The preprocessing for feature extraction of Korean character is the separation of individual character, noise elimination smoothing, thinnig, edge point extraction, branch point extraction, and stroke segmentation. The used feature data are the number of edge points and their shapes, the number of branch points, and the number of strokes with 8 directions.

  • PDF