• 제목/요약/키워드: Grab-Cut

검색결과 22건 처리시간 0.02초

k-means 클러스터링을 이용한 강판의 부식 이미지 모니터링 (Corrosion Image Monitoring of steel plate by using k-means clustering)

  • 김범수;권재성;최성웅;노정필;이경황;양정현
    • 한국표면공학회지
    • /
    • 제54권5호
    • /
    • pp.278-284
    • /
    • 2021
  • Corrosion of steel plate is common phenomenon which results in the gradual destruction caused by a wide variety of environments. Corrosion monitoring is the tracking of the degradation progress for a long period of time. Corrosion on steel plate appears as a discoloration and any irregularities on the surface. In this study, we developed a quantitative evaluation method of the rust formed on steel plate by using k-means clustering from the corroded area in a given image. The k-means clustering for automated corrosion detection was based on the GrabCut segmentation and Gaussian mixture model(GMM). Image color of the corroded surface at cut-edge area was analyzed quantitatively based on HSV(Hue, Saturation, Value) color space.

비디오 객체 정의에 의한 동적 증강 정보 저작 (Authoring of Dynamic Information in Augmented Reality Using Video Object Definition)

  • 남양희;이서진
    • 한국콘텐츠학회논문지
    • /
    • 제13권6호
    • /
    • pp.1-8
    • /
    • 2013
  • 증강현실에서 움직이는 가상 모델을 증강물로 활용하려면 대개 별도의 모델링이나 애니메이션 도구 사용이 필요하며 이는 매우 전문적이고 복잡한 작업이다. 본 논문에서는 그러한 과정 없이 동적 가상 객체를 증강 환경에 삽입할 수 있는 방법으로 비디오 객체 기반 저작 방법을 제시한다. 그랩컷과 그로컷을 통합 적용하여 대상물의 초기 영역을 분리한 후, 스냅컷을 이용해 프레임간 경계선 변화를 자동 추적하여 동작이 담긴 연속 프레임을 실사 비디오에 증강하는 방식이다. 실험결과로, 몇 단계의 메뉴 선택과 경계선 오류 정정 스케치만으로 특정 비디오 객체 컷아웃 및 증강 객체 저작이 가능함을 보였다.

Advanced Bounding Box Prediction With Multiple Probability Map

  • Lee, Poo-Reum;Kim, Yoon
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권12호
    • /
    • pp.63-68
    • /
    • 2017
  • In this paper, we propose a bounding box prediction algorithm using multiple probability maps to improve object detection result of object detector. Although the performance of object detectors has been significantly improved, it is still not perfect due to technical problems and lack of learning data. Therefore, we use the result correction method to obtain more accurate object detection results. In the proposed algorithm, the preprocessed bounding box created as a result of object detection by the object detector is clustered in various form, and a conditional probability is given to each cluster to make multiple probability map. Finally, multiple probability map create new bounding box of object using morphological elements. Experiment results show that the newly predicted bounding box reduces the error in ground truth more than 45% on average compared to the previous bounding box.

형태 정합을 이용한 포아송 동영상 합성 (Poisson Video Composition Using Shape Matching)

  • 허경용;최훈;김지홍
    • 한국정보통신학회논문지
    • /
    • 제22권4호
    • /
    • pp.617-623
    • /
    • 2018
  • 본 논문에서는 형태 정합 및 포아송 방정식을 기반으로 객체와 배경과의 이음매가 없는 효율적인 동영상 합성 기법을 제안한다. 동영상 합성 기법은 영상 분할 과정과 영상 조합 과정으로 구성된다. 영상 분할 과정에서는 먼저 첫번째 프레임에 대해 사용자가 3 영역 지도를 설정한 후, 그랩 컷(grab cut) 알고리즘을 수행한다. 그리고 객체와 배경의 색상, 밝기, 텍스쳐 등이 유사할 경우 영상 분할의 성능이 감소될 수 있음을 감안하여, 현재 프레임과 이전 프레임 객체들 간의 형태 정합을 통해 현재 프레임에서 영상 분할된 객체를 보정한다. 영상 조합 과정에서는 포아송 방정식을 이용하여 객체와 목표 동영상의 배경이 서로 이음매 없이 조합되도록 하며, 또한 사용자가 설정한 움직임 경로에 따라 객체를 배치한다. 모의실험을 통해 제안된 방법이 합성된 동영상의 자연성 뿐만 아니라 수행 시간 면에서 우수함을 알 수 있었다.

영상 처리와 CNN을 이용한 애완동물 영상 세부 분류 비교 (Comparison of Fine Grained Classification of Pet Images Using Image Processing and CNN)

  • 김지혜;고정환;권철희
    • 방송공학회논문지
    • /
    • 제26권2호
    • /
    • pp.175-183
    • /
    • 2021
  • 영상의 세부 분류에 대한 연구는 계속적으로 발전하고 있지만, 다형성의 성질을 갖는 동물에 대한 객체인식 연구는 더디게 진행되고 있다. 본 논문은 개와 고양이에 해당하는 애완동물 이미지만을 이용하여, 세부 분류인 동물의 종을 분류하는 방법 중 영상처리를 이용한 방법과 딥러닝을 이용한 방법을 비교하는 것을 목표로 한다. 본 논문에서 영상처리를 이용한 방법으로 객체 분리를 위해 Grab-cut 알고리즘을 사용하고, 영상 인코딩을 위해 Fisher Vector를 사용한 방법을 제안한다. 다른 방법으로는 기계학습으로 여러 분야에서 좋은 성과를 얻고 있는 딥러닝을 이용하였으며, 그 중에서도 이미지 인식 분야에서 뛰어난 성능을 보인 Convolutional Neural Network(CNN)과 구글에서 제공하는 오픈소스 기반 딥러닝 프레임워크인 Tensorflow를 활용하였다. 제안하는 각각의 방법에 대해 37종의 애완동물 이미지, 총 7,390장에 대해 실험하여 그 효과를 검증 및 비교하였다.

Inversion of Spread-Direction and Alternate Neighborhood System for Cellular Automata-Based Image Segmentation Framework

  • Lee, Kyungjae;Lee, Junhyeop;Hwang, Sangwon;Lee, Sangyoun
    • Journal of International Society for Simulation Surgery
    • /
    • 제4권1호
    • /
    • pp.21-23
    • /
    • 2017
  • Purpose In this paper, we proposed alternate neighborhood system and reverse spread-direction approach for accurate and fast cellular automata-based image segmentation method. Materials and Methods On the basis of a simple but effective interactive image segmentation technique based on a cellular automaton, we propose an efficient algorithm by using Moore and designed neighborhood system alternately and reversing the direction of the reference pixels for spreading out to the surrounding pixels. Results In our experiments, the GrabCut database were used for evaluation. According to our experimental results, the proposed method allows cellular automata-based image segmentation method to faster while maintaining the segmentation quality. Conclusion Our results proved that proposed method improved accuracy and reduced computation time, and also could be applied to a large range of applications.

인스타그램 기반 이미지와 텍스트를 활용한 사용자 감정정보 측정 (A User Emotion Information Measurement Using Image and Text on Instagram-Based)

  • 남민지;김정인;신주현
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1125-1133
    • /
    • 2014
  • Recently, there are many researches have been studying for analyzing user interests and emotions based on users profiles and diverse information from Social Network Services (SNSs) due to their popularities. However, most of traditional researches are focusing on their researches based on single resource such as text, image, hash tag, and more, in order to obtain what user emotions are. Hence, this paper propose a method for obtaining user emotional information by analyzing texts and images both from Instagram which is one of the well-known image based SNSs. In order to extract emotional information from given images, we firstly apply GRAB-CUT algorithm to retrieve objects from given images. These retrieved objects will be regenerated by their representative colors, and compared with emotional vocabulary table for extracting which vocabularies are the most appropriate for the given images. Afterward, we will extract emotional vocabularies from text information in the comments for the given images, based on frequencies of adjective words. Finally, we will measure WUP similarities between adjective words and emotional words which extracted from the previous step. We believe that it is possible to obtain more precise user emotional information if we analyzed images and texts both time.

Color Analysis for the Quantitative Aesthetics of Qiong Kiln Ceramics

  • Wang, Fei;Cha, Hang;Leng, Lu
    • Journal of Multimedia Information System
    • /
    • 제7권2호
    • /
    • pp.97-106
    • /
    • 2020
  • The subjective experience would degrade the current artificial artistic aesthetic analysis. Since Qiong kiln ceramics have a long history and occupy a very important position in ceramic arts, we employed computer-aided technologies to quickly automatically accurately and quantitatively process a large number of Qiong kiln ceramic images and generate the detailed statistical data. Because the color features are simple and significant visual characteristics, the color features of Qiong kiln ceramics are analyzed for the quantitative aesthetics. The Qiong kiln ceramic images are segmented with GrabCut algorithm. Three moments (1st-order, 2nd-order, and 3rd-order) are calculated in two typical color spaces, namely RGB and HSV. The discrimination powers of the color features are analyzed according to various dynasties (Tang Dynasty, Five Dynasties, Song Dynasty) and various utensils (Pot, kettle, bowl), which are helpful to the selection of the discriminant color features among various dynasties and utensils. This paper is helpful to promoting the quantitative aesthetic research of Qiong kiln ceramics and is also conducive to the research on the aesthetics of other ceramics.

삼킴장애 분석을 위한 멀티프레임 의료영상 라벨링 웹 애플리케이션 구현 (Implementation of Multi-frame Medical Image Labeling Web Application for Swallowing Disorder Analysis)

  • 임동욱;이충섭;노시형;박철;김민수;문희경;정창원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.8-10
    • /
    • 2023
  • 삼킴장애는 음식물이 입에서 식도로 가지않고 걸리거나 기도(Trachea)로 흡입되는 문제를 갖는 상태이다. 특히 노인이나 신경계 질환을 앓는 환자의 경우 기도로 흡입된 음식덩이가 폐렴을 일으키고 결국에는 사망으로 이어지기에 적절한 치료와 관리가 요구된다. 보통 영상으로 판단할 수 있는 삼킴단계는 구강준비단계(Oral Preparatory Phase), 구강단계(Oral Phase), 인두단계(Pharyngeal Phase), 식도단계(Esophageal Phase) 4가지로 분류하고 삼킴장애는 침습(Penetration)과 흡인(Aspiration)으로 크게 2가지로 분류한다. 본 논문에서는 이러한 6가지 클래스를 가지는 삼킴장애 환자 비디오 파일을 라벨링하기 위한 웹 애플리케이션을 제안한다. 이를 구현하기 위해서 대용량 멀티프레임 이미지를 수신해서 분리하여 저장하도록 개발하였다. 또한 음식덩이를 정교하게 분할할 수 있도록 GrabCut 알고리즘을 적용하여 라벨링할 수 있도록 하였다. 차후 라벨러와 전문의 간의 협업이 가능하도록 라벨링 데이터의 상태를 관리할 수 있도록 개발하고자 한다.

방향성 특징 기술자를 이용한 식물 잎 인식 (Plant leaf Classification Using Orientation Feature Descriptions)

  • 강수명;윤상민;이준재
    • 한국멀티미디어학회논문지
    • /
    • 제17권3호
    • /
    • pp.300-311
    • /
    • 2014
  • 환경의 변화에 따라 급속도로 변화하는 생태계에 대한 체계적인 연구를 위해 식물의 정보를 수집 분석하기 위한 연구가 활발하게 진행되고 있다. 특히, 스마트 기기의 카메라를 이용하여 언제 어디서나 사용자가 원하는 식물의 종류를 검색할 수 있는 기술에 대한 관심이 증가하고 있다. 본 논문은 식물 인식 및 생태계 분석을 위해 다양한 식물의 잎을 종류별로 분석할 수 있는 방법에 대해 제안한다. 이를 위해, 카메라부터 입력된 식물 잎 사진의 관심 영역을 GrabCut을 통해 배경과 분리한 후, 형태 기술자 추출 방법인 SIFT(Scale-Invariant Feature Transform), HOG(Histogram of Oriented Gradient)를 이용하여 형태 기술자를 추출하고, 이것을 부호화 기법 및 공간 피라미드 방법을 이용한 분류 특징 벡터를 만든다. SVM(Support Vector Machine)을 통한 식물 잎 분류 및 인식한다. 다양한 식물 잎에 대한 실험 결과를 통해 비슷한 색상이나 형태를 가지고 있더라도 방향성 특징 기술자를 활용한 식물 잎 분류 방법이 매우 효율적임을 알 수 있다.