• 제목/요약/키워드: Segmentation process

검색결과 632건 처리시간 0.026초

Semantic Segmentation 기반 딥러닝을 활용한 건축 Building Information Modeling 부재 분류성능 개선 방안 (A Proposal of Deep Learning Based Semantic Segmentation to Improve Performance of Building Information Models Classification)

  • 이고은;유영수;하대목;구본상;이관훈
    • 한국BIM학회 논문집
    • /
    • 제11권3호
    • /
    • pp.22-33
    • /
    • 2021
  • In order to maximize the use of BIM, all data related to individual elements in the model must be correctly assigned, and it is essential to check whether it corresponds to the IFC entity classification. However, as the BIM modeling process is performed by a large number of participants, it is difficult to achieve complete integrity. To solve this problem, studies on semantic integrity verification are being conducted to examine whether elements are correctly classified or IFC mapped in the BIM model by applying an artificial intelligence algorithm to the 2D image of each element. Existing studies had a limitation in that they could not correctly classify some elements even though the geometrical differences in the images were clear. This was found to be due to the fact that the geometrical characteristics were not properly reflected in the learning process because the range of the region to be learned in the image was not clearly defined. In this study, the CRF-RNN-based semantic segmentation was applied to increase the clarity of element region within each image, and then applied to the MVCNN algorithm to improve the classification performance. As a result of applying semantic segmentation in the MVCNN learning process to 889 data composed of a total of 8 BIM element types, the classification accuracy was found to be 0.92, which is improved by 0.06 compared to the conventional MVCNN.

유성음과 무성음의 경계를 이용한 연속 음성의 세그먼테이션 (Segmentation of continuous Korean Speech Based on Boundaries of Voiced and Unvoiced Sounds)

  • 유강주;신욱근
    • 한국정보처리학회논문지
    • /
    • 제7권7호
    • /
    • pp.2246-2253
    • /
    • 2000
  • In this paper, we show that one can enhance the performance of blind segmentation of phoneme boundaries by adopting the knowledge of Korean syllabic structure and the regions of voiced/unvoiced sounds. eh proposed method consists of three processes : the process to extract candidate phoneme boundaries, the process to detect boundaries of voiced/unvoiced sounds, and the process to select final phoneme boundaries. The candidate phoneme boudaries are extracted by clustering method based on similarity between two adjacent clusters. The employed similarity measure in this a process is the ratio of the probability density of adjacent clusters. To detect he boundaries of voiced/unvoiced sounds, we first compute the power density spectrum of speech signal in 0∼400 Hz frequency band. Then the points where this paper density spectrum variation is greater than the threshold are chosen as the boundaries of voiced/unvoiced sounds. The final phoneme boundaries consist of all the candidate phoneme boundaries in voiced region and limited number of candidate phoneme boundaries in unvoiced region. The experimental result showed about 40% decrease of insertion rate compared to the blind segmentation method we adopted.

  • PDF

단어 빈도와 음절 이웃 크기가 한국어 명사의 음성 분절에 미치는 영향 (The Effect of Word Frequency and Neighborhood Density on Spoken Word Segmentation in Korean)

  • 송진영;남기춘;구민모
    • 말소리와 음성과학
    • /
    • 제4권2호
    • /
    • pp.3-20
    • /
    • 2012
  • The purpose of this study was to investigate whether a segmentation unit for a Korean noun is a 'syllable' and whether the process of segmenting spoken words occurs at the lexical level. A syllable monitoring task was administered which required participants to detect an auditorily presented target from visually presented words. In Experiment 1, syllable neighborhood density of high frequency words which can be segmented into both CV-CVC and CVC-VC were controlled. The syllable effect and the neighborhood density effect were significant, and the syllable effect emerged differently depending on the syllable neighborhood density. Similar results were obtained in Experiment 2 where low frequency words were used. The significance of word frequency effect on syllable effect was also examined. The results of Experiments 1 and 2 indicated that the segmentation unit for a Korean noun is indeed a 'syllable', and this process can occur at the lexical level.

다층 퍼셉트론과 마코프 랜덤 필드 모델을 이용한 베이지안 결 분할 (Bayesian Texture Segmentation Using Multi-layer Perceptron and Markov Random Field Model)

  • 김태형;엄일규;김유신
    • 대한전자공학회논문지SP
    • /
    • 제44권1호
    • /
    • pp.40-48
    • /
    • 2007
  • 이 논문은 다중 스케일 베이지안 관점에서 다층 퍼셉트론과 마코프 랜덤 필드를 사용한 새로운 결 분할 방법을 제안한다. 다층 퍼셉트론의 출력은 사후 확률을 모델링하므로 본 논문에서는 다중 스케일 웨이블릿 계수들을 다층 퍼셉트론의 입력으로 사용한다. 다층 퍼셉트론으로부터 구한 사후 확률과 MAP (maximum a posterior) 분류를 이용하여 각 스케일에서 결 분류를 수행한다. 또한 가장 섬세한 스케일에서 더 개선된 분할 결과를 얻기 위하여 모든 스케일에서 MAP 분류 결과들을 거친 스케일에서 섬세한 스케일까지 차례로 융합한다. 이런 과정은 한 스케일에서의 분류 정보와 그 인접한 보다 거친 스케일에서 얻어지는 문맥과 관련한 연역적 정보를 이용하여 MAP 분류를 행함으로써 이루어진다. 이 융합 과정에서, MRF (Markov random fields) 사전 모델이 평탄화 제한자로서 동작하고, 깁스 샘플러 (Gibbs sampler)는 MAP 분류기로서 동작한다. 제안한 분할 방법은 HMT (Hidden Markov Trees) 모델과 HMTseg 알고리즘을 이용한 결 분할 방법보다 더 좋은 성능을 보인다.

형태 정합을 이용한 포아송 동영상 합성 (Poisson Video Composition Using Shape Matching)

  • 허경용;최훈;김지홍
    • 한국정보통신학회논문지
    • /
    • 제22권4호
    • /
    • pp.617-623
    • /
    • 2018
  • 본 논문에서는 형태 정합 및 포아송 방정식을 기반으로 객체와 배경과의 이음매가 없는 효율적인 동영상 합성 기법을 제안한다. 동영상 합성 기법은 영상 분할 과정과 영상 조합 과정으로 구성된다. 영상 분할 과정에서는 먼저 첫번째 프레임에 대해 사용자가 3 영역 지도를 설정한 후, 그랩 컷(grab cut) 알고리즘을 수행한다. 그리고 객체와 배경의 색상, 밝기, 텍스쳐 등이 유사할 경우 영상 분할의 성능이 감소될 수 있음을 감안하여, 현재 프레임과 이전 프레임 객체들 간의 형태 정합을 통해 현재 프레임에서 영상 분할된 객체를 보정한다. 영상 조합 과정에서는 포아송 방정식을 이용하여 객체와 목표 동영상의 배경이 서로 이음매 없이 조합되도록 하며, 또한 사용자가 설정한 움직임 경로에 따라 객체를 배치한다. 모의실험을 통해 제안된 방법이 합성된 동영상의 자연성 뿐만 아니라 수행 시간 면에서 우수함을 알 수 있었다.

Automatic Object Segmentation and Background Composition for Interactive Video Communications over Mobile Phones

  • Kim, Daehee;Oh, Jahwan;Jeon, Jieun;Lee, Junghyun
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제1권3호
    • /
    • pp.125-132
    • /
    • 2012
  • This paper proposes an automatic object segmentation and background composition method for video communication over consumer mobile phones. The object regions were extracted based on the motion and color variance of the first two frames. To combine the motion and variance information, the Euclidean distance between the motion boundary pixel and the neighboring color variance edge pixels was calculated, and the nearest edge pixel was labeled to the object boundary. The labeling results were refined using the morphology for a more accurate and natural-looking boundary. The grow-cut segmentation algorithm begins in the expanded label map, where the inner and outer boundary belongs to the foreground and background, respectively. The segmented object region and a new background image stored a priori in the mobile phone was then composed. In the background composition process, the background motion was measured using the optical-flow, and the final result was synthesized by accurately locating the object region according to the motion information. This study can be considered an extended, improved version of the existing background composition algorithm by considering motion information in a video. The proposed segmentation algorithm reduces the computational complexity significantly by choosing the minimum resolution at each segmentation step. The experimental results showed that the proposed algorithm can generate a fast, accurate and natural-looking background composition.

  • PDF

영상 분할 방법의 평가 (Evaluation of Image Segmentation Techniques)

  • 이성기;김효선
    • 한국정보처리학회논문지
    • /
    • 제2권4호
    • /
    • pp.524-534
    • /
    • 1995
  • 영상분할은 주어진 영상을 비슷한 성질을 지니는 영역들로 나누는 과정으로 컴퓨 터 비젼 분야에서 매우 오래 되었으면서도 어려운 문제이다. 지금 까지 많은 영상 분 할 방법들이 개발되었으며, 이러한 영상 분할 방법들을 평가하려는 연구가 계속되고 있으나 영상 분할의 특성상 많은 어려움이 있다. 본 연구에서는 영상 분할 방법을 자 동으로 평가하기 위하여 일반적으로 적용 가능한 평가 기준을 제시한다. 하나의 평가 기준이 가지는 약점을 보완하기 위하여 네 개의 평가기준, 즉 영역 경계선에 존재하 는 화소들의 차이 정도, 영역 경계선과 에지와의 일치 정도, 영역들 간의 유사 정도 및 영역들 간의 차이 정도를 통합한 평가 기준을 제시한다. 실험 결과를 통하여 제안 한 영상 분할 평가 방법이 매우 타당함을 알 수 있었다.

  • PDF

Eigenvoice 기반 화자가중치 거리측정 방식을 이용한 화자 분할 시스템 (Speaker Segmentation System Using Eigenvoice-based Speaker Weight Distance Method)

  • 최무열;김형순
    • 한국음향학회지
    • /
    • 제31권4호
    • /
    • pp.266-272
    • /
    • 2012
  • 화자 분할 기술은 오디오 데이터로부터 자동적으로 화자 경계 구간을 검출하는 것이다. 화자 분할 방식은 화자에 대한 선행 지식 사용 여부에 따라 거리기반 방식과 모델기반 방식으로 나누어진다. 본 논문에서는 eigenvoice 기반의 화자가중치 거리를 이용한 화자 분할 방식을 도입하고, 이 방식을 대표적인 거리 기반 방식들과 비교한다. 또한, 화자가중치의 거리 측정 함수로 유클리드 거리와 cosine 유사도를 사용하여 화자 분할 성능을 비교하고, eigenvoice 방식에 의해 화자 적응된 모델들 사이의 직접적인 거리를 이용한 화자 분할 방식과의 비교를 통해 화자가중치 거리를 이용한 방식이 계산량면에서 효율적인 점을 검증한다.

음성 신호의 음소 단위 구분화에 관한 연구 (A Study on the Segmentation of Speech Signal into Phonemic Units)

  • 이의천;이강성;김순협
    • 한국음향학회지
    • /
    • 제10권4호
    • /
    • pp.5-11
    • /
    • 1991
  • 본 연구에서는 음성신호의 음소 단위 구분화 방법을 제안한다. 제안된 구분화 시스템은 화자 독립적이고, 음성신호에 대한 사전 정보 없이도 음소 단위로 구분화를 수행할 수 있는 특징을 갖는다. 구분화 처리는 입력 음성신호를 먼저 순수 유성을 구간과 순수 유성음이 아닌 구간으로 분리 시킨 후, 각각의 구간에 대해 세분화된 음소 단위로 분리시키는 2단계 구분화 알고리즘을 적용하였고, 이때 사용된 파라미터는 유성을 검출 파라미터, 영차 LPC 캡스트럼 계수의 시간변호 파라미터, ZCR 파라미터이다. 본 연구에서 제안한 구분화 알고리즘의 유용성을 입증하기 위해 사용한 대상어는 고립단어와 연속음성으로 구성된 어휘로서 전체 어휘중에 포함된 507개 음소에 대한 구분화율은 91.7% 이다.

  • PDF

웨이브렛 변환을 적용한 얼굴영상분할 (Facial Image Segmentation using Wavelet Transform)

  • 김장원;박현숙;김창석
    • 대한전자공학회논문지TE
    • /
    • 제37권3호
    • /
    • pp.45-52
    • /
    • 2000
  • 본 연구에서는 인체 상반신영상에서 얼굴부위를 분할하기 위한 영상분할 알고리즘을 제안하였다. 제안한 알고리즘은 HWT를 적용하여 영상의 경계를 이루는 차분영상인 고주파대역과 평균영상인 저주파대역으로 분리하고, 저주파대역에서 고립점과 돌출부위, 경계중복점을 제거하였다. 또한 제안한 경계검출 알고리즘으로 경계를 검출하고 단순화시켰으며, 1픽셀 단위의 세선화과정을 통하여 경계를 선명하게 하였다. 그리고 제안 한 폐곡선추적 알고리즘으로 얼굴부위 경계만을 추출한 뒤, 마스크를 구성하고 원영상과의 정합을 통하여 얼굴부위분할을 하였다. 제안한 알고리즘을 적용하여 얼굴부위 분할실험을 실행한 결과 95.88%의 분할값을 갖는 얼굴분할이 이루어졌다.

  • PDF