• 제목/요약/키워드: Segmentation model

검색결과 1,031건 처리시간 0.029초

Stable Model for Active Contour based Region Tracking using Level Set PDE

  • Lee, Suk-Ho
    • Journal of information and communication convergence engineering
    • /
    • 제9권6호
    • /
    • pp.666-670
    • /
    • 2011
  • In this paper, we propose a stable active contour based tracking method which utilizes the bimodal segmentation technique to obtain a background color diminished image frame. The proposed method overcomes the drawback of the Mansouri model which is liable to fall into a local minimum state when colors appear in the background that are similar to the target colors. The Mansouri model has been a foundation for active contour based tracking methods, since it is derived from a probability based interpretation. By stabilizing the model with the proposed speed function, the proposed model opens the way to extend probability based active contour tracking for practical applications.

Adaptive Active Contour Model: a Localized Mutual Information Approach for Medical Image Segmentation

  • Dai, Shuanglu;Zhan, Shu;Song, Ning
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권5호
    • /
    • pp.1840-1855
    • /
    • 2015
  • Troubles are often met when traditional active contours extract boundaries of medical images with inhomogeneous bias and various noises. Focusing on such a circumstance, a localized mutual information active contour model is discussed in the paper. By defining neighborhood of each point on the level set, mutual information is introduced to describe the relationship between the zero level set and image field. A driving energy term is then generated by integrating all the information. In addition, an expanding energy and internal energy are designed to regularize the driving energy. Contrary to piecewise constant model, new model has a better command of driving the contours without initialization.

딥러닝 기반 실내 디자인 인식 (Deep Learning-based Interior Design Recognition)

  • 이원규;박지훈;이종혁;정희철
    • 대한임베디드공학회논문지
    • /
    • 제19권1호
    • /
    • pp.47-55
    • /
    • 2024
  • We spend a lot of time in indoor space, and the space has a huge impact on our lives. Interior design plays a significant role to make an indoor space attractive and functional. However, it should consider a lot of complex elements such as color, pattern, and material etc. With the increasing demand for interior design, there is a growing need for technologies that analyze these design elements accurately and efficiently. To address this need, this study suggests a deep learning-based design analysis system. The proposed system consists of a semantic segmentation model that classifies spatial components and an image classification model that classifies attributes such as color, pattern, and material from the segmented components. Semantic segmentation model was trained using a dataset of 30000 personal indoor interior images collected for research, and during inference, the model separate the input image pixel into 34 categories. And experiments were conducted with various backbones in order to obtain the optimal performance of the deep learning model for the collected interior dataset. Finally, the model achieved good performance of 89.05% and 0.5768 in terms of accuracy and mean intersection over union (mIoU). In classification part convolutional neural network (CNN) model which has recorded high performance in other image recognition tasks was used. To improve the performance of the classification model we suggests an approach that how to handle data that has data imbalance and vulnerable to light intensity. Using our methods, we achieve satisfactory results in classifying interior design component attributes. In this paper, we propose indoor space design analysis system that automatically analyzes and classifies the attributes of indoor images using a deep learning-based model. This analysis system, used as a core module in the A.I interior recommendation service, can help users pursuing self-interior design to complete their designs more easily and efficiently.

마코프 체인 밀 음절 N-그램을 이용한 한국어 띄어쓰기 및 복합명사 분리 (Korean Word Segmentation and Compound-noun Decomposition Using Markov Chain and Syllable N-gram)

  • 권오욱
    • 한국음향학회지
    • /
    • 제21권3호
    • /
    • pp.274-284
    • /
    • 2002
  • 한국어 대어휘 연속음성인식을 위한 텍스트 전처리에서 띄어쓰기 오류는 잘못된 단어를 인식 어휘에 포함시켜 언어모델의 성능을 저하시킨다. 본 논문에서는 텍스트 코퍼스의 띄어쓰기 교정을 위하여 한국어 음절 N-그램을 이용한 자동 띄어쓰기 알고리듬을 제시한다. 제시된 알고리듬에서는 주어진 입력음절열은 좌에서 우로의 천이만을 갖는 마코프 체인으로 표시되고 어떤 상태에서 같은 상태로의 천이에서 공백음절이 발생하며 다른 상태로의 천이에서는 주어진 음절이 발생한다고 가정한다. 마코프 체인에서 음절 단위 N-그램 언어모델에 의한 문장 확률이 가장 높은 경로를 찾음으로써 띄어쓰기 결과를 얻는다. 모든 공백을 삭제한 254문장으로 이루어진 신문 칼럼 말뭉치에 대하여 띄어쓰기 알고리듬을 적용한 결과 91.58%의 어절단위 정확도 및 96.69%의 음절 정확도를 나타내었다. 띄어쓰기 알고리듬을 응용한 줄바꿈에서의 공백 오류 처리에서 이 알고리듬은 91.00%에서 96.27%로 어절 정확도를 향상시켰으며, 복합명사 분리에서는 96.22%의 분리 정확도를 보였다.

오브젝트 중심점-마스크를 사용한 instance segmentation (An Instance Segmentation using Object Center Masks)

  • 이종혁;김형석
    • 스마트미디어저널
    • /
    • 제9권2호
    • /
    • pp.9-15
    • /
    • 2020
  • 본 논문에서는 새롭게 제안하는 Multi-Path Encoder-Decoder 의 구조를 바탕으로 두개의 가지로 구성된 심층신경망을 통해서 영상 이미지에서 물체를 하나의 객체 단위로 분할 검출하는 방법을 제안하였다. 각 가지는 중심점 검출 가지(Dot branch), 객체 분할 가지(Segmentation branch)라 하고 중심점 검출 가지는 이미지로부터 각 객체의 중심점을 찾는 역할을 수행하고, 객체 분할 가지는 각 객체의 영역을 이미지로부터 분할하는 역할을 수행한다. 실험에서는 CVPPP 식물 이미지의 나뭇잎을 각각 구분하도록 학습 하였으며 중심점 검출 가지는 각 나뭇잎의 중심점들을 찾아내고, 객체 분할 가지는 원본 이미지와 찾아낸 중심점 이미지를 통하여 각 중심점에 해당하는 나뭇잎의 픽셀 분할 영역을 최종적으로 예측하게 된다. 기존의 객체 분할에서는 다양한 크기, 위치의 앵커박스를 만들어서 많은 영역(N > 1k)의 물체를 확인해야하는 연산량 문제점 혹은 이미지에서 고정되지 않는 총 객체의 개수를 예측하기 어려웠던 문제가 있었다. 제안한 심층신경망에서는 중심점을 기반으로 객체를 찾아내는 효과적인 방법을 제안하였다.

Automated Segmentation of Left Ventricular Myocardium on Cardiac Computed Tomography Using Deep Learning

  • Hyun Jung Koo;June-Goo Lee;Ji Yeon Ko;Gaeun Lee;Joon-Won Kang;Young-Hak Kim;Dong Hyun Yang
    • Korean Journal of Radiology
    • /
    • 제21권6호
    • /
    • pp.660-669
    • /
    • 2020
  • Objective: To evaluate the accuracy of a deep learning-based automated segmentation of the left ventricle (LV) myocardium using cardiac CT. Materials and Methods: To develop a fully automated algorithm, 100 subjects with coronary artery disease were randomly selected as a development set (50 training / 20 validation / 30 internal test). An experienced cardiac radiologist generated the manual segmentation of the development set. The trained model was evaluated using 1000 validation set generated by an experienced technician. Visual assessment was performed to compare the manual and automatic segmentations. In a quantitative analysis, sensitivity and specificity were calculated according to the number of pixels where two three-dimensional masks of the manual and deep learning segmentations overlapped. Similarity indices, such as the Dice similarity coefficient (DSC), were used to evaluate the margin of each segmented masks. Results: The sensitivity and specificity of automated segmentation for each segment (1-16 segments) were high (85.5-100.0%). The DSC was 88.3 ± 6.2%. Among randomly selected 100 cases, all manual segmentation and deep learning masks for visual analysis were classified as very accurate to mostly accurate and there were no inaccurate cases (manual vs. deep learning: very accurate, 31 vs. 53; accurate, 64 vs. 39; mostly accurate, 15 vs. 8). The number of very accurate cases for deep learning masks was greater than that for manually segmented masks. Conclusion: We present deep learning-based automatic segmentation of the LV myocardium and the results are comparable to manual segmentation data with high sensitivity, specificity, and high similarity scores.

Corneal Ulcer Region Detection With Semantic Segmentation Using Deep Learning

  • Im, Jinhyuk;Kim, Daewon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.1-12
    • /
    • 2022
  • 안과 환자의 질병을 판단하기 위해서는 특수 촬영 장비를 통해 찍은 안구영상을 이용한 안과의사의 주관적 판단의 개입이 전통적으로 활용되고 있다. 본 연구에서는 안과 의료진이 질병을 판단할 때 보조적 도움이 될 수 있도록 객관적 진단결과를 제시해주는 각막궤양 의미론적 분할방법에 대하여 제안하였다. 이를 위해 DeepLab 모델을 활용하였고 그 중 Backbone network으로 Xception과 ResNet 네트워크를 이용하였다. 실험결과를 나타내기 위한 평가지표로 다이스 유사계수와 IoU 값을 이용하였고 ResNet101 네트워크를 사용하였을 때 'crop & resized' 이미지에 대해 최대 평균 정확도 93%의 다이스 유사계수 값을 보였다. 본 연구는 객체 검출을 위한 의미론적 분할모델 또한 안구의 각막궤양 부분과 같은 불규칙하고 특이한 모양을 추출하고 분류하는데 뛰어난 결과를 도출할 수 있는 성능을 보유하고 있음을 보여주었다. 향후 학습용 Dataset을 양적으로 보강하여 실험결과의 정확도를 제고할 수 있도록 하고 실제 의료진단 환경에서 구현되어 사용되어 질 수 있도록 할 계획이다.

웨이브렛 형태학 알고리즘 적용한 객체 분할의 클러스터링 분석 (Clustering Analysis of Object Segmentation applying Wavelet Morphology)

  • 백덕수;변오성;강창수
    • 전자공학회논문지 IE
    • /
    • 제43권2호
    • /
    • pp.39-48
    • /
    • 2006
  • 본 논문은 공간적 자동 객체 분할의 개념과 클러스터링 개념을 가진 웨이브렛 형태학 알고리즘을 제안하였다. 제안된 알고리즘을 이용하여 컬러 얼굴을 분할할 때 영상을 단순화하였으며, 또한 사용자의 조작 없이 실시간적으로 분할해 검출할 수 있도록 공간적 특성을 이용하였다. 이것은 HSV 컬러 모델을 이용하여 영상에서 잡음으로 간주되는 작은 부분을 제거하고, 얼굴영상 이외의 부분을 제거하기 위해 웨이브렛 형태학을 적용하였다. 본 논문은 웨이브렛 형태학 알고리즘과 형태학 알고리즘을 비교하였으며, 그리고 HSV 컬러 공간 모델을 적용한 영상에서 얼굴 객체 부분을 정확하게 검출함을 보였다.

레벨셋을 이용한 특정 영역의 영상 세그먼테이션 (Image Segmentation of Special Area Using the Level Set)

  • 주기세;조덕상
    • 한국정보통신학회논문지
    • /
    • 제14권4호
    • /
    • pp.967-975
    • /
    • 2010
  • 영상 세그먼테이션은 배경으로부터 객체들을 구별하는 것으로서, 영상 분석과 해석을 하는데 있어서 첫 번째 단계에 해당한다. 그러나 활성 외곽선 모델은 위상이 2개밖에 없으므로 정확하게 원하는 객체들을 추출할 수가 없다. 본 논문에서 원하는 특정한 범위의 명암도를 갖는 객체들을 추출하기 위해서 초기 곡선을 객체들 근처에 구성함으로써 바라는 윤곽을 찾는 방법을 제안한다. 초기 곡선은 히스토그램 평활화, 가우시안 평활화, 임계치를 이용하여 구한다. 제안한 방법은 초기 곡선을 관심영역에 최대 근접시키므로 계산 속도를 줄이고 원하는 영역을 정확하게 추출할 수 있다. CT 영상과 MR 영상에 적용한 결과 제안한 방법이 활성 외곽선 모델보다 더 효과적임을 보였다.

다시점 객체 공분할을 이용한 2D-3D 물체 자세 추정 (2D-3D Pose Estimation using Multi-view Object Co-segmentation)

  • 김성흠;복윤수;권인소
    • 로봇학회논문지
    • /
    • 제12권1호
    • /
    • pp.33-41
    • /
    • 2017
  • We present a region-based approach for accurate pose estimation of small mechanical components. Our algorithm consists of two key phases: Multi-view object co-segmentation and pose estimation. In the first phase, we explain an automatic method to extract binary masks of a target object captured from multiple viewpoints. For initialization, we assume the target object is bounded by the convex volume of interest defined by a few user inputs. The co-segmented target object shares the same geometric representation in space, and has distinctive color models from those of the backgrounds. In the second phase, we retrieve a 3D model instance with correct upright orientation, and estimate a relative pose of the object observed from images. Our energy function, combining region and boundary terms for the proposed measures, maximizes the overlapping regions and boundaries between the multi-view co-segmentations and projected masks of the reference model. Based on high-quality co-segmentations consistent across all different viewpoints, our final results are accurate model indices and pose parameters of the extracted object. We demonstrate the effectiveness of the proposed method using various examples.