• Title/Summary/Keyword: 색상성분

Search Result 392, Processing Time 0.024 seconds

The Extraction of Car-Licence Plates using Combined Color Information of HSI and YIQ (HSI와 YIQ의 복합 색상정보를 이용한 차량 번호판 영역 추출)

  • Lee, Hwa-Jin;Park, Hyung-Chul;Jun, Byung-Hwan
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.12
    • /
    • pp.3995-4003
    • /
    • 2000
  • This paper describes a method that extracts the region of car-licence plates in color images of private and commercial cars. To extract car-licence plates, we use the feature that car-licence plate regions have regular colors according to the kinds of cars. In this paper, we propose the method that combines H component of HSI color model and Q component of YIQ color model. To improve efficiency of the process, we cxplore lines ill a car image by a regular interval in a bottom-up style. As a result, the extraction rates by only H-component. only by Q- component. and by combined Hand Q, are 53.6%, 82.1%, and 94.6% respectively.

  • PDF

New iterative method for color filter array demosaicking in digital still cameras (디지털 카메라의 color filter array demosaicking을 위한 새로운 반복법)

  • Kim, Se-Yun;Cho, Nam-Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.205-207
    • /
    • 2009
  • 디지털 카메라를 이용한 영상 취득은 일반적으로 한 픽셀에서 세 가지 색상(적색, 녹색, 청색)의 값을 얻는 것을 목표로 한다. 하지만, 비용의 문제로 한 픽셀에서 한 가지의 색상만을 얻어 나머지 두 색상을 복원하는 방식을 널리 사용한다. 이를 demosaicking이라 하는데, 이 과정에는 1)각 색상 영상 내의 상관관계와 2)세 가지 색상 사이의 상관관계가 동시에 이용된다. 본 논문에서는 이 두 가지 상관관계를 이용하여 각 채널의 고주파 성분과 밝기 성분의 고주파 성분을 반복적으로 향상시키는 방법을 제안하였다. 첫 번째 단계에서는 밝기 성분을 이용하여 각 채널의 고주파 성분을 강화하고, 두 번째 단계에서 관측값을 이용하여 밝기 성분의 고주파 성분을 복원한다. 제안된 방법이 기존 방법과 주관적인 방법과 객관적인 방법으로 비교하여 우수함을 보인다.

  • PDF

The Extraction of Face Regions in Dynamic Image Using Color Information and Difference Images (동영상에서의 색상 정보와 차영상을 이용한 얼굴 영역 추출에 관한 연구)

  • 박형철;전병환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.455-457
    • /
    • 1998
  • 동영상에서의 얼굴 영역 추출은 헤드 제스처 인터페이스를 위한 기본적이고 필수적인 기법이다. 얼굴 영역 추출을 위해서는 색상 정보와 차영상을 이용한 방법이 많이 사용되며, 색상 정보를 이용하는 방법에는 HSI의 H(hue)성분과 YIQ의 I(in-phase)성분이 널리 알려져 있다. 본 논문에서는 먼저 얼굴 색상에 해당하는 각 색상 성분의 구간을 탐색하고, 다음으로 각 색상 정보를 이용한 얼굴 영역 검출의 정확도를 비교 실험한다. 또한, 색상 정보와 차영상을 결합한 방법에 대해서도 얼굴 영역 검출의 정확도를 비교한다. 실험 결과, YIQ의 경우 구간 130~150, HSI의 경우 구간 0~20에서 얼굴색을 잘 표현하는 것으로 나타났다. 얼굴 영역 검출의 정확도 측면에서는, 색상 정보만을 이용한 실험의 경우 YIQ가 HSI에 비해 약 10%의 향상된 성능을 보였고, 색상 정보와 차영상을 결합한 경우에서도 YIQ가 약 5%의 향상된 성능을 보였다.

  • PDF

Comparisons of Color Spaces for Shadow Elimination (그림자 제거를 위한 색상 공간의 비교)

  • Lee, Gwang-Gook;Uzair, Muhammad;Yoon, Ja-Young;Kim, Jae-Jun;Kim, Whoi-Yul
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.5
    • /
    • pp.610-622
    • /
    • 2008
  • Moving object segmentation is an essential technique for various video surveillance applications. The result of moving object segmentation often contains shadow regions caused by the color difference of shadow pixels. Hence, moving object segmentation is usually followed by a shadow elimination process to remove the false detection results. The common assumption adopted in previous works is that, under the illumination variation, the value of chromaticity components are preserved while the value of intensity component is changed. Hence, color transforms which separates luminance component and chromaticity component are usually utilized to remove shadow pixels. In this paper, various color spaces (YCbCr, HSI, normalized rgb, Yxy, Lab, c1c2c3) are examined to find the most appropriate color space for shadow elimination. So far, there have been some research efforts to compare the influence of various color spaces for shadow elimination. However, previous efforts are somewhat insufficient to compare the color distortions under illumination change in diverse color spaces, since they used a specific shadow elimination scheme or different thresholds for different color spaces. In this paper, to relieve the limitations of previous works, (1) the amount of gradients in shadow boundaries drawn to uniform colored regions are examined only for chromaticity components to compare the color distortion under illumination change and (2) the accuracy of background subtraction are analyzed via RoC curves to compare different color spaces without the problem of threshold level selection. Through experiments on real video sequences, YCbCr and normalized rgb color spaces showed good results for shadow elimination among various color spaces used for the experiments.

  • PDF

Multiple color normalization for effective object detection (효율적 객체정보 검출을 위한 다중색상 정규화)

  • 이은선;김상훈
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.589-591
    • /
    • 2002
  • 본 연구에서는 영상안에서의 중요한 객체정보를 검출하기 위한 전처리 과정으로 효율적인 색상정보 정규화에 의한 영역분석 방법을 제안한다. 다중색상 정규화는 기존의 화소내 색상성분간의 정규화와 모든 화소에 대한 성분별 정규화를 복합적으로 사용함으로써, 객체의 영역들이 갖는 고유 색상성분의 분포를 좀더 특정 공간에 집중시키고 영상분할을 용이하게 한다. 이러한 방법의 효과를 입증하기 위해 가상의 입력영상을 제작하여 기존의 알고리즘과 본 논문에서의 방법을 함께 적용, 비교평가한다.

  • PDF

Experiments of Illuminant Estimation in the Dichromatic Reflecton Model (Dichromatic 반사 모델에서의 조명성분 추출 실험)

  • 박명은;김성영;김민환
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.11a
    • /
    • pp.218-223
    • /
    • 2000
  • 영상에서 색상은 조명과 물체의 반사 특성에 의해 걸정되므로고 정확한 조명성분 추출을 통해 물체 고유의 색상을 복원할 수 있다. 물체 색상과 하이라이트 색상의 분포와 이들간의 관계를 잘 반영하여 모델링한 Dichromatic 반사 모델에서는, 3차원 RGB 공간에서의 하이라이트(highlight) 영역에 의한 클러스터 분포형상으로부터 표면반사벡터를 구해 이것을 조명벡터로 결정하였다. 그러나, 표면반사벡터의 방향은 물체색상의 영향을 받아 실제 조명벡터와 동일한 방향을 나타내지 못한다는 것을 실험을 통해 알 수 있었다. 실제적으로 하이라이트영역에 대한 클러스터는 물체 색상으로부터 조명색상에 근접한 방향으로 형성되며, 조명벡터로는 글러스터의 최대값으로 향하는 것을 취하는 것이 보다 정확하다는 특성이 있음을 확인하였다. 본 논문에서는 여러 가지 실험을 통해 이러한 특성이 타당함을 제시하고, 그래픽반사모델을 이용하여 하이라이트 색상에 대한 새로운 해석 방법을 제시한다.

  • PDF

The Flame Color Analysis of Color Models for Fire Detection (화재검출을 위한 컬러모델의 화염색상 분석)

  • Lee, Hyun-Sul;Kim, Won-Ho
    • Journal of Satellite, Information and Communications
    • /
    • v.8 no.3
    • /
    • pp.52-57
    • /
    • 2013
  • This paper describes the color comparison analysis of flame in each standard color model in order to propose the optimal color model for image processing based flame detection algorithm. Histogram intersection values were used to analyze the separation characteristics between color of flame and color of non-flame in each standard color model which are RGB, YCbCr, CIE Lab, HSV. Histogram intersection value in each color model and components is evaluated for objective comparison. The analyzed result shows that YCbCr color model is the most suitable for flame detection by average HI value of 0.0575. Among the 12 components of standard color models, each Cb, R, Cr component has respectively HI value of 0.0433, 0.0526, 0.0567 and they have shown the best flame separation characteristics.

A Fuzzy-based License Plate Extraction Method under Real Conditions (퍼지원리에 기반한 차량 번호판 추출 방법)

  • Kwon, Sung-Jin;Kim, Gyeong-Hwan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07b
    • /
    • pp.850-852
    • /
    • 2005
  • 차량을 포함하는 임의의 영상에서 번호판 추출은 다양한 조명조건 및 배경, 촬영 각도, 번호판 종류 등의 요인으로 인해 고도의 영상처리 과정을 필요로 한다. 본 논문에서는 실제 환경에서 발생할 수 있는 이러한 요인들에 대해 강건한 번호판 추출 방법을 제안한다. 제안하는 방법은 입력영상의 RGB 성분들을 색상성분과 영암성분으로 분리할 수 있는 칼라모델 HSI로 변환하고 H(hue)와 S(saturation)성분을 이용하여 번호판의 배경색상을 고려한 칼라 퍼지지도를 구성한다. 또한, I(intensity)성분을 이용하여 에지밀도를 추출하고 에지밀도 지도에 기반한 영역분리 퍼지지도를 생성한다. 마지막으로, 후보영역 탐색을 위해 칼라 퍼지지도와 영역분리 퍼지지도를 결합하고, 연결성분 해석(Connected Component Analysis)을 통해 ROI(Region Of Interest)를 추출한다. 제안하는 방법의 유효성 검증을 위해 조명 및 촬영 각도에 제한을 거의 두지 않고 촬영된 차량 영상 410장을 실험 영상으로 사용하였다. 실험 결과에서는 $97.1\%$의 효과적인 추출 성공률을 볼 수 있었다.

  • PDF

Robust Contour Extraction of Moving Object based on Hue Gradient Background Model (색상 기울기 배경 모델 기반 안정적 동적 객체 윤곽 추출)

  • Lee, Je-Sung;Moon, Kyu-Hyung;Choi, Yoo-Joo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.11a
    • /
    • pp.261-264
    • /
    • 2006
  • 본 논문은 조명의 변화가 심한 연속영상에서 동적객체를 안정적으로 추출하기 위하여 색상강도 및 기울기 기반 배경모델을 구축하고 이를 이용하여 입력영상으로부터 동적 객체의 윤곽선을 안정적으로 추출하는 기법을 제시한다. 제안기법에서는 우선, 동적객체가 포함되지 않은 배경 연속영상의 HSI 컬러공간에서 색상(Hue) 강도와 색상 기울기에 대한 배경모델을 생성한다. 실시간으로 입력되는 동적 객체를 포함한 연속영상에 대하여 각 화소에 대한 색상(Hue)성분을 추출하고 이웃 화소와의 색상성분에 대한 기울기 크기를 계산한다. 이를 기구축된 배경모델과 비교하여 그 차분값이 일정 임계값을 초과하는 경우 동적객체의 윤곽선으로 판별한다. 제안 기법은 극심한 조명 변화에 강건하게 동적 객체의 윤곽정보를 실시간 추출하였다. 본 논문에서는 기존 RGB 기반 배경 모델링 기법을 적용한 경우와의 비교 실험을 통하여 제안 기법의 안정성을 보였다.

  • PDF

Color Component Analysis For Image Retrieval (이미지 검색을 위한 색상 성분 분석)

  • Choi, Young-Kwan;Choi, Chul;Park, Jang-Chun
    • The KIPS Transactions:PartB
    • /
    • v.11B no.4
    • /
    • pp.403-410
    • /
    • 2004
  • Recently, studies of image analysis, as the preprocessing stage for medical image analysis or image retrieval, are actively carried out. This paper intends to propose a way of utilizing color components for image retrieval. For image retrieval, it is based on color components, and for analysis of color, CLCM (Color Level Co-occurrence Matrix) and statistical techniques are used. CLCM proposed in this paper is to project color components on 3D space through geometric rotate transform and then, to interpret distribution that is made from the spatial relationship. CLCM is 2D histogram that is made in color model, which is created through geometric rotate transform of a color model. In order to analyze it, a statistical technique is used. Like CLCM, GLCM (Gray Level Co-occurrence Matrix)[1] and Invariant Moment [2,3] use 2D distribution chart, which use basic statistical techniques in order to interpret 2D data. However, even though GLCM and Invariant Moment are optimized in each domain, it is impossible to perfectly interpret irregular data available on the spatial coordinates. That is, GLCM and Invariant Moment use only the basic statistical techniques so reliability of the extracted features is low. In order to interpret the spatial relationship and weight of data, this study has used Principal Component Analysis [4,5] that is used in multivariate statistics. In order to increase accuracy of data, it has proposed a way to project color components on 3D space, to rotate it and then, to extract features of data from all angles.