• Title/Summary/Keyword: 밝기값

Search Result 568, Processing Time 0.034 seconds

Image Mosaicking Using Feature Points Based on Color-invariant (칼라 불변 기반의 특징점을 이용한 영상 모자이킹)

  • Kwon, Oh-Seol;Lee, Dong-Chang;Lee, Cheol-Hee;Ha, Yeong-Ho
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.46 no.2
    • /
    • pp.89-98
    • /
    • 2009
  • In the field of computer vision, image mosaicking is a common method for effectively increasing restricted the field of view of a camera by combining a set of separate images into a single seamless image. Image mosaicking based on feature points has recently been a focus of research because of simple estimation for geometric transformation regardless distortions and differences of intensity generating by motion of a camera in consecutive images. Yet, since most feature-point matching algorithms extract feature points using gray values, identifying corresponding points becomes difficult in the case of changing illumination and images with a similar intensity. Accordingly, to solve these problems, this paper proposes a method of image mosaicking based on feature points using color information of images. Essentially, the digital values acquired from a digital color camera are converted to values of a virtual camera with distinct narrow bands. Values based on the surface reflectance and invariant to the chromaticity of various illuminations are then derived from the virtual camera values and defined as color-invariant values invariant to changing illuminations. The validity of these color-invariant values is verified in a test using a Macbeth Color-Checker under simulated illuminations. The test also compares the proposed method using the color-invariant values with the conventional SIFT algorithm. The accuracy of the matching between the feature points extracted using the proposed method is increased, while image mosaicking using color information is also achieved.

New iterative method for color filter array demosaicking in digital still cameras (디지털 카메라의 color filter array demosaicking을 위한 새로운 반복법)

  • Kim, Se-Yun;Cho, Nam-Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.205-207
    • /
    • 2009
  • 디지털 카메라를 이용한 영상 취득은 일반적으로 한 픽셀에서 세 가지 색상(적색, 녹색, 청색)의 값을 얻는 것을 목표로 한다. 하지만, 비용의 문제로 한 픽셀에서 한 가지의 색상만을 얻어 나머지 두 색상을 복원하는 방식을 널리 사용한다. 이를 demosaicking이라 하는데, 이 과정에는 1)각 색상 영상 내의 상관관계와 2)세 가지 색상 사이의 상관관계가 동시에 이용된다. 본 논문에서는 이 두 가지 상관관계를 이용하여 각 채널의 고주파 성분과 밝기 성분의 고주파 성분을 반복적으로 향상시키는 방법을 제안하였다. 첫 번째 단계에서는 밝기 성분을 이용하여 각 채널의 고주파 성분을 강화하고, 두 번째 단계에서 관측값을 이용하여 밝기 성분의 고주파 성분을 복원한다. 제안된 방법이 기존 방법과 주관적인 방법과 객관적인 방법으로 비교하여 우수함을 보인다.

  • PDF

Automatic Segmentation of Coronary Vessel in X-ray Angiography using Non-uniform Illumination Correction and Eigenvalue of Hessian Matrix (X-선 혈관 조영 영상에서 불균일 조명 보정과 Hessian 행렬 고유치를 이용한 심혈관 자동 분할)

  • Kim, Hye-Ryun;Kang, Mi-Sun;Kim, Myoung-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.04a
    • /
    • pp.414-416
    • /
    • 2012
  • 본 논문에서는 X-선 혈관 조영 영상 내 심혈관의 추출 방법을 제안한다. 본 방법은 불균일 조명 보정 필터를 사용함으로써 X-선 영상 내에서 나타나는 일정하지 않은 contrast, 낮은 명암도 및 불균일 조명 문제를 해결한다. 또한 영상의 지역적인 밝기 값의 변화의 특징을 고려하면서 분할 대상영역의 각 픽셀들의 2 차 미분((second partial derivation)을 행렬의 요소(element)로 갖는 Hessian 행렬의 고유치 (eigenvalue)를 영역확장의 문턱치 결정에 이용하여 전역적인 밝기값(intensity)만을 사용하는 분할의 단점을보완하였다.

Luminance Compensation using Feature Points and Histogram for VR Video Sequence (특징점과 히스토그램을 이용한 360 VR 영상용 밝기 보상 기법)

  • Lee, Geon-Won;Han, Jong-Ki
    • Journal of Broadcast Engineering
    • /
    • v.22 no.6
    • /
    • pp.808-816
    • /
    • 2017
  • 360 VR video systems has become important to provide immersive effect for viewers. The system consists of stitching, projection, compression, inverse projection, viewport extraction. In this paper, an efficient luminance compensation technique for 360 VR video sequences, where feature extraction and histogram equalization algorithms are utilized. The proposed luminance compensation algorithm enhance the performance of stitching in 360 VR system. The simulation results showed that the proposed technique is useful to increase the quality of the displayed image.

Weighted Prediction Using Residual Information for Multi-view Video Coding (레지듀얼 정보를 이용한 다시점 동영상 부호화의 가중치 예측)

  • Kim, Ji-Young;Kim, Young-Tae;Seo, Jung-Dong;Sohn, Kwang-Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2007.02a
    • /
    • pp.9-12
    • /
    • 2007
  • 다시점 동영상 부호화기는 서로 다른 카메라에 의해 영상을 획득하므로 카메라 내부 파라미터의 차이나 조명의 차이 및 변화 등에 의한 시점 간 명도 성분의 불균형을 가지고 있다. 이로 인해 잘못된 변이 추정이 이루어질 수 있으며, 따라서 전체적인 다시점 동영상 부호화의 성능을 크게 저하시킬 수 있다. 본 논문에서는 레지듀얼이 가지고 있는 밝기 차 정보를 이용하여 시점 간의 불균형을 해소하는 가중치 예측 알고리듬을 제안한다. 주변의 인과적인 블록의 레지듀얼 정보를 이용하여 현재 블록과 참조 블록의 밝기 차를 예측하고, 이 값을 이용해 시점 간 불균형을 보정 한 후 변이 추정을 수행한다. 변이 보상 후 계산된 현재 블록의 레지듀얼 평균값을 앞에서 예측된 밝기 차의 값에 누적하여 다음 블록의 밝기 차 예측에 사용한다. 제안된 방법을 실험 영상에 적용한 결과 평균적으로 약 0.2dB의 이득을 얻었다.

  • PDF

Connectivity Enhancement of Broken Structural Regions in Ultrasound Images (초음파 영상에서 끊어진 구조 영역 연결성 향상 방법)

  • Seo, Hyun-Gi;Song, Hye-Jeong;Kim, Baek-Sop
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.10
    • /
    • pp.751-759
    • /
    • 2010
  • This paper is to propose a method to enhance the connectivity of the broken structures. The pixels to be connected are found by a decision rule which is based on the intensity and gradient information of the neighboring pixels. The intensity of the pixel, if it is decided to be filled, is increased so that the pixel together with its neighbors looks connected. The anisotropic diffusion follows to make the connected structural region look more natural. The same structure matrices have been used both to get gradient information and to decide the direction of diffusion to improve the computational speed. It has been shown by the experiments on the real ultrasound images that the broken structural regions can be connected by the proposed method.

Detection of eye using optimal edge technique and intensity information (눈 영역에 적합한 에지 추출과 밝기값 정보를 이용한 눈 검출)

  • Mun, Won-Ho;Choi, Yeon-Seok;Kim, Cheol-Ki;Cha, Eui-Young
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2010.10a
    • /
    • pp.196-199
    • /
    • 2010
  • The human eyes are important facial landmarks for image normalization due to their relatively constant interocular distance. This paper introduces a novel approach for the eye detection task using optimal segmentation method for eye representation. The method consists of three steps: (1)edge extraction method that can be used to accurately extract eye region from the gray-scale face image, (2)extraction of eye region using labeling method, (3)eye localization based on intensity information. Experimental results show that a correct eye detection rate of 98.9% can be achieved on 2408 FERET images with variations in lighting condition and facial expressions.

  • PDF

Intensity Information and Curve Evolution Based Active Contour Model (밝기 정보와 곡선전개 기반의 활성 모델)

  • Kim, Seong-Kon
    • The KIPS Transactions:PartB
    • /
    • v.10B no.5
    • /
    • pp.521-526
    • /
    • 2003
  • In this paper, we propose a geometric active contour model based on intensity information and curve evolution for detecting region boundaries. We put boundary extraction problem as the minimization of the difference between the average intensity of the region and the intensity of the expanding closed curves. We used level set theory to implement the curve evolution for optimal solution. It offered much more freedom in the initial curve position than a general active contour model. Our methods could detect regions whose boundaries are not necessarily defiened by gradient compared to general edge based methods and detect multiple boundaries at the same time. We could improve the result by using anisotropic diffusion filter in image preprocessing. The performance of our model was demonstrated on several data sets like CT and MRI medical images.

Automatic fusion of T2-weighted image and diffusion weighted image in pelvis MRI (골반 T2강조 MR 영상과 확산강조 MR 영상 간 자동 융합)

  • Kang, Hye-Won;Jung, Ju-Lip;Hong, Helen;Hwang, Sung-Il
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.359-361
    • /
    • 2012
  • 본 논문은 T2강조 MR 영상과 확산강조 MR 영상의 강체 정합을 통해 크기, 위치, 회전 변환 왜곡을 보정하여 자궁내막암의 위치를 자동으로 찾는 방법을 제안한다. 영상해상도와 밝기값 분포가 서로 다른 두 영상간 정합의 정확성을 향상시키기 위해 잡음을 제거하고 두 영상의 밝기값 신호 분포의 유사성을 강화시킨다. 유사성이 향상된 두 영상의 크기, 위치, 회전 변환 왜곡을 보정하기 위해 정규화 상호정보를 최대화 하는 강체 정합을 반복적으로 수행한다. 정합된 영상에서 악성 종양을 쉽게 판별 할 수 있도록 현상확상계수지도를 컬러맵으로 생성하여 T2강조 MR 영상에서 얻은 종양의 후보군에 매핑하여 T2강조 MR 영상과 융합한다. 실험을 위하여 최적화 반복 과정에 따른 정규화 상호정보 수치 수렴 과정을 확인하고, 융합 후 종양 영역이 매핑되는 것을 육안평가를 통해 분석하였다. 제안방법을 통하여 T2강조 MR 영상과 확산강조 MR 영상을 융합함으로써 종양의 위치를 자동으로 파악하고 자궁내막암의 병기를 확정하는 용도로 활용할 수 있다.

A Comparison of Observed and Simulated Brightness Temperatures from Two Radiative Transfer Models of RTTOV and CRTM (두 복사전달모델 RTTOV와 CRTM으로부터 산출된 밝기온도와 관측된 밝기온도의 비교)

  • Kim, Ju-Hye;Kang, Jeon-Ho;Lee, Sihye
    • Journal of the Korean earth science society
    • /
    • v.35 no.1
    • /
    • pp.19-28
    • /
    • 2014
  • The radiative transfer for TIROS operational vertical sounder (RTTOV) and the community radiative transfer model (CRTM) are two fast radiative transfer models (RTM) that are used as observation operators in numerical weather prediction (NWP) systems. This study compares the basic structure and input data of the two models. With data from Advanced Microwave Sounding Unit-A (AMSU-A), which has channels of various frequencies, observed brightness temperature ($T_B$) and simulated $T_B$s from the two models are compared over the ocean surface in two cases-one where cloud information is included and the other without it. Regarding AMSU-A sounding channels (5-14), the two models produce no large significant differences in their calculated $T_B$, but RTTOV produces smaller first guess (FG) departures (i.e., better results) in window and near-surface sounding channels than does CRTM. When adding cloud water and ice particles from Unified Model (UM), the $T_B$ bias between observations and simulations are reduced in both models and the bias at 31.4 and 89 GHz is substantially decreased in CRTM compared to those of RTTOV.