• 제목/요약/키워드: Pixel matching

검색결과 268건 처리시간 0.026초

신뢰전파 스테레오 기법의 고속 알고리즘 (A Fast Algorithm of the Belief Propagation Stereo Method)

  • 최영석;강현수
    • 대한전자공학회논문지SP
    • /
    • 제45권5호
    • /
    • pp.1-8
    • /
    • 2008
  • 최근 활발히 연구되고 있는 신뢰전파(Belief Propagation) 기법은 변위(disparity) 정보추출에 우수한 성능을 보인다. 신뢰전파 기법은 변위 추출에 필요한 목표함수를 Markov random field(URF)의 에너지 함수로 모델링 하는 방식으로서 에너지 함수를 최소화하는 변위 값을 찾음으로써 정합문제를 해결한다. MRF 모델은 스테레오와 영상복원과 같은 비전 문제에 강건하고 일괄된 구조를 제공한다. 그러나 MRF 모델링 기반의 신뢰전파 기법은 정확한 결과를 산출하지만 다른 스테레오 기법에 비하여 상대적으로 많은 계산 량이 요구되기 때문에 실시간 구현에 어려움이 있다. 본 논문에서는 이러한 문제를 해결하고자 신뢰전파 기법의 고속 구현 알고리즘을 제안한다. 에너지 함수는 data항과 smoothness항의 합으로 나타낸다. 데이터(data)항은 일반적으로 두 영상의 밝기 차이로 계산되고, 연속성(smoothness)항은 인접화소의 차이를 나타낸다. 연속성 정보는 메시지로부터 생성되는데, 메시지는 네 방향의 인접화소 위치에 대한 연속성과 일치성을 고려하여 계산된다. 네 방향의 메시지에 대한 처리 시간은 전체 프로그램 수행 시간의 80%이상을 차지한다. 제안된 방법에서는 네 개의 배열에서 생성되는 메시지를 하나의 배열에서 일괄적으로 생성하게 함으로써 메시지 계산에 대한 수행 시간을 단축하는 알고리즘을 제안한다. 최종 변위 추출과정에서 메시지는 통합된 하나의 배열에서만 호출되며, 이는 기존 알고리즘의 메시지 처리의 계산 량을 1/4 만큼 줄이는 효과가 있다. 기존의 신뢰전파 기법으로 생성한 깊이맵의 변위 오차율과 제안한 알고리즘으로 생성된 깊이맵의 변위 오차율을 비교함으로써 제안한 알고리즘의 변위추출의 정확도를 평가한다. 실험 결과, 변위 오차는 거의 증가하지 않는 반면, 전체 프로그램 수행 시간이 철저히 감소됨을 확인할 수 있다.

라이다 칩을 이용한 고해상도 위성영상의 자동좌표등록 (LiDAR Chip for Automated Geo-referencing of High-Resolution Satellite Imagery)

  • 이창노;오재홍
    • 한국측량학회지
    • /
    • 제32권4_1호
    • /
    • pp.319-326
    • /
    • 2014
  • 고해상도 위성영상을 성공적으로 활용하기 위해서는 지상기준점 등을 활용한 좌표등록 및 보정 과정이 필수적이다. 작업자의 수작업을 통한 기준점 획득의 경우 작업 시간이 오래 걸리므로, 자동화된 좌표 등록 방법에 대한 요구가 증대하고 있다. 보정하고자 하는 위성 영상을 정확한 좌표를 가진 참조 데이터에 영상 매칭을 수행하는 기법이 많이 소개 되었는데, 참조 데이터 중 라이다 데이터의 경우 공간 해상도 및 정확도가 높고 무엇보다 3차원 데이터이기 때문에 기복 변위 등을 내포하고 있지 않는 등의 장점을 보인다. 최근 라이다 데이터와 고해상도 위성영상간의 매칭을 위한 기법이 연구, 발표되었으나, 라이다 데이터의 특성상 대용량이기 때문에 처리에 많은 시간이 소요되는 등의 단점이 있었다. 따라서 본 논문에서는 일부의 공간만을 라이다 칩으로 추출 및 저장하여 위성영상의 좌표 등록에 활용하는 연구를 수행하였다. 이를 위해, 전체 라이다 포인트 데이터를 반사강도 정사영상 및 수치표고모델의 두 가지 형태로 변환하고 에지 추출을 통해 의미 있는 양의 에지 정보만을 포함하는 지역을 영상형태의 라이다 칩으로 추출, 저장하였으며, 용량이 현저히 줄어든 것을 확인할 수 있었다. 마지막으로 라이다 칩을 아리랑2호 및 아리랑3호 영상의 자동 좌표등록에 활용 해본 결과 평균 한 픽셀가량의 정확도 또한 확보할 수 있었다.

SuperDepthTransfer: Depth Extraction from Image Using Instance-Based Learning with Superpixels

  • Zhu, Yuesheng;Jiang, Yifeng;Huang, Zhuandi;Luo, Guibo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권10호
    • /
    • pp.4968-4986
    • /
    • 2017
  • In this paper, we primarily address the difficulty of automatic generation of a plausible depth map from a single image in an unstructured environment. The aim is to extrapolate a depth map with a more correct, rich, and distinct depth order, which is both quantitatively accurate as well as visually pleasing. Our technique, which is fundamentally based on a preexisting DepthTransfer algorithm, transfers depth information at the level of superpixels. This occurs within a framework that replaces a pixel basis with one of instance-based learning. A vital superpixels feature enhancing matching precision is posterior incorporation of predictive semantic labels into the depth extraction procedure. Finally, a modified Cross Bilateral Filter is leveraged to augment the final depth field. For training and evaluation, experiments were conducted using the Make3D Range Image Dataset and vividly demonstrate that this depth estimation method outperforms state-of-the-art methods for the correlation coefficient metric, mean log10 error and root mean squared error, and achieves comparable performance for the average relative error metric in both efficacy and computational efficiency. This approach can be utilized to automatically convert 2D images into stereo for 3D visualization, producing anaglyph images that are visually superior in realism and simultaneously more immersive.

히스토그램 균등화 기반의 효율적인 차량용 영상 보정 알고리즘 (An Efficient Vehicle Image Compensation Algorithm based on Histogram Equalization)

  • 홍성일;인치호
    • 한국산학기술학회논문지
    • /
    • 제16권3호
    • /
    • pp.2192-2200
    • /
    • 2015
  • 본 논문에서는 히스토그램 균등화 기반의 효율적인 차량용 영상 보정 알고리즘을 제안한다. 제안된 차량용 영상보정 알고리즘은 움직임 추정 및 움직임 보상을 통해 차량용 영상의 흔들림을 제거하였다. 그리고 영상을 보정하기 위해 영상을 일정 영역으로 분할하여 각각의 서브 영상에서 픽셀 값의 히스토그램을 계산하였다. 또한, 기울기를 조절하여 영상을 개선하였다. 제안된 알고리즘은 IP에 적용하여 성능 및 시간, 영상의 차이점을 평가하고, 차량용 카메라 영상의 흔들림 제거와 영상 개선을 확인하였다. 본 논문에서 제안된 차량용 영상 보정 알고리즘은 기존 차량 영상 안정화 기술과 비교하였을 때, 차량용 영상에 대한 흔들림 제거는 메모리를 사용하지 않고 실시간 처리를 했기 때문에 효율성을 입증하였다. 그리고 블록 정합을 통한 연산으로 계산 시간 감소 효과를 얻었고, 노이즈가 가장 적고 영상의 자연스러움이 더 뛰어난 복원 결과를 얻을 수 있었다.

A study on Iris Recognition using Wavelet Transformation and Nonlinear Function

  • Hur, Jung-Youn;Truong, Le Xuan
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 추계학술대회 학술발표 논문집 제14권 제2호
    • /
    • pp.553-559
    • /
    • 2004
  • In todays security industry, personal identification is also based on biometric. Biometric identification is performed basing on the measurement and comparison of physiological and behavioral characteristics, Biometric for recognition includes voice dynamics, signature dynamics, hand geometry, fingerprint, iris, etc. Iris can serve as a kind of living passport or living password. Iris recognition system is the one of the most reliable biometrics recognition system. This is applied to client/server system such as the electronic commerce and electronic banking from stand-alone system or networks, ATMs, etc. A new algorithm using nonlinear function in recognition process is proposed in this paper. An algorithm is proposed to determine the localized iris from the iris image received from iris input camera in client. For the first step, the algorithm determines the center of pupil. For the second step, the algorithm determines the outer boundary of the iris and the pupillary boundary. The localized iris area is transform into polar coordinates. After performing three times Wavelet transformation, normalization was done using sigmoid function. The converting binary process performs normalized value of pixel from 0 to 255 to be binary value, and then the converting binary process is compare pairs of two adjacent pixels. The binary code of the iris is transmitted to the by server. the network. In the server, the comparing process compares the binary value of presented iris to the reference value in the University database. Process of recognition or rejection is dependent on the value of Hamming Distance. After matching the binary value of presented iris with the database stored in the server, the result is transmitted to the client.

  • PDF

스테레오 영상 보정 알고리즘에 기반한 새로운 중간시점 영상합성 기법 (A New Intermediate View Reconstruction Scheme based-on Stereo Image Rectification Algorithm)

  • 박창주;고정환;김은수
    • 한국통신학회논문지
    • /
    • 제29권5C호
    • /
    • pp.632-641
    • /
    • 2004
  • 본 논문에서는 비교정 상태의 스테레오 입력영상에 영상보정 알고리즘을 적용한 새로운 중간시점 영상합성 기법을 제시하고 그 성능을 분석하였다. 제시된 방법에서는 먼저, 좌, 우 스테레오 영상의 각 화소 간들에 대한 유사도 및 모서리 검출을 통해 특징점을 추출한 다음, 이들 특징점을 이용하여 스테레오 영상간의 움직임 벡터와 에피폴라 선을 검출하였다. 그리고 스테레오 영상간의 수평선을 일치시킴으로써 좌, 우 스테레오 영상을 보정하고 최적으로 적응적 변위추정 기법을 이용하여 최적화된 중간시점 영상을 합성하였다. CCETT의 'Man' 영상과 스테레오 카메라를 사용하여 촬영한 '사람' 및 '자동차' 영상을 사용한 중간영상 합성 실험결과 본 논문에서 제안된 보정기법으로 교정된 스테레오 영상의 경우가 비교정 상태에 비해 'Man' 영상은 3.6㏈, '사람' 및 '자동차' 영상은 2.59㏈, 1.47㏈의 PSNR이 각각 개선됨이 분석됨으로써 본 논문에서 새로이 제시한 스테레오 영상 보정 알고리즘 기반의 중간시점 영상합성 기법의 실질적 응용 가능성을 제시하였다.

2-라인 레이저를 사용한 3차원 형상 복원기술 개발 (Three-dimensional Geometrical Scanning System Using Two Line Lasers)

  • 허상휴;이충규
    • 한국광학회지
    • /
    • 제27권5호
    • /
    • pp.165-173
    • /
    • 2016
  • 본 연구는 2개의 라인 레이저를 이용하여 3차원 형상을 획득하는 방법에 대해 제안한다. 제안하는 방법은 532 nm와 630 nm 파장의 레이저를 이용하여 2-라인 레이저를 생성하고 이를 대상객체에 조사하여 반사되는 빛을 영상센서로 획득하는 것을 통해 3차원 점 데이터를 연산한다. 이를 위해 레이저와 카메라 간의 위치를 결정하고 각 레이저의 평면 방정식 계수를 추정하며 삼각법을 통해 이미지 공간의 라인을 3차원 공간의 점으로 변환한다. 제안하는 시스템은 2개의 라인 레이저와 데이터 정합을 위한 스태핑 모터 제어부와 영상을 획득하고 레이저의 라인을 추출하는 영상처리부, 그리고 추출된 라인으로부터 3차원 점 데이터를 처리하고 3D 모델을 생성하는 3D 모델링부로 나뉜다. 제안하는 방법은 기존 단일 레이저 스캐닝 방식과 비교하여 가려짐으로 인해 발생하는 데이터 소실문제를 해결할 수 있다.

비디오 시퀀스의 움직임 추적 알고리즘 (Motion vector-tracing algorithms of video sequence)

  • 이재현
    • 한국컴퓨터산업학회논문지
    • /
    • 제3권7호
    • /
    • pp.927-936
    • /
    • 2002
  • 본 논문은 비디오의 효율적인 내용기반 검색을 지원하기 위해 움직임벡터의 특징을 검출하였다. 이를 위해 비디오의 현재 프레임을 일정한 크기의 블록으로 나누고 시간 축상 기준이 되는 프레임에서 각 블록의 움직임을 추정하는 블록정합 알고리즘을 이용하였다. 하지만 블록 정합법의 경우 여러 가지 제약 조건과 함께 블록 정합법에 의해 얻어지는 벡터가 실제 움직임과 상이한 경우도 발생한다. 이러한 문제점을 해결하기 위해서 전역탐색방식을 응용했으나 이 방법은 계산량이 많다는 단점이 있다. 그 대안으로 본 논문에서는 탐색범위를 $\pm$15로 제안하고 탐색은 정수화소로 제한하였다. 결과 본 논문에서는 인접 블록의 움직임 벡터를 이용하여 좀 더 정확한 움직임 벡터의 예측을 행할 수 있었다. 하지만 참조되는 블록 벡터가 여러 개가 발생되기 때문에 이러한 부가 정보를 수신단에 전송해야 하는 부담을 안는다. 따라서, 각 블록의 움직임 특징을 예측하고 이에 알맞은 탐색 범위를 설정하는 문제도 고려하였다. 제시된 알고리즘을 바탕으로 움직임 보상을 위한 움직임 추정 기법을 고찰하고 이를 적용한 결과를 제시한다.

  • PDF

Mammogram에서 동질성과 지형적 높이정보 해석에 의한 종양의 추출 (Detection of Mass by using Homogeneity and Topographic Analysis on Mammogram)

  • 유승화;김선주;김진환
    • 한국멀티미디어학회논문지
    • /
    • 제5권2호
    • /
    • pp.141-146
    • /
    • 2002
  • 제안된 연구는 유방촬영영상(Mammogram)에서 종양의 추출에 관한 연구로서, 맘모그램의 특성을 파악하여 종양에 대한 자동적인 추출을 시행하였다. 종양추출을 위한 1차 추출과정에서는 정상의 유방실질로부터 종양조직을 분리하기 위하여 동질성 추출방법을 사용하였다. 2차 추출과정에서는 입력영상의 명암값을 두 단계의 지형적 고도로 해석한 이 분화영상으로 표현하여 이중원형성 검사와 화소 분포 검사를 시행하였다. 이것은 종양의 공간분포를 고려하여 두 두분의 고도에서 원형성과 화소 분포의 일관성을 검사하는 특성을 지니고 있다. 최종적인 종양의 결정은 각 후보에 대한 반구 형태의 템플리트를 생성하여 비교하는 방법을 이용하였다. 템플리트 비교방법은 종양의 형태적 특성인 공간원형성을 고려하여 종양과 후보의 순위 비교에 사용되었다. 실험 결과는 총 180장의 영상에서 종양이 포함된 89 개의 영상 가운데, 85사례의 영상에서 종양을 추출하여 95.51%의 민감도를 얻었다.

  • PDF

Development of a Data Reduction Algorithm for Optical Wide Field Patrol (OWL) II: Improving Measurement of Lengths of Detected Streaks

  • Park, Sun-Youp;Choi, Jin;Roh, Dong-Goo;Park, Maru;Jo, Jung Hyun;Yim, Hong-Suh;Park, Young-Sik;Bae, Young-Ho;Park, Jang-Hyun;Moon, Hong-Kyu;Choi, Young-Jun;Cho, Sungki;Choi, Eun-Jung
    • Journal of Astronomy and Space Sciences
    • /
    • 제33권3호
    • /
    • pp.221-227
    • /
    • 2016
  • As described in the previous paper (Park et al. 2013), the detector subsystem of optical wide-field patrol (OWL) provides many observational data points of a single artificial satellite or space debris in the form of small streaks, using a chopper system and a time tagger. The position and the corresponding time data are matched assuming that the length of a streak on the CCD frame is proportional to the time duration of the exposure during which the chopper blades do not obscure the CCD window. In the previous study, however, the length was measured using the diagonal of the rectangle of the image area containing the streak; the results were quite ambiguous and inaccurate, allowing possible matching error of positions and time data. Furthermore, because only one (position, time) data point is created from one streak, the efficiency of the observation decreases. To define the length of a streak correctly, it is important to locate the endpoints of a streak. In this paper, a method using a differential convolution mask pattern is tested. This method can be used to obtain the positions where the pixel values are changed sharply. These endpoints can be regarded as directly detected positional data, and the number of data points is doubled by this result.