• 제목/요약/키워드: Image Matching.

검색결과 2,167건 처리시간 0.027초

SoC 하드웨어 설계를 위한 SIFT 특징점 위치 결정 알고리즘의 고정 소수점 모델링 및 성능 분석 (Fixed-Point Modeling and Performance Analysis of a SIFT Keypoints Localization Algorithm for SoC Hardware Design)

  • 박찬일;이수현;정용진
    • 대한전자공학회논문지SD
    • /
    • 제45권6호
    • /
    • pp.49-59
    • /
    • 2008
  • 본 논문에서는 SIFT(Scale Invariant Feature Transform) 알고리즘을 임베디드 환경에서 실시간으로 처리하기 위해 가장 연산량이 많은 특징점 위치 결정 단계를 고정 소수점 모델로 설계 및 분석하고 그에 근거한 하드웨어 구조를 제안한다. SIFT 알고리즘은 객체의 꼭지점이나 모서리와 같이 색상 성분의 차가 심한 구역에서 얻어진 특징점 주위 픽셀의 벡터성분을 추출하는 알고리즘으로, 현재 얼굴인식, 3차원 객체 인식, 파노라마, 3차원 영상 복원 작업의 핵심 알고리즘으로 연구 되고 있다. 본 알고리즘에 대한 최적의 하드웨어 구현을 위해 특징점 위치(Keypoint Localization)와 방향(Orient Assignment)에 대한 정확도, 오차율을 사용하여 고정 소수점 모델에서 각 중요 변수들의 비트 크기를 결정 한다. 얻어진 고정 소수점 모델은 원래의 부동 소수점 모델과 비교했을 때 정확도 93.57%, 오차율 2.72%의 결과를 보이며, 고정 소수점 모델은 부동 소수점 모델과 비교하여 제거된 특징점의 대부분이 두 영상에서 추출된 특징점 끼리의 매칭과정에서 불필요한 객체의 모서리 영역에 몰려있음을 확인했다. 고정 소수점 모델링 결과 ARM 400MHz 환경에서 약 3시간, Pentium Core2Duo 2.13GHz 환경에서 약 15초의 연산시간을 갖는 부동 소수점 모델이 동일한 환경에서 약 1시간과 10초의 연산시간을 가지며, 최적화된 고정 소수점 모델을 하드웨어로 구현 시 $10{\sim}15\;frame/sec$의 성능을 보일 것으로 예상한다.

다양한 디스플레이 장치를 위한 xy 색도도상에서의 색역 사상 및 확장 기법 (Gamut Mapping and Extension Method in the xy Chromaticity Diagram for Various Display Devices)

  • 조양호;권오설;손창환;박태용;하영호
    • 대한전자공학회논문지SP
    • /
    • 제43권1호
    • /
    • pp.45-54
    • /
    • 2006
  • 본 논문은 서로 다른 디스플레이 장치에서 동일한 입력 신호에 대해 일정한 색을 표현하기 위해, 디스플레이 장치의 특성화, 색 순응 모델, 색역 사상 및 확장 기법을 포함하는 색 정합 기술을 제안하였다. DTV 디스플레이 장치에서 일정한 색을 재현하기 위해서는 디스플레이 장치의 입출력 관계를 특성화하여야 하고, 기준 백색점 차이를 고려한 색 순응 모델을 적용하고, 및 각 디스플레이 장치가 표현할 수 있는 색역의 차를 보상하여야 한다. 본 논문에서는 채널간의 간섭을 고려하고 모델링의 정확도를 향상하기 위해, 기존 3채널 GOG(gam, offset, gamma) 모델을 향상하여 9개 채널에 독립적인 GOG 모델을 특성화 기법으로 사용하였다. 다음으로 입력 영상은 각 디스플레이 장치의 제한적인 색역을 보상하기 위해 조정되어야 한다. 본 논문에서는 원 영상의 휘도와 색상을 유지하고 xy 색도도상에서 채도는 향상하기 위한 색역 사상 및 확장 기법이 수행되었다. 상대적으로 인간 시각 특성에 민감한 휘도와 색상값은 입력값과 동일하게 유지하며, 채도 향상은 입력 및 출력 색역의 비율에 따라 변하게 된다. 또한 동영상을 DTV에 나타내기 위해서는 xy 색도도가 장치의 색역 경계 설정과 연산의 복잡도를 감소하기 위해 효과적이다. 결과적으로 제안된 방법을 입력 DTV신호에 대해 LCD 및 PDP 디스플레이 장치에 적용하면 각 장치에 따른 정확한 색 재현이 가능하다.

의류 검색용 회전 및 스케일 불변 이미지 분류 및 검색 기술 (Invariant Classification and Detection for Cloth Searching)

  • 황인성;조법근;전승우;최윤식
    • 방송공학회논문지
    • /
    • 제19권3호
    • /
    • pp.396-404
    • /
    • 2014
  • 의류 검색 분야는 의류의 비정형 특성으로 인해 매우 어려운 분야로 인식 오류 및 연산량을 줄이기 위한 노력이 많이 진행되어 왔으나 이를 위한 학습 및 인식 과정 전체에 대한 구체적인 사례가 없고 일부 관련 기술들은 아직 많은 한계를 보이고 있다. 이에 본 논문에서는 입력된 영상에서 사람 객체를 파악하여 착용한 의상으로부터 색상, 무늬, 질감 등 의상이 가질 수 있는 특성 정보를 분석하여, 이를 분류하고 검색하는 방법에 대한 전 과정을 구체적으로 보였다. 특히, 의류의 패턴 및 무늬 등을 구분하기 위한 비정형 의류 검색을 위한 LBPROT_35 디스크립터를 제안하였다. 이 제안 방식은 영상의 통계적 특징을 분석하는 기존의 LBP_ROT(Local Binary Pattern with ROTation-invariant) 방식에 추가로 원 영상에 크기 변화가 생겨도 검색해 낼 수 있도록 하는 특성이 추가된 것이며, 이를 통해 비정형 의류 검색 시 옷이 회전되어 있거나 스케일에 변화가 있어도 높은 검색율을 얻을 수 있게 되었다. 또한 색 공간을 11개의 구간으로 양자화 하는 방식을 이용하여 컬러 분류를 구현하여, 의류 검색에 있어서 중요한 컬러 유사성을 상실하지 않도록 하였다. 한편, 인터넷 상의 의류 사진들로부터 추출한 총 810장의 트레이닝 이미지로 데이터베이스를 구축하고 이들 중 36장을 질의영상으로 테스트 한 결과, 94.4%의 인식률을 보이는 등 Dense-SIFT 대비 높은 인식률을 보였다.

어안렌즈를 이용한 비전 기반의 이동 로봇 위치 추정 및 매핑 (Vision-based Mobile Robot Localization and Mapping using fisheye Lens)

  • 이종실;민홍기;홍승홍
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.256-262
    • /
    • 2004
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다. 본 논문에서는 어안렌즈를 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특징을 갖는 고급의 영상 특징을 구하고, 이 특징들을 맵 빌딩과 위치 추정에 이용하였다. 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 이용하여 보정된 영상에서 천정영역과 벽영역으로 분할한다. 최초 맵 빌딩시에는 분할된 영역에 대해 특징점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특징점들을 구하고 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맵에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩 과정과 맵 상에서 로봇의 위치를 찾는데 이용된다. 로봇의 위치에서 구해진 특징점들은 로봇의 실제 위치를 추정하기 위해 기존의 맵과 매칭을 행하고 동시에 기존의 맵 데이터베이스는 갱신된다. 제안한 방법을 적용하면 50㎡의 영역에 대한 맵 빌딩 소요 시간은 2분 이내, 위치 추정시 위치 정확도는 ±13cm, 로봇의 자세에 대한 각도 오차는 ±3도이다.

  • PDF

복잡한 환경에서 Grid기반 모폴리지와 방향성 에지 연결을 이용한 차선 검출 기법 (Lane Detection in Complex Environment Using Grid-Based Morphology and Directional Edge-link Pairs)

  • 림청;한영준;한헌수
    • 한국지능시스템학회논문지
    • /
    • 제20권6호
    • /
    • pp.786-792
    • /
    • 2010
  • 본 논문은 복잡한 도로 환경에서 차선을 정확하게 찾는 실시간 차선 검출법을 보인다. 기존의 많은 방법들은 대게 후처리 과정에서 차선 안쪽에 존재하는 잡음을 찾아 차선의 위치를 찾지만, 제안하는 방법은 특징 추출 단계에서 가능한 많은 잡음을 제거하므로 후처리 과정에서 검색 영역을 최소화한다. grid기반 모폴로지 연산은 우선 관심영역을 능동적으로 생성한 후, 모폴로지의 닫기 연산을 통해 에지 들을 연결한다. 그리고 방향성 에지 연결 기법을 통하여 유효한 방향에지를 찾고 사전에 구해진 영상 내 차선의 높이와 두 차선 간의 폭 관계를 이용하여 두 개의 차선을 군집화한다. 마지막으로 차선의 색상은 YUV색상 공간에서 두 개의 연결된 에지 안쪽을 검사하여 Bayesian확률 모델을 사용하여 추정한다. 제안하는 방법의 실험 결과는 다수의 불필요한 에지 군집이 존재하는 복잡한 도로 환경에서 효과적으로 도로 에지를 감별하였으며, 제안하는 알고리즘은 해상도 $320{\times}240$ 영상으로 10ms/frame의 속도에서 약92%의 정확도를 보였다.

Otsu의 방법을 개선한 멀티 스래쉬홀딩 방법 (A Multi-thresholding Approach Improved with Otsu's Method)

  • 이철학;김상운
    • 전자공학회논문지CI
    • /
    • 제43권5호
    • /
    • pp.29-37
    • /
    • 2006
  • 스레쉬홀딩(thresholding)은 영상 화소의 군집이나 강도를 이용하여 영상을 분할하는 기본 기술이다. Otsu의 스레쉬홀딩 방법에서는 정규화 된 히스토그램을 이산 밀도함수로 보아 화소의 클래스 간 분산을 최대화시키는 판별식을 이용한다. 그러나 Otsu의 방법에서는 여러 객체로 이루어진 영상에서 최적의 스레쉬홀드를 찾기 위하여 그레이레벨 전 구간에 대해 모든 가능한 분산 값을 반복적으로 계산해 보아야 하기 때문에 계산 시간이 길게 걸리는 문제가 있다. 본 논문에서는 Otsu의 방법을 개선하여 간단하지만 고속으로 멀티-레벨의 스레쉬홀드 값을 구할 수 있는 방법을 제안한다. 전체 그레이 구간 영역에 대하여 Otsu의 방법을 적용시키기 보다는 먼저 그레이 영역을 작은 부분-구간으로 나눈 다음 Otsu의 방법을 적용시키는 처리를 반복하여 원하는 개수의 스레쉬홀드를 구하는 방법이다. 본 제안 방법에서는 맨 처음 대상 영상의 그레이 구간을 2부류로 나눈다. 이 때, 분할을 위한 스레쉬홀드는 전 구간을 대상으로 Otsu의 방법을 적용하여 구한다. 그 다음에는 전체 구간이 아닌 분할된 부분-구간을 대상으로 Otsu의 방법을 적용하여 두 부류를 4부류로 나눈다. 이와 같은 처리를 원하는 개수의 스레쉬홀드를 얻을 때 까지 반복한다. 세 종류 벤취마크 영상과 50개 얼굴영상에 대해 실험한 결과, 제안 방법은 대상 영상을 특성에 맞게 고속으로 잘 분할하였으며, 패턴 매칭이나 얼굴인식에 이용될 수 있는 가능성을 확인하였다.

노이즈에 강인한 지문 융선의 방향 추출 알고리즘 (Robust Orientation Estimation Algorithm of Fingerprint Images)

  • 이상훈;이철한;최경택;김재희
    • 대한전자공학회논문지SP
    • /
    • 제45권1호
    • /
    • pp.55-63
    • /
    • 2008
  • 지문의 방향 정보는 융선 강화, 정합, 분류기 등과 같이 전반적인 지문 인식 알고리즘의 기반 정보로 사용하므로 방향 정보의 오차는 지문 인식 성능에 직접적인 영향을 준다. 지문의 방향은 대부분의 영역에서는 융선의 흐름이 완만하게 변하는 전역적인 특성과 중심점(core point)이나 삼각주(delta point)와 같은 특이점(singular point) 부근에서 융선의 흐름이 급격히 변하는 지역적인 특성을 모두 갖고 있다. 따라서 융선의 방향 추출 시에 지역적인 특성만 강조하면 특이점 부근에서의 방향 변화를 민감하게 표현해 줄 수 있지만 노이즈에 취약한 단점이 발생하고 전역적인 특성만 강조하면 노이즈에 강인한 특성을 보이지만 특이점 부근에서 방향 변화에 둔감해진다. 본 논문에서는 지역적인 특성에 민감하면서도 노이즈에 강인한 적응적 지문 방향 추출 방법에 대하여 제안하였다. 또한, 상처에 의해 발생되는 방향성 노이즈는 반복 회귀 진단으로 이상치(outlier)들을 선별하여 제거함으로써 이에 대한 영향을 최소화하였다. 그리고 영역별로 측정 사이즈를 다르게 하여 노이즈에 강인하면서 특이점 부근에서는 융선 변화에 민감하게 방향을 추정하였다. 제안 방법의 평가를 위해 인조 지문(synthetic fingerprint)과 지문 인식의 성능 평가용으로 많이 사용되는 FVC 2002 데이터베이스를 사용하였다. 융선 방향 추출의 정확성은 융선의 방향 값을 사전에 알고 있는 인조 지문 데이터를 생성하여 평가하였고 최종 지문 인식 성능의 평가는 FVC 2002 데이터베이스를 사용하였다.

고해상도 입체 위성영상 처리를 위한 무기준점 기반 상호표정 (Relative RPCs Bias-compensation for Satellite Stereo Images Processing)

  • 오재홍;이창노
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.287-293
    • /
    • 2018
  • 고해상도 입체 위성영상을 보다 정확하고 효율적으로 처리하기 위해서는 종시차를 제거한 정밀한 에피폴라 영상을 생성하는 것이 필요하다. 종시차 제거를 위해서는 두 입체 영상간의 정밀한 센서모델링이 선행되어야하는데, 이를 위해 일반적으로 지상 기준점을 이용한 번들 조정을 수행한다. 그러나 접근이 힘들거나, 참조 데이터를 확보하기 어려운 지역, 또는 절대적 위치 정확성이 크게 중요치 않은 경우에는 기준점을 활용하지 않고, 공액점(conjugate points)만을 활용한 상호표정을 수행하여야 한다. 항공, 지상 사진 등에 사용되는 프레임 카메라와는 달리, 위성 센서에 활용되는 푸쉬부룸 센서의 경우 상호 표정의 정확성 등의 분석의 검증이 필요하므로, 본 연구에서는 고해상도 입체 영상 처리를 위해 가장 많이 활용하는 RPCs의 무기준점 편위 보정을 통하여 상호표정의 정밀성을 분석하고 입체 영상 생성 시 종시차 달성의 정확성을 분석하였다. 연구 과정에서 공액점은 영상간의 매칭을 통해 생성하였고, 공액점의 오차를 고려하여 과대오차 제거 기법을 적용하여 필터링하였다. RPCs 편위보정은 affine과 다항식 기반으로 진행되었으며, 보정 후 RPCs의 투영 오차를 검토하였다. 최종적으로 에피폴라 영상을 생성하여 종시차를 평가하였으며, 그 결과 아리랑 3호 영상의 경우 2차 다항식으로 1픽셀 수준의 종시차를 달성할 수 있음을 알 수 있었다.

단일 카메라 캘리브레이션과 스테레오 카메라의 캘리브레이션의 비교 (Calibration Comparison of Single Camera and Stereo Camera)

  • 김의명;홍송표
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.295-303
    • /
    • 2018
  • 스테레오 카메라 시스템은 물리적으로 고정된 기선길이를 가지고 있어 축척이 일정하나 스테레오 영상에서 매번 특징점 매칭을 통해서 상호표정요소를 결정할 경우 축척이 고정 되어 있지 않아 실제 3차원 좌표를 측정하기 어려운 문제점이 있다. 따라서 본 연구에서는 수정된 공선조건식을 이용하여 좌우측 카메라의 내부적인 특성 및 카메라간의 관계를 동시에 결정하는 스테레오 카메라 캘리브레이션을 수행하고 이를 단일 카메라 캘리브레이션과 비교하는 것을 목적으로 하였다. 실험을 통해 근거리에 촬영한 영상에서 결정한 3차원 거리를 비교하였을 경우 단일 캘리브레이션의 결과에서는 ${\pm}0.014m$의 평균제곱근오차가 발생한 반면 스테레오 카메라의 경우에는 오차가 거의 발생하지 않았기 때문에 스테레오 카메라 캘리브레이션의 3차원 거리의 정확도가 우수하게 나타났다. 에피폴라 영상의 종시차에 대한 비교에서는 스테레오 카메라를 이용한 경우가 단일 카메라의 경우 보다 평균제곱근오차가 최대 0.3 픽셀 정도의 차이를 보였으나 그 영향은 크지 않은 것으로 나타났다.

통계학적 학습을 이용한 머리와 어깨선의 위치 찾기 (Localizing Head and Shoulder Line Using Statistical Learning)

  • 권무식
    • 한국통신학회논문지
    • /
    • 제32권2C호
    • /
    • pp.141-149
    • /
    • 2007
  • 영상에서 사람의 머리위치를 찾는 문제에 있어서 어깨선 정보를 이용하는 것은 아주 유용하다. 영상에서 머리 외곽선과 어깨선의 형태는 일정한 변형을 유지하면서 같이 움직이므로 이를 ASM(Active Shape Model) 기법을 사용해서 통계적으로 모델링 할 수 있다. 그러나 ASM 모델은 국부적인 에지나 그래디언트에 의존하므로 배경 에지나 클러터 성분에 민감하다. 한편 AAM(Active Appearance Model) 모델은 텍스쳐 등을 이용하지만, 사람의 피부색, 머리색깔, 옷 색깔 등의 차이로 인해서 통계적인 학습방법을 쓰기가 어렵고, 전체 비디오에서 외모(Appearance)가 시간적으로 변한다. 따라서, 본 논문에서는 외모(Apperance) 모델을 변화에 따라 바꾸는 대신, 영상의 각 화소를 머리, 어깨, 배경으로 구분하는 분별적 외모 모델(discriminative appearance)를 사용한다. 실험을 통해서 제안된 방법이 기존의 기법에 비해서 포즈변화와 가려짐, 조명의 변화 등에 강인함을 보여준다. 또한 제안된 기법은 실시간으로 작동하는 장점 또한 가진다.