• 제목/요약/키워드: Pixel matching

검색결과 268건 처리시간 0.019초

웨이블릿 기반의 신경망과 불변 모멘트를 이용한 실시간 이동물체 인식 및 추적 방법 (Real-time Moving Object Recognition and Tracking Using The Wavelet-based Neural Network and Invariant Moments)

  • 김종배
    • 대한전자공학회논문지SP
    • /
    • 제45권4호
    • /
    • pp.10-21
    • /
    • 2008
  • 본 논문은 실시간 감시 시스템을 위한 웨이블릿(wavelet) 기반의 신경망과 불변 모멘트를 이용한 이동물체 인식과 추적 방법을 제안한다. 제안한 방법의 첫 번째인 움직임 후보영역 검출 단계에서는 연속된 두 프레임간의 차영상 분석 방법을 기반으로 하여 물체의 움직임에 의해 화소값 변화가 발생한 후보영역을 검출한다. 두 번째인 물체 인식 단계에서는 검출된 후보영역에 웨이블릿 신경망(wavelet neural network: WNN) 기반의 인식 방법을 사용하여 추적하고자하는 물체가 포함되어 있는지를 판별한다. 세 번째인 물체 추적 단계에서는 인식된 물체에 웨이블릿 불변 모멘트(invariant moments) 기반의 매칭 방법을 사용하여 인식된 이동 물체를 추적한다. 영상내에서 이동물체를 검출하기 위해 본 논문에서는 이전 영상과 현재 영상간의 화소밝기 차이에서 적응적 임계값(adaptive threholding)을 사용하여 주위 환경 변화에 강인한 이동물체 검출이 가능하였다. 또한 물체의 인식과 추적을 위해 웨이블릿 특징값을 사용함으로써, 계산 시간의 감소와 영상의 잡음에 의한 영향을 최소화시킬 수 있을 뿐만 아니라, 물체 인식 정확도가 향상되었다. 제안한 방법을 일반 도로에서 획득한 영상에서 실험한 결과, 자동차 검출율은 92.8%, 프레임당 처리 시간은 0.24초이다. 이것을 통해 제안한 방법은 실시간 지능형 교통 감시 시스템에 유용하게 적용될 수 있음을 알 수 있다.

정사영상과 DTED Level 2 자료에서 자동 추출한 지상기준점의 IKONOS 위성영상 모델링 적용 가능성 연구 (Application Possibility of Control Points Extracted from Ortho Images and DTED Level 2 for High Resolution Satellite Sensor Modeling)

  • 이태윤;김태정;박완용
    • 대한공간정보학회지
    • /
    • 제15권4호
    • /
    • pp.103-109
    • /
    • 2007
  • 고해상도 위성영상으로부터 수치고도자료와 정사영상을 생성하기 위해서는 센서모델을 수립해야 한다. 센서모델 수립에 필요한 지상기준점은 실측을 통해서 획득할 수 있지만, 이를 위해서는 많은 시간과 비용이 소요된다. 본 연구에서는 기존의 정사영상과 위성영상 간의 정합을 통해서 얻은 지상좌표와 그에 대응하는 높이를 Digital Terrain Elevation(DTED) Level 2 자료로부터 추출하여 IKONOS 위성영상 센서모델을 수립하기 위한 기준점을 획득하였다. 획득한 기준점으로 IKONOS 센서 모델을 수립하고 그 결과를 분석하여 이로부터 추출한 기준점이 IKONOS 위성영상의 센서모델 수립에 적합한지 여부를 알아보았다. 본 연구를 위해서 사용된 DTED Level 2는 공간해상도가 약30m이고, 절대 수평 정확도는 원형오차로 23m(WGS84 기준)이하이고 절대 수직 정확도가 평균해수면 기준으로 18m 이하인 수치고도모델이다. 정합에 사용된 기존 정사영상의 공간해상도는 1m이다. 본 연구에서는 DTED와 정사영상을 이용해서 추출한 기준점으로 수립한 IKONOS 센서모델의 성능을 분석하였다. 실측 기준점을 검사점으로 했을 때 수립된 모델의 독립적 성능은 약 $4{\sim}5$ 픽셀 정도였다. 또한 수치고도모델을 생성하고 이를 실측 기준점으로 생성한 수치고도모델과 육안으로 비교했을 때 서로 유사함을 알 수 있었으며, DTED 자료를 기준으로 산출한 높이 RMS 오차는 약 9 m였다. 이 결과로 보아 DTED Level 2와 정사영상을 이용해서 추출한 기준점이 IKONOS 센서 모델 수립에 적용될 수 있음을 알 수 있었다.

  • PDF

투사에 기초한 얼굴 인식 알고리즘들의 통계적 분석 (Statistical Analysis of Projection-Based Face Recognition Algorithms)

  • 문현준;백순화;전병민
    • 한국통신학회논문지
    • /
    • 제25권5A호
    • /
    • pp.717-725
    • /
    • 2000
  • 최근 수년간 얼굴인식에 관한 많은 알고리즘이 개발되었고 그 대다수가 view와 투사에 기초한 알고리즘이었다. 본 논문에서의 투사는 비단 직교 기저상에 영상을 투사하는 것으로 국한하지 않고 영상 화소값을 변환하는 일반적인 선형 변환으로써 상관관계, 주성분 분석, 클러스트링, gray scale 투사, 그리고 추적 필터매칭을 포함한다. 본 연구에서는 FERET 데이터베이스 상의 얼굴 영상을 평가한 알고리즘들을 세부적으로 분석하고자 한다. 투사에 기초한 알고리즘은 3단계로 구성된다. 첫 번째 단계는 off-line상에서 행하며 알고리즘 설계자에 의해 새로운 기저가 설정되거나 또는 학습을 통해 새로운 기저를 결정한다. 두 번째 단계는 on-line상에서 행해지며 영상을 설정된 새로운 기저상에 투사한다. 세 번째 단계는 on-line상에서 행해지며 영상내의 얼굴은 가장 인접한 이웃 분류자로 인식된다. 대부분의 평가 방법들은 단일 gallery 상에서의 성능 평가가 이루어짐으로써 알고리즘 성능을 충분히 측정하지 못하는 반면 본 연구에서는 독립된 galley들의 집합을 구성함으로써 각각의 다른 galley상에서 가지는 변화와 이들의 상대적 성능을 평가한\ulcorner.

  • PDF

단일카메라 마이크로 스테레오 4D-PTV (Single-Camera Micro-Stereo 4D-PTV)

  • 도덕희;조용범;이재민;김동혁;조효제
    • 대한기계학회논문집B
    • /
    • 제34권12호
    • /
    • pp.1087-1092
    • /
    • 2010
  • 단일카메라 기반의 마이크로 스테레오 PTV 측정시스템을 구축하였다. 단일의 카메라에 부착되는 마이크로 대물렌즈 후부에 2 개의 핀을 가진 얇은 원판을 설치하여 한 장의 영상에 스테레오 영상을 얻을 수 있었다. 스테레오 영상간의 동일한 입자영상을 대응시키기 위하여(matching) 반복계산 기반의 PTV 알고리듬을 구축하였다. 계산시간을 줄이기 위하여 에피폴라선을 이용하였으며 스테레오 영상으로부터 얻어진 동일입자들의 3 차원 위치정보(X, Y, Z)의 시간 이동량을 계산함으로써 3 차원 속도벡터를 구하였다. 측정시스템은 광원레이저(Ar-ion, 500mW), 1 대 카메라($1028{\times}1024$ pixel, 500fps), 2 개의 핀홀을 지닌 원판 및 호스트컴퓨터로 구성된다. 가상영상을 이용하여 2 개의 핀홀 간격과 핀홀 직경의 크기변화에 대한 측정알고리듬의 오차와 속도벡터 회복률 특성을 구하였다. 구축된 시스템을 마이크로후향단채널($H{\times}h{\times}W:\;36{\mu}m{\times}70{\mu}m{\times} 3000{\mu}m$) 유동의 측정에 적용하여 얻어진 결과를 수치계산 결과와의 비교로부터 정성적으로 일치한 결과를 얻었다.

고해상도 입체 위성영상 처리를 위한 무기준점 기반 상호표정 (Relative RPCs Bias-compensation for Satellite Stereo Images Processing)

  • 오재홍;이창노
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.287-293
    • /
    • 2018
  • 고해상도 입체 위성영상을 보다 정확하고 효율적으로 처리하기 위해서는 종시차를 제거한 정밀한 에피폴라 영상을 생성하는 것이 필요하다. 종시차 제거를 위해서는 두 입체 영상간의 정밀한 센서모델링이 선행되어야하는데, 이를 위해 일반적으로 지상 기준점을 이용한 번들 조정을 수행한다. 그러나 접근이 힘들거나, 참조 데이터를 확보하기 어려운 지역, 또는 절대적 위치 정확성이 크게 중요치 않은 경우에는 기준점을 활용하지 않고, 공액점(conjugate points)만을 활용한 상호표정을 수행하여야 한다. 항공, 지상 사진 등에 사용되는 프레임 카메라와는 달리, 위성 센서에 활용되는 푸쉬부룸 센서의 경우 상호 표정의 정확성 등의 분석의 검증이 필요하므로, 본 연구에서는 고해상도 입체 영상 처리를 위해 가장 많이 활용하는 RPCs의 무기준점 편위 보정을 통하여 상호표정의 정밀성을 분석하고 입체 영상 생성 시 종시차 달성의 정확성을 분석하였다. 연구 과정에서 공액점은 영상간의 매칭을 통해 생성하였고, 공액점의 오차를 고려하여 과대오차 제거 기법을 적용하여 필터링하였다. RPCs 편위보정은 affine과 다항식 기반으로 진행되었으며, 보정 후 RPCs의 투영 오차를 검토하였다. 최종적으로 에피폴라 영상을 생성하여 종시차를 평가하였으며, 그 결과 아리랑 3호 영상의 경우 2차 다항식으로 1픽셀 수준의 종시차를 달성할 수 있음을 알 수 있었다.

단일 카메라 캘리브레이션과 스테레오 카메라의 캘리브레이션의 비교 (Calibration Comparison of Single Camera and Stereo Camera)

  • 김의명;홍송표
    • 한국측량학회지
    • /
    • 제36권4호
    • /
    • pp.295-303
    • /
    • 2018
  • 스테레오 카메라 시스템은 물리적으로 고정된 기선길이를 가지고 있어 축척이 일정하나 스테레오 영상에서 매번 특징점 매칭을 통해서 상호표정요소를 결정할 경우 축척이 고정 되어 있지 않아 실제 3차원 좌표를 측정하기 어려운 문제점이 있다. 따라서 본 연구에서는 수정된 공선조건식을 이용하여 좌우측 카메라의 내부적인 특성 및 카메라간의 관계를 동시에 결정하는 스테레오 카메라 캘리브레이션을 수행하고 이를 단일 카메라 캘리브레이션과 비교하는 것을 목적으로 하였다. 실험을 통해 근거리에 촬영한 영상에서 결정한 3차원 거리를 비교하였을 경우 단일 캘리브레이션의 결과에서는 ${\pm}0.014m$의 평균제곱근오차가 발생한 반면 스테레오 카메라의 경우에는 오차가 거의 발생하지 않았기 때문에 스테레오 카메라 캘리브레이션의 3차원 거리의 정확도가 우수하게 나타났다. 에피폴라 영상의 종시차에 대한 비교에서는 스테레오 카메라를 이용한 경우가 단일 카메라의 경우 보다 평균제곱근오차가 최대 0.3 픽셀 정도의 차이를 보였으나 그 영향은 크지 않은 것으로 나타났다.

통계학적 학습을 이용한 머리와 어깨선의 위치 찾기 (Localizing Head and Shoulder Line Using Statistical Learning)

  • 권무식
    • 한국통신학회논문지
    • /
    • 제32권2C호
    • /
    • pp.141-149
    • /
    • 2007
  • 영상에서 사람의 머리위치를 찾는 문제에 있어서 어깨선 정보를 이용하는 것은 아주 유용하다. 영상에서 머리 외곽선과 어깨선의 형태는 일정한 변형을 유지하면서 같이 움직이므로 이를 ASM(Active Shape Model) 기법을 사용해서 통계적으로 모델링 할 수 있다. 그러나 ASM 모델은 국부적인 에지나 그래디언트에 의존하므로 배경 에지나 클러터 성분에 민감하다. 한편 AAM(Active Appearance Model) 모델은 텍스쳐 등을 이용하지만, 사람의 피부색, 머리색깔, 옷 색깔 등의 차이로 인해서 통계적인 학습방법을 쓰기가 어렵고, 전체 비디오에서 외모(Appearance)가 시간적으로 변한다. 따라서, 본 논문에서는 외모(Apperance) 모델을 변화에 따라 바꾸는 대신, 영상의 각 화소를 머리, 어깨, 배경으로 구분하는 분별적 외모 모델(discriminative appearance)를 사용한다. 실험을 통해서 제안된 방법이 기존의 기법에 비해서 포즈변화와 가려짐, 조명의 변화 등에 강인함을 보여준다. 또한 제안된 기법은 실시간으로 작동하는 장점 또한 가진다.

연속촬영 전자조사 문 영상을 이용한 오프라인 기반 치료 중 내부 장기 움직임 확인 시스템의 개발 (Development of an Offline Based Internal Organ Motion Verification System during Treatment Using Sequential Cine EPID Images)

  • 주상규;홍채선;허웅;김민규;한영이;신은혁;신정석;김진성;박희철;안성환;임도훈;최두호
    • 한국의학물리학회지:의학물리
    • /
    • 제23권2호
    • /
    • pp.91-98
    • /
    • 2012
  • 방사선치료 중 내부 장기의 움직임을 확인하고 이를 보정하는 것은 움직이는 종양에 정확히 방사선을 조사하는데 매우 중요한 역할을 한다. 실제 치료 중 획득한 연속촬영 전자조사 문(cine EPID) 영상을 이용해 치료 중 내부 장기 움직임을 추적하는 오프라인 기반 분석 시스템(IMVS, Internal-organ Motion Verification System using cine EPID)을 개발하였고 모형을 이용하여 개발된 시스템의 정확도와 유용성을 평가했다. IMVS는 cine EPID영상을 이용한 내부 장기 움직임 추적을 위해 내부 표지자를 이용한 유형 정합 알고리즘을 이용했다. 시스템의 성능평가를 위해 폐와 폐 종양을 묘사한 인체 모형과 이를 상하(SI, superior-inferior)방향으로 직선 운동시키는 구동 장치와 제어 프로그램을 고안했다. 모형을 4초 주기로 2 cm 직선 운동 시키면서 10 MV X선으로 3.3 fps, 6.6 fps속도로 cine EPID 영상($1,024{\times}768$ 해상도)를 획득했다. 획득된 cine EPID 영상은 IMVS를 이용하여 표적의 움직임을 추적하고 기존 외부 표지자를 이용한 비디오 영상 기반 추적시스템(RPM, Real-time Position Management, Varian, USA)으로부터 얻은 결과와 비교했다. 정량적 평가를 위해 두 시스템으로부터 움직임의 평균 주기(Peak-To-Peak), 진폭과 패턴(RMS, Root Mean Square)을 측정하여 비교했다. RPM과 IMVS로 측정한 폐 종양 모형의 움직임 주기는 각각 $3.95{\pm}0.02$ (RPM), $3.98{\pm}0.11$ (IMVS 3.3 fps), $4.005{\pm}0.001$ (IMVS 6.6 fps) 초로 실제움직임 주기인 4초와 잘 일치했다. IMVS로 획득한 모형 내부장기의 평균 움직임 진폭은 3.3 fps에서 $1.85{\pm}0.02$ cm, 6.6 fps에서 $1.94{\pm}0.02$ cm으로 실제 진폭 2 cm에 비해 각각 0.15 cm (오차 7.5%) 및 0.06 cm (오차 3%)의 차를 보였다. 움직임 신호의 일치성 평가를 위해 측정한 RMS는 0.1044 (IMVS 3.3 fps), 0.0480 (IMVS 6.6 fps)로 계획된 신호와 잘 일치 했다. cine EPID 영상을 이용하여 내부 표지자의 움직임을 추적하는 IMVS는 모형 실험에서 내부 장기의 움직임을 3% 오차 내에서 확인 가능했다. IMVS는 치료 중 내부장기 움직임을 측정하고 이를 사차원 방사선 치료계획과 비교하여 오차를 보정하는데 기여할 것으로 생각된다.