• 제목/요약/키워드: Camera Model

검색결과 1,509건 처리시간 0.036초

비디오 데이터 분석에 의한 카메라의 동작 추출 (Extracting Camera Motions by Analyzing Video Data)

  • 장석우;이근수;최형일
    • 전자공학회논문지S
    • /
    • 제36S권8호
    • /
    • pp.65-80
    • /
    • 1999
  • 본 논문에서는 비디오 데이터를 분석하여 다양한 카메라의 동작을 정량적으로 추출하는 방법을 제안한다. 본 논문에서 제안하는 카메라의 동작 추출 방법은 어파인 모델을 이용한 방법으로 인접 영상으로부터 추출하는 동작 벡터를 어파인 모델에 적용하고 희귀분석법을 통해 어파인 모델을 구성하는 파라미터를 구한다. 그런 다음, 파라미터들의 크기를 분석하고 상호 관계를 해석하여 카메라의 동작을 추출한다. 본 논문에서는 잡음이 포한된 동작 벡터를 필터링하여 사용하므로 잡음에 강건한 결과를 얻을 수 있다. 그리고 어파인 모델을 구성하는 파라미터만을 분석함으로써 카메라의 다양한 동작을 간단하면서도 비교적 정확하게 추출한다. 실험결과는 카메라의 동작을 정확하게 추출하고 있음을 보여준다.

  • PDF

스펙트럼 특성행렬을 이용한 효율적인 반사 스펙트럼 복원 방법 (Efficient Method for Recovering Spectral Reflectance Using Spectrum Characteristic Matrix)

  • 심규동;박종일
    • 한국멀티미디어학회논문지
    • /
    • 제18권12호
    • /
    • pp.1439-1444
    • /
    • 2015
  • Measuring spectral reflectance can be regarded as obtaining inherent color parameters, and spectral reflectance has been used in image processing. Model-based spectrum recovering, one of the method for obtaining spectral reflectance, uses ordinary camera with multiple illuminations. Conventional model-based methods allow to recover spectral reflectance efficiently by using only a few parameters, however it requires some parameters such as power spectrum of illuminations and spectrum sensitivity of camera. In this paper, we propose an enhanced model-based spectrum recovering method without pre-measured parameters: power spectrum of illuminations and spectrum sensitivity of camera. Instead of measuring each parameters, spectral reflectance can be efficiently recovered by estimating and using the spectrum characteristic matrix which contains spectrum parameters: basis function, power spectrum of illumination, and spectrum sensitivity of camera. The spectrum characteristic matrix can be easily estimated using captured images from scenes with color checker under multiple illuminations. Additionally, we suggest fast recovering method preserving positive constraint of spectrum by nonnegative basis function of spectral reflectance. Results of our method showed accurately reconstructed spectral reflectance and fast constrained estimation with unmeasured camera and illumination. As our method could be conducted conveniently, measuring spectral reflectance is expected to be widely used.

레이저 스캔 카메라 보정을 위한 성능지수기반 다항식 모델 (Performance Criterion-based Polynomial Calibration Model for Laser Scan Camera)

  • 백경동;천성표;김수대;김성신
    • 한국지능시스템학회논문지
    • /
    • 제21권5호
    • /
    • pp.555-563
    • /
    • 2011
  • 영상의 왜곡보정은 영상 좌표계(이미지)와 전역 좌표계(대상체)의 상관관계를 규정하는 것이다. 기존의 왜곡영상에 대한 보정은 카메라의 광학적 특성을 모델링하여 영상 좌표계와 전역 좌표계의 물리적 관계를 찾는 방식이 주를 이루고 있다. 본 논문에서는 성능 지수기반 다항식 모델을 이용하여 왜곡영상의 보정을 시도하였다. 성능지수기반 다항식 모델은 영상 좌표계와 전역 좌표계 사이의 상관관계를 다항식으로 가정한 후, 이미지와 대상체의 좌표 데이터와 성능지수를 이용하여 다항식 모델의 계수와 차수를 결정하는 방식이다. 제안한 성능지수기반 다항식 모델을 이용하여 기존의 왜곡영상을 보정방식이 가진 과대적합 문제와 같은 한계를 극복하고자 한다. 제안한 방법을 레이저 스캔 카메라로 획득한 2차원 영상에 적용하여 모델의 유효성을 검증하였다.

Video Augmentation by Image-based Rendering

  • Seo, Yong-Duek;Kim, Seung-Jin;Sang, Hong-Ki
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1998년도 Proceedings of International Workshop on Advanced Image Technology
    • /
    • pp.147-153
    • /
    • 1998
  • This paper provides a method for video augmentation using image interpolation. In computer graphics or augmented reality, 3D information of a model object is necessary to generate 2D views of the model, which are then inserted into or overlayed on environmental views or real video frames. However, we do not require any three dimensional model but images of the model object at some locations to render views according to the motion of video camera which is calculated by an SFM algorithm using point matches under weak-perspective (scaled-orthographic) projection model. Thus, a linear view interpolation algorithm is applied rather than a 3D ray-tracing method to get a view of the model at different viewpoints from model views. In order to get novel views in a way that agrees with the camera motion the camera coordinate system is embedded into model coordinate system at initialization time on the basis of 3D information recovered from video images and model views, respectively. During the sequence, motion parameters from video frames are used to compute interpolation parameters, and rendered model views are overlayed on corresponding video frames. Experimental results for real video frames and model views are given. Finally, discussion on the limitations of the method and subjects for future research are provided.

  • PDF

MOBA 게임 카메라 밸런스 개선을 위한 영향요소 분석 - 중심으로 (Study on Influencing Factors of Camera Balance in MOBA Games - Focused on )

  • 이정;조동민
    • 한국멀티미디어학회논문지
    • /
    • 제23권12호
    • /
    • pp.1565-1575
    • /
    • 2020
  • This study examines the game balance of the MOBA game genre, which was selected as a model item for the Asian Games. The "bird-eye view" was used for a more efficient representation of 3D modeling. Based on that, statistical analysis was conducted to present appropriate game camera settings and camera balance to match the competitive structure of the MOBA game. A review of the game camera settings reveals that 64° to 70° is the angle that minimizes the difference in vision between the two-player teams the most. Through a one-way ANOVA analysis, we found that the user ranking level and SVB value are closely related. Therefore, the factor of the regression equation using the SVB value must have a user ranking level. As a result of the optimized camera focus analysis of , the camera setting methods were classified into 3 types. For main action games, the recommended camera angle is 64°~66°, and the recommended camera focus is 11.2 mm~19.3 mm. For action and strategy games, the camera angle is 66°~68°, camera focus - 19.3 mm~27.3 mm. And lastly, for the main strategy game, the recommended camera angle is 68°~70°, and the camera focus is 27.3 mm~35.3 mm.

다시점 RGB-D 카메라를 이용한 실시간 3차원 체적 모델의 생성 (Real-time 3D Volumetric Model Generation using Multiview RGB-D Camera)

  • 김경진;박병서;김동욱;권순철;서영호
    • 방송공학회논문지
    • /
    • 제25권3호
    • /
    • pp.439-448
    • /
    • 2020
  • 본 논문에서는 다시점 RGB-D 카메라의 포인트 클라우드 정합을 위한 수정된 최적화 알고리즘을 제안한다. 일반적으로 컴퓨터 비전 분야에서는 카메라의 위치를 정밀하게 추정하는 것은 매우 중요하다. 기존의 연구에서 제안된 3D 모델 생성 방식들은 많은 카메라 대수나 고가의 3차원 Camera를 필요로 한다. 또한 2차원 이미지를 통해 카메라 외부 파라미터를 얻는 방식들은 큰 오차를 가지고 있다. 본 논문에서는 저가의 RGB-D 카메라를 8개 사용하여 전방위 자유시점을 제공할 수 있는 3차원 포인트 클라우드 및 매쉬 모델을 생성하기 위한 정합 기법을 제안하고자 한다. RGB영상과 함께 깊이지도 기반의 함수 최적화 방식을 이용하고, 초기 파라미터를 구하지 않으면서 고품질의 3차원 모델을 생성할 수 있는 좌표 변환 파라미터를 구하는 방식을 제안한다.

줌렌즈 CCD 카메라의 기하학적 검정 정확도 평가 (Evaluation for Geometric Calibration Accuracy of Zoom-lens CCD Camera)

  • 유환희;정상용;김성삼
    • 한국측량학회지
    • /
    • 제21권3호
    • /
    • pp.245-254
    • /
    • 2003
  • 줌 렌즈 CCD 카메라는 사용상 많은 장점을 갖고 있으나 기하학적으로 불안정하여 카메라 검정이 어려운 문제점을 가지고 있으며 이것은 일반적으로 알려진 것과 같이 줌 카메라의 변수가 줌 위치에 따라 변화하기 때문이다. 본 연구에서는 줌 렌즈 CCD카메라의 변수계산과 3차원 위치정확도를 평가하기 위하여 Abdel-Aziz와 Karara가 제안한 DLT기법과 Tsai 기법을 비교분석하였다. 그 결과, 기준점을 대상물이 위치한 공간에 함께 배치할 경우에 Tsai와 DLT모델식에 의한 3차원 위치정확도는 두 방법 모두 비슷하였으나, 기준점과 대상물이 이격되는 경우 DLT에 비해 Tsai가 더 안정적임을 알 수 있었다. 따라서, 그 동안 많이 사용해 온 DLT기법의 변수 최적화를 위한 추가적인 연구가 3차원 위치 정확도 향상을 위해 필요하다고 판단된다.

스테레오 보정 카메라를 이용한 영상 기반 3차원 모델링에 관한 연구 (A Study on the Image-Based 3D Modeling Using Calibrated Stereo Camera)

  • 김효성;남기곤;주재흠;이철헌;설성욱
    • 융합신호처리학회논문지
    • /
    • 제4권3호
    • /
    • pp.27-33
    • /
    • 2003
  • 영상 기반 3차원 모델링은 카메라로부터 획득된 영상을 입력으로 하여 3차원 그래픽 모델을 생성하는 기술로 고가형 3D 스캐너의 대체 기술로 연구되어지고 있다 본 논문에서는 스테레오 보정 카메라를 이용한 영상 기반 3차원 모델링 시스템을 제안한다. 3차원 모델을 생성하기 위한 제안 알고리즘은 카메라 보정 단계, 3차원 좌표 복원 단계 3차원 좌표 등록 단계로 이루어진다. 카메라 보정 단계에서는 영상 획득용 카메라에 대한 카메라 행렬을 계산하며 3차원 좌표 복원 단계에서는 스테레오 영상의 일치점으로부터 삼각측량법에 의해 3차원 좌표를 복원한다. 3차원 좌표 등록 단계에서는 개별적으로 복원된 3차원 좌표의 단일 모델을 생성하기 위한 기준 좌표로의 변환을 추정하여 최종 3차원 모델을 생성한다 실험 결과 제안 알고리즘이 비교적 정확하게 .B차원 모델을 생성함을 확인하였다.

  • PDF

다중 카메라 시스템을 위한 전방위 Visual-LiDAR SLAM (Omni-directional Visual-LiDAR SLAM for Multi-Camera System)

  • 지샨 자비드;김곤우
    • 로봇학회논문지
    • /
    • 제17권3호
    • /
    • pp.353-358
    • /
    • 2022
  • Due to the limited field of view of the pinhole camera, there is a lack of stability and accuracy in camera pose estimation applications such as visual SLAM. Nowadays, multiple-camera setups and large field of cameras are used to solve such issues. However, a multiple-camera system increases the computation complexity of the algorithm. Therefore, in multiple camera-assisted visual simultaneous localization and mapping (vSLAM) the multi-view tracking algorithm is proposed that can be used to balance the budget of the features in tracking and local mapping. The proposed algorithm is based on PanoSLAM architecture with a panoramic camera model. To avoid the scale issue 3D LiDAR is fused with omnidirectional camera setup. The depth is directly estimated from 3D LiDAR and the remaining features are triangulated from pose information. To validate the method, we collected a dataset from the outdoor environment and performed extensive experiments. The accuracy was measured by the absolute trajectory error which shows comparable robustness in various environments.