• 제목/요약/키워드: virtual camera

검색결과 477건 처리시간 0.024초

가상 포토센서 배열을 탑재한 항만 자동화 자을 주행 차량 (The Vision-based Autonomous Guided Vehicle Using a Virtual Photo-Sensor Array (VPSA) for a Port Automation)

  • 김수용;박영수;김상우
    • 제어로봇시스템학회논문지
    • /
    • 제16권2호
    • /
    • pp.164-171
    • /
    • 2010
  • We have studied the port-automation system which is requested by the steep increment of cost and complexity for processing the freight. This paper will introduce a new algorithm for navigating and controlling the autonomous Guided Vehicle (AGV). The camera has the optical distortion in nature and is sensitive to the external ray, the weather, and the shadow, but it is very cheap and flexible to make and construct the automation system for the port. So we tried to apply to the AGV for detecting and tracking the lane using the CCD camera. In order to make the error stable and exact, this paper proposes new concept and algorithm for obtaining the error is generated by the Virtual Photo-Sensor Array (VPSA). VPSAs are implemented by programming and very easy to use for the various autonomous systems. Because the load of the computation is light, the AGV utilizes the maximal performance of the CCD camera and enables the CPU to take multi-tasks. We experimented on the proposed algorithm using the mobile robot and confirmed the stable and exact performance for tracking the lane.

평면 및 수직 운동하는 카메라에서 유용한 영상 역투영 속성들 (Useful Image Back-projection Properties in Cameras under Planar and Vertical Motion)

  • 김민환;변성민
    • 한국멀티미디어학회논문지
    • /
    • 제25권7호
    • /
    • pp.912-921
    • /
    • 2022
  • Autonomous vehicles equipped with cameras, such as robots, fork lifts, or cars, can be found frequently in industry sites or usual life. Those cameras show planar motion because the vehicles usually move on a plane. Sometimes the cameras in fork lifts moves vertically. The cameras under planar and vertical motion provides useful properties for horizontal or vertical lines that can be found easily and frequently in our daily life. In this paper, some useful back-projection properties are suggested, which can be applied to horizontal or vertical line images captured by a camera under planar and vertical motion. The line images are back-projected onto a virtual plane that is parallel to the planar motion plane and has the same orientation at the camera coordinate system regardless of camera motion. The back-projected lines on the virtual plane provide useful information for the world lines corresponding to the back-projected lines, such as line direction, angle between two horizontal lines, length ratio of two horizontal lines, and vertical line direction. Through experiments with simple plane polygons, we found that the back-projection properties were useful for estimating correctly the direction and the angle for horizontal and vertical lines.

방송 콘텐츠의 후반 제작을 위한 카메라 추적 시스템 (A Camera Tracking System for Post Production of TV Contents)

  • 오주현;남승진;전성규;손광훈
    • 방송공학회논문지
    • /
    • 제14권6호
    • /
    • pp.692-702
    • /
    • 2009
  • 과거 값비싼 워크스테이션에서만 구현 가능했던 실시간 가상스튜디오를 이제는 하드웨어의 발달로 개인용 컴퓨터에서도 운용할 수 있게 되었다. 그럼에도 불구하고 여전히 실시간 제작의 그래픽 품질에는 한계가 있기 때문에 영화나 드라마에서는 후반 제작(post production)으로 그래픽을 합성하는 것이 일반적이다. 그러나 후반 제작을 위한 순수 영상 기반 카메라 추적은 많은 작업 시간을 요하며, 자주 불안정한 결과를 보인다. 이를 극복하기 위해 가상스튜디오와 마찬가지로 촬영 단계에서 카메라 모션 데이터를 센서로부터 수신하되, 이를 저장하여 후반제작에서 활용할 수 있는 시스템(POVIS: post virtual imaging system)을 제안하였다. 실사와 그래픽의 매끄러운 정합을 위해서는 정확한 카메라 캘리브레이션이 선행되어야 하는데, 이를 위해 두 장의 평면 패턴만을 이용하여 간단하게 수행할 수 있는 캘리브레이션 방법을 사용하였다. 또한 카메라 센서 데이터는 기계적 부정합 등으로 인해 약간의 오류를 포함하게 되는데, Kalman 필터를 이용하여 이를 줄이는 방법을 제안하였다. 개발된 POVIS는 다큐멘터리 제작에 사용되어 작업 시간을 크게 단축시키고, 특징점의 부재로 인해 기존의 방법을 적용할 수 없는 영상에서의 카메라 추적을 성공적으로 수행하였다.

전방 모노카메라 기반 SLAM 을 위한 다양한 특징점 초기화 알고리즘의 성능 시뮬레이션 (Performance Simulation of Various Feature-Initialization Algorithms for Forward-Viewing Mono-Camera-Based SLAM)

  • 이훈;김철홍;이태재;조동일
    • 제어로봇시스템학회논문지
    • /
    • 제22권10호
    • /
    • pp.833-838
    • /
    • 2016
  • This paper presents a performance evaluation of various feature-initialization algorithms for forward-viewing mono-camera based simultaneous localization and mapping (SLAM), specifically in indoor environments. For mono-camera based SLAM, the position of feature points cannot be known from a single view; therefore, it should be estimated from a feature initialization method using multiple viewpoint measurements. The accuracy of the feature initialization method directly affects the accuracy of the SLAM system. In this study, four different feature initialization algorithms are evaluated in simulations, including linear triangulation; depth parameterized, linear triangulation; weighted nearest point triangulation; and particle filter based depth estimation algorithms. In the simulation, the virtual feature positions are estimated when the virtual robot, containing a virtual forward-viewing mono-camera, moves forward. The results show that the linear triangulation method provides the best results in terms of feature-position estimation accuracy and computational speed.

카메라 교정 및 측정부 회전을 이용한 가상현실 기기의 전역 왜곡 측정법 (Full-field Distortion Measurement of Virtual-reality Devices Using Camera Calibration and Probe Rotation)

  • 양동근;강필성;김영식
    • 한국광학회지
    • /
    • 제30권6호
    • /
    • pp.237-242
    • /
    • 2019
  • 가상현실 기기의 렌즈는 사용자의 편의성을 위한 적은 부피와 높은 현실감을 위한 넓은 시야각을 동시에 만족시켜야 하기 때문에 왜곡 수차가 필연적으로 발생하는데, 일반적인 렌즈보다 시야각이 넓고 왜곡 수차가 크기 때문에 측정이 어렵다. 본 논문에서는 가상현실 기기의 특성을 고려한 두 가지 왜곡 측정 방법을 제안하였다. 하나는 카메라 교정 방법 기반의 다중 이미지를 이용한 왜곡 측정법이며, 또 다른 하나는 카메라를 포함한 측정부를 직접 회전시켜 왜곡을 측정하는 다중 측정점을 이용한 왜곡 측정법이다. 제안된 방법들의 검증을 위해 시판된 가상현실 기기인 Google Cardboard 제품의 왜곡을 측정하고 설계 데이터를 통한 시뮬레이션 결과와 비교하였으며, 두 방법으로 측정된 왜곡 값은 시뮬레이션 결과와 비교했을 때 잘 부합하는 것으로 나타났다.

RGB-D 카메라를 이용한 실시간 가상 현실 평면 추정 (A Real-time Plane Estimation in Virtual Reality Using a RGB-D Camera in Indoors)

  • 이주호;조정원
    • 디지털융복합연구
    • /
    • 제14권11호
    • /
    • pp.319-324
    • /
    • 2016
  • 실내에서 카메라를 이용한 로봇 응용이나 가상현실(Virtual Reality) 응용의 경우 평면을 찾고 추정하는 기술은 매우 중요한 기술이다. RGB-D 카메라의 경우 실내의 평면에서 질감 정보가 없는 평면에서도 3차원 관측 데이터를 얻을 수 있지만, 이미지 영역에서 점군 데이터(Point-cloud Data)를 처리하기 위해서는 많은 연산량이 필요하다. 더군다나 현재 관측되고 있는 평면의 개수가 몇 개인지 미리 알 수 없으며, 평면으로 검출(Plane Detection) 하더라도 강인하게 3차원에서 평면을 추정(Plane Estimation)하려면 추가적인 연산이 필요하다. 본 논문에서는 연속 데이터를 이용해 실시간으로 평면의 개수를 선택하며 평면을 추정하는 방법을 제시하고자 한다. 실험 결과를 통해 제안하는 방법이 전체 데이터를 처리하는 것에 비해 약 22배의 속도 개선을 가져 올 수 있음을 보였다.

가상 환경 생성을 위한 깊이 기반 메쉬 모델링 (Depth-based Mesh Modeling for Virtual Environment Generation)

  • 이원우;우운택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 컴퓨터소사이어티 추계학술대회논문집
    • /
    • pp.111-114
    • /
    • 2003
  • In this paper, we propose a depth-based mesh modeling method to generate virtual environment. The proposed algorithm constructs mesh model from unorganized point cloud obtained from a multi-view camera. We separate the point cloud consisting objects from the background. Then, we apply triangulation to each object and background. Since the objects and the background are modeled independently, it is possible to construct effective virtual environment. The application of proposed modeling method is applicable to entertainment, such as movie and video game and effective virtual environment generation.

  • PDF

두장의 사진을 이용한 광삼각법 삼차원측정 (Coordinate Measuring Technique based on Optical Triangulation using the Two Images)

  • 양주웅;이호재
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2000년도 추계학술대회 논문집
    • /
    • pp.76-80
    • /
    • 2000
  • This paper describes a coordinate measuring technique based on optical triangulation using the two images. To overcome the defect of structured light system which measures coordinate point by point, light source is replaced by CCD camera. Pixels in CCD camera were considered as virtual light source. The overall geometry including two camera images is modeled. Using this geometry, the formula for calculating 3D coordinate of specified point is derived. In a word, the ray from a virtual light source was reflected on measuring point and the corresponding image point was made on the other image. Through the simulation result, validation of formula is verified. This method enables to acquire multiple points detection by photographing.

  • PDF

얼굴 방향에 기반을 둔 컴퓨터 화면 응시점 추적 (A Gaze Tracking based on the Head Pose in Computer Monitor)

  • 오승환;이희영
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(3)
    • /
    • pp.227-230
    • /
    • 2002
  • In this paper we concentrate on overall direction of the gaze based on a head pose for human computer interaction. To decide a gaze direction of user in a image, it is important to pick up facial feature exactly. For this, we binarize the input image and search two eyes and the mouth through the similarity of each block ( aspect ratio, size, and average gray value ) and geometric information of face at the binarized image. We create a imaginary plane on the line made by features of the real face and the pin hole of the camera to decide the head orientation. We call it the virtual facial plane. The position of a virtual facial plane is estimated through projected facial feature on the image plane. We find a gaze direction using the surface normal vector of the virtual facial plane. This study using popular PC camera will contribute practical usage of gaze tracking technology.

  • PDF

다중 가상 카메라의 실시간 파노라마 비디오 스트리밍 기법 (Real-Time Panoramic Video Streaming Technique with Multiple Virtual Cameras)

  • 옥수열;이석환
    • 한국멀티미디어학회논문지
    • /
    • 제24권4호
    • /
    • pp.538-549
    • /
    • 2021
  • In this paper, we introduce a technique for 360-degree panoramic video streaming with multiple virtual cameras in real-time. The proposed technique consists of generating 360-degree panoramic video data by ORB feature point detection, texture transformation, panoramic video data compression, and RTSP-based video streaming transmission. Especially, the generating process of 360-degree panoramic video data and texture transformation are accelerated by CUDA for complex processing such as camera calibration, stitching, blending, encoding. Our experiment evaluated the frames per second (fps) of the transmitted 360-degree panoramic video. Experimental results verified that our technique takes at least 30fps at 4K output resolution, which indicates that it can both generates and transmits 360-degree panoramic video data in real time.