• 제목/요약/키워드: virtual camera

검색결과 478건 처리시간 0.025초

용접접합부의 형상계측을 위한 주사형 시각센서의 설계에 관한 연구 (A Study on Design of Visual Sensor Using Scanning Beam for Shape Recognition of Weld Joint.)

  • 배강열
    • Journal of Welding and Joining
    • /
    • 제21권2호
    • /
    • pp.102-110
    • /
    • 2003
  • A visual sensor consisted of polygonal mirror, laser, and CCD camera was proposed to measure the distance to the weld joint for recognizing the joint shape. To scan the laser beam of the sensor onto an object, 8-facet polygonal mirror was used as the rotating mirror. By locating the laser and the camera at axi-symmetrical positions around the mirror, the synchronized-scan condition could be satisfied even when the mirror was set to rotate through one direction continuously, which could remove the inertia effect of the conventional oscillating-mirror methods. The mathematical modelling of the proposed sensor with the optical triangulation method made it possible to derive the relation between the position of an image on the camera and the one of a laser light on the object. Through the geometrical simulation of the proposed sensor with the principal of reflection and virtual image, the optical path of a laser light could be predicted. The position and direction of the CCD camera were determined based on the Scheimpflug's condition to fit the focus of any image reflected from an object within the field of view. The results of modelling and simulation revealed that the proposed visual sensor could be used to recognize the weld joint and its vicinity located within the range of the field of view and the resolution. (Received February 19, 2003)

Video Mosaics in 3D Space

  • Chon, Jaechoon;Fuse, Takashi;Shimizu, Eihan
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.390-392
    • /
    • 2003
  • Video mosaicing techniques have been widely used in virtual reality environments. Especially in GIS field, video mosaics are becoming more and more common in representing urban environments. Such applications mainly use spherical or panoramic mosaics that are based on images taken from a rotating camera around its nodal point. The viewpoint, however, is limited to location within a small area. On the other hand, 2D-mosaics, which are based on images taken from a translating camera, can acquire data in wide area. The 2D-mosaics still have some problems : it can‘t be applied to images taken from a rotational camera in large angle. To compensate those problems , we proposed a novel method for creating video mosaics in 3D space. The proposed algorithm consists of 4 steps: feature -based optical flow detection, camera orientation, 2D-image projection, and image registration in 3D space. All of the processes are fully automatic and successfully implemented and tested with real images.

  • PDF

포즈 추적 센서를 활용한 모바일 증강 가시화 기술 (Mobile Augmented Visualization Technology Using Vive Tracker)

  • 이동춘;김항기;이기석
    • 한국게임학회 논문지
    • /
    • 제21권5호
    • /
    • pp.41-48
    • /
    • 2021
  • 본 논문은 2개의 포즈(위치 및 회전) 추적 센서를 사용하여 마네킹 모델위에 3차원의 가상 인체를 증강하는 모바일 증강 가시화 기술에 대해서 소개한다. 증강 가시화를 위해 사용된 종래의 카메라 트래킹 기술은 카메라 영상을 사용하기 때문에 카메라의 떨림이나 빠른 이동시 카메라의 포즈 계산에 실패하는 단점이 있으나, 바이브 트래커를 이용하게 되면 이러한 단점을 극복할 수 있다. 또한 증강하고자 하는 객체인 마네킹의 위치가 바뀌거나 회전을 하게 되더라도 마네킹에 부착된 포즈 추적 센서를 사용하여 증강 가시화가 가능한 장점이 있으며 무엇보다 카메라 트래킹을 위한 부하가 없다는 장점을 가진다.

Virtual Environment Building and Navigation of Mobile Robot using Command Fusion and Fuzzy Inference

  • Jin, Taeseok
    • 한국산업융합학회 논문집
    • /
    • 제22권4호
    • /
    • pp.427-433
    • /
    • 2019
  • This paper propose a fuzzy inference model for map building and navigation for a mobile robot with an active camera, which is intelligently navigating to the goal location in unknown environments using sensor fusion, based on situational command using an active camera sensor. Active cameras provide a mobile robot with the capability to estimate and track feature images over a hallway field of view. In this paper, instead of using "physical sensor fusion" method which generates the trajectory of a robot based upon the environment model and sensory data. Command fusion method is used to govern the robot navigation. The navigation strategy is based on the combination of fuzzy rules tuned for both goal-approach and obstacle-avoidance. To identify the environments, a command fusion technique is introduced, where the sensory data of active camera sensor for navigation experiments are fused into the identification process. Navigation performance improves on that achieved using fuzzy inference alone and shows significant advantages over command fusion techniques. Experimental evidences are provided, demonstrating that the proposed method can be reliably used over a wide range of relative positions between the active camera and the feature images.

Development of a Camera Self-calibration Method for 10-parameter Mapping Function

  • Park, Sung-Min;Lee, Chang-je;Kong, Dae-Kyeong;Hwang, Kwang-il;Doh, Deog-Hee;Cho, Gyeong-Rae
    • 한국해양공학회지
    • /
    • 제35권3호
    • /
    • pp.183-190
    • /
    • 2021
  • Tomographic particle image velocimetry (PIV) is a widely used method that measures a three-dimensional (3D) flow field by reconstructing camera images into voxel images. In 3D measurements, the setting and calibration of the camera's mapping function significantly impact the obtained results. In this study, a camera self-calibration technique is applied to tomographic PIV to reduce the occurrence of errors arising from such functions. The measured 3D particles are superimposed on the image to create a disparity map. Camera self-calibration is performed by reflecting the error of the disparity map to the center value of the particles. Vortex ring synthetic images are generated and the developed algorithm is applied. The optimal result is obtained by applying self-calibration once when the center error is less than 1 pixel and by applying self-calibration 2-3 times when it was more than 1 pixel; the maximum recovery ratio is 96%. Further self-correlation did not improve the results. The algorithm is evaluated by performing an actual rotational flow experiment, and the optimal result was obtained when self-calibration was applied once, as shown in the virtual image result. Therefore, the developed algorithm is expected to be utilized for the performance improvement of 3D flow measurements.

3차원 공간 탐색을 위한 헬리콥터 조종사 메타포어와 그 구현 (Helicopter Pilot Metaphor for 3D Space Navigation and its implementation using a Joystick)

  • 김영경;정문렬;백두원;김동현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제3권1호
    • /
    • pp.57-67
    • /
    • 1997
  • 가상공간 탐색은 근본적으로 가상카메라의 조작으로 귀결된다. 이때 가상카메라는 자유도 6을 가지고 움직인다. 그러나 우리가 주로 사용하는 마우스나 조이스틱 등의 입력장치는 2D 장치이다. 따라서 입력장치의 운동에 대응되는 카메라의 운동은 어느 한 순간에는 2D운동이다. 그러므로 카메라의 6DOF(degrees of freedom) 운동은 2D 또는 1D 운동들의 결합으로 표현할 수밖에 없다. 많은 가상공간 탐색 브라우저에서는 이 문제를 해결하기 위해 여러 가지 탐색 모드를 사용한다. 그러나 다수의 모드를 설정하는데 사용된 기준이 분명하지 않고 각 모드에서 가능한 조작들이 서로 중복되는 경향이 있을 뿐만 아니라 입력장치의 감각 대응성(kinesthetic correspondence)이 미흡하기 때문에 사용자가 공간을 탐색할 때 상황을 장악하고 있다는 느낌을 가지기 힘들다. 이 문제를 해결하기 위해서는 일관적이면서도 포괄적인 단일 탐색 메타포어가 필요한데 본 논문에서는 이를 위해 헬리콥터 조종사 메타포어를 제안한다. 헬리콥터 조종사 메타포어를 이용한다는 것은 조종장치들에 의해 사용자가 공간에서 날고있는 가상 헬리콥터의 조종사가 되어 공간 영상을 탐색 한다는 의미이다. 본 논문에서는 헬리콥터의 6DOF 운동을 직관적으로 조작하기 위해서 이를 6개의 2D 운동공간, 즉, (1) 평면상의 이동, (2) 수직면상의 이동, (3) 현위치중심의 피치, 요회전, (4) 현위치중심의 롤, 피치회전, (5) 좌우상하 선회, (6) 물체중심회전, 으로 분할하고, 각 2D 운동공간을 가시화 시켜 그 공간 자체를 메뉴화 하였다. 이렇게하면 사용자로 하여금 의식적으로 특정 모드를 선택하는 부담없이 단지 필요에 의해 적절한 2D 운동공간을 시각적으로 판단할 수 있도록 해준다. 각 운동공간에서의 헬리콥터 운동은 조이스틱의 2D 조작으로 제어한다.

  • PDF

Head Mounted Camera 환경에서 응시위치 추적 (Gaze Detection in Head Mounted Camera environment)

  • 이철한;이정준;김재희
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.25-28
    • /
    • 2000
  • Gaze detection is to find out the position on a monitor screen where a user is looking at, using the computer vision processing. This System can help the handicapped to use a computer, substitute a touch screen which is expensive, and navigate the virtual reality. There are basically two main types of the study of gaze detection. The first is to find out the location by face movement, and the second is by eye movement. In the gaze detection by eye movement, we find out the position with special devices, or the methode of image processing. In this paper, we detect not the iris but the pupil from the image captured by Head-Mounted Camera with infra-red light, and accurately locate the position where a user looking at by A(fine Transform.

  • PDF

360도 VR 촬영을 위한 무인 비행체용 카메라 짐벌 시스템 개발에 관한 연구 (A Study on the Development of Camera Gimbal System for Unmanned Flight Vehicle with VR 360 Degree Omnidirectional Photographing)

  • 정념;김상훈
    • 한국전자통신학회논문지
    • /
    • 제11권8호
    • /
    • pp.767-772
    • /
    • 2016
  • 본 논문은 무인 비행체에 설치되어 VR 360도 영상을 촬영하기 위한 카메라 짐벌 시스템에 관한 것으로서, 특히 자이로 기술을 이용하여 무인 비행체가 어느 방향으로 회전되더라도 카메라의 위치가 고정되어 영상의 흔들림이 최소화되도록 하였다. 이를 통해 안정적인 VR 360도 전방위 촬영이 가능한 무인 비행체용 카메라 짐벌 시스템을 개발하였다.

360VR을 활용한 영화촬영 환경을 위한 제작 효율성 연구 (A Study on the Production Efficiency of Movie Filming Environment Using 360° VR)

  • 이영숙;김정환
    • 한국멀티미디어학회논문지
    • /
    • 제19권12호
    • /
    • pp.2036-2043
    • /
    • 2016
  • The $360^{\circ}$ Virtual Reality (VR) live-action movies are filmed by attaching multiple cameras to a rig to shoot the images omni-directionally. Especially, for a live-action film that requires a variety of scenes, the director of photography and his staff usually have to operate the rigged cameras directly all around the scene and edit the footage during the post-production stage so that the entire process can incur much time and high cost. However, it will also be possible to acquire high-quality omni-directional images with fewer staff if the camera rig(s) can be controlled remotely to allow more flexible camera walking. Thus, a $360^{\circ}$ VR filming system with remote-controlled camera rig has been proposed in this study. The movie producers will be able to produce the movies that provide greater immersion with this system.

MR 콘텐츠 제작을 위한 다중 깊이 및 RGB 카메라 기반의 포인트 클라우드 획득 시스템 (Multiple Depth and RGB Camera-based System to Acquire Point Cloud for MR Content Production)

  • 김경진;박병서;김동욱;서영호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.445-446
    • /
    • 2019
  • 최근, 현실 세계에 가상 정보를 융합하여 현실에서는 할 수 없는 경험을 제공하는 혼합현실 (MR) 기술에 관심이 쏟아지고 있다. 혼합현실은 현실과 상호 작용이 우수하며 몰입감을 극대화 시킨다는 장점이 있다. 본 논문에서는 실사 기반 전방위 3D 모델 획득 기술에 대한 필요성을 언급하며 다시점 깊이 및 RGB 카메라 시스템을 이용하여 혼합현실 콘텐츠 제작을 위한 포인트 클라우드를 획득하는 방법을 제시한다.

  • PDF