• 제목/요약/키워드: 로봇 비젼

검색결과 139건 처리시간 0.021초

유전가열을 이용한 고강도-저발포-정전기 방지 스티로폼 성형기술 개발 I (Development of the low-foamed high strength antistatistc styrofoam by dielectric heating- I)

  • 한두희
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2000년도 추계학술대회
    • /
    • pp.223-225
    • /
    • 2000
  • 일반적으로 많이 사용되는 고강도 스티로폼은 원료모분을 스팀발포기를 사용하여 수십배로 일차 발포한 후 금형에 넣어 스팀으로 성형한다. 이러한 스티로폼은 단열성이 뛰어난 장점이 있지만 강도가 약하여 내구성이 요구되는 재료로는 부적당하였다. 한편 자동생산공정에 사용되는 로봇 트레이는 고강도 정전기 방지 기능이 필요하게 되었고, 5배 정도의 저발포 스티로폼을 이용한 로봇 트레이가 일부 생산되고 있다. 스팀을 이용한 성형 가공의 경우 모분이 표면에서 발포 융착된 후 내부로 열이 잘 전달되지 못하여 내부 융착이 잘되지 않는 단점을 가지고 있다. 이 단점을 보완하기 위하여 물의 높은 유전율을 이용한 유전가열을 사용하여 내부 융착을 용이하게 시킬 수 있다. 본 연구는 원료모분을 3배이하로 일차 발포한 폴리스틸렌 원료를 이용하여, 스팀에 의한 성형이 아닌 고주파 유전가열을 이용한 성형 방법에 의하여 만들어진 성형물의 비젼과 문제점을 제시하였다. 본 연구에 사용한 고주파는 나무 집성가공에 많이 사용되는 13.6MHz를 사용하였고, 금형은 두랄루민 금형과 목형을 사용하여 시험하였으며, 이의 장단점 및 문제점을 비교하였다. 스팀성형가공에 비하여 내부융착이 훨씬 뛰어났으며, 일부 문제점을 보완하면 진보된 생산공정이 될 것으로 기대된다.

퍼지 제어기를 이용한 실시간 이동 물체 추적에 관한 연구 (Study on the Real-Time Moving Object Tracking using Fuzzy Controller)

  • 김관형;강성인;이재현
    • 한국정보통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.191-196
    • /
    • 2006
  • 본 논문에서는 비젼 시스템을 이용하여 이동 물체를 추적하는 방법을 제안하였다. 이동 물체를 계속적으로 추적하기 위해서는 이동 물체의 영상이 화상의 중심점 부근에 위치하도록 해야 한다. 따라서 이동 물체의 영상이 화상의 중심점의 부근에 위치하도록 하기 위하여 팬/틸트(Pan/Tilt)구조의 카메라 모듈을 제어하는 퍼지 제어기를 구현하였다. 향후, 시스템을 이동로봇에 적용하기 위하여 비젼 시스템을 위한 영상처리보드를 설계 제작하였고, 대상물체의 색상과 형태를 파악한 후 퍼지 제어기를 이용하여 카메라모듈이 물체를 추적할 수 있도록 StrongArm 보드를 이용하여 구성하였다. 그리고, 실험에 의해서 제안된 퍼지 제어기 가 실시간 이동물체 추적 시스템에 적용 가능함을 확인 하였다.

모폴로지 기반의 차영상 분석기법을 이용한 균열검출의 인식 (The Recognition of Crack Detection Using Difference Image Analysis Method based on Morphology)

  • 변태모;김장형;김형수
    • 한국정보통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.197-205
    • /
    • 2006
  • 본 논문에서는 비젼 시스템을 이용하여 이동 물체를 추적하는 방법을 제안하였다. 이동 물체를 계속적으로 추적하기 위해서는 이동 물체의 영상이 화상의 중심점 부근에 위치하도록 해야 한다. 따라서 이동 물체의 영상이 화상의 중심점의 부근에 위치하도록 하기 위하여 팬/틸트(Pan/Tilt)구조의 카메라 모듈을 제어하는 퍼지 제어기를 구현하였다. 향후, 시스템을 이동로봇에 적용하기 위하여 비젼 시스템을 위한 영상처리보드를 설계 제작하였고, 대상물체의 색상과 형태를 파악한 후 퍼지 제어기를 이용하여 카메라모듈이 물체를 추적할 수 있도록 StrongArm 보드를 이용하여 구성하였다. 그리고, 실험에 의해서 제안된 퍼지 제어기 가 실시간 이동물체 추적 시스템에 적용 가능함을 확인 하였다.

장애물 출현 시 얇은 막대 배치작업에 대한 EKF 방법을 이용한 로봇 비젼제어기법 평가 (Evaluation of Robot Vision Control Scheme Based on EKF Method for Slender Bar Placement in the Appearance of Obstacles)

  • 홍성문;장완식;김재명
    • 한국정밀공학회지
    • /
    • 제32권5호
    • /
    • pp.471-481
    • /
    • 2015
  • This paper presents the robot vision control schemes using Extended Kalman Filter (EKF) method for the slender bar placement in the appearance of obstacles during robot movement. The vision system model used for this study involves the six camera parameters($C_1{\sim}C_6$). In order to develop the robot vision control scheme, first, the six parameters are estimated. Then, based on the estimated parameters, the robot's joint angles are estimated for the slender bar placement. Especially, robot trajectory caused by obstacles is divided into three obstacle regions, which are beginning region, middle region and near target region. Finally, the effects of number of obstacles using the proposed robot's vision control schemes are investigated in each obstacle region by performing experiments of the slender bar placement.

엘리트 유전 알고리즘을 이용한 비젼 기반 로봇의 위치 제어 (Vision Based Position Control of a Robot Manipulator Using an Elitist Genetic Algorithm)

  • 박광호;김동준;기석호;기창두
    • 한국정밀공학회지
    • /
    • 제19권1호
    • /
    • pp.119-126
    • /
    • 2002
  • In this paper, we present a new approach based on an elitist genetic algorithm for the task of aligning the position of a robot gripper using CCD cameras. The vision-based control scheme for the task of aligning the gripper with the desired position is implemented by image information. The relationship between the camera space location and the robot joint coordinates is estimated using a camera-space parameter modal that generalizes known manipulator kinematics to accommodate unknown relative camera position and orientation. To find the joint angles of a robot manipulator for reaching the target position in the image space, we apply an elitist genetic algorithm instead of a nonlinear least square error method. Since GA employs parallel search, it has good performance in solving optimization problems. In order to improve convergence speed, the real coding method and geometry constraint conditions are used. Experiments are carried out to exhibit the effectiveness of vision-based control using an elitist genetic algorithm with a real coding method.

비선형 변환의 비젼센서 데이터융합을 이용한 이동로봇 주행제어 (Control of Mobile Robot Navigation Using Vision Sensor Data Fusion by Nonlinear Transformation)

  • 진태석;이장명
    • 제어로봇시스템학회논문지
    • /
    • 제11권4호
    • /
    • pp.304-313
    • /
    • 2005
  • The robots that will be needed in the near future are human-friendly robots that are able to coexist with humans and support humans effectively. To realize this, robot need to recognize his position and direction for intelligent performance in an unknown environment. And the mobile robots may navigate by means of a number of monitoring systems such as the sonar-sensing system or the visual-sensing system. Notice that in the conventional fusion schemes, the measurement is dependent on the current data sets only. Therefore, more of sensors are required to measure a certain physical parameter or to improve the accuracy of the measurement. However, in this research, instead of adding more sensors to the system, the temporal sequence of the data sets are stored and utilized for the accurate measurement. As a general approach of sensor fusion, a UT -Based Sensor Fusion(UTSF) scheme using Unscented Transformation(UT) is proposed for either joint or disjoint data structure and applied to the landmark identification for mobile robot navigation. Theoretical basis is illustrated by examples and the effectiveness is proved through the simulations and experiments. The newly proposed, UT-Based UTSF scheme is applied to the navigation of a mobile robot in an unstructured environment as well as structured environment, and its performance is verified by the computer simulation and the experiment.

이동 로봇을 위한 전정안반사 기반 비젼 추적 시스템의 인식 성능 평가 (Recognition Performance of Vestibular-Ocular Reflex Based Vision Tracking System for Mobile Robot)

  • 박재홍;반욱;최태영;권현일;조동일;김광수
    • 제어로봇시스템학회논문지
    • /
    • 제15권5호
    • /
    • pp.496-504
    • /
    • 2009
  • This paper presents a recognition performance of VOR (Vestibular-Ocular Reflex) based vision tracking system for mobile robot. The VOR is a reflex eye movement which, during head movements, produces an eye movement in the direction opposite to the head movement, thus maintaining the image of interested objects placed on the center of retina. We applied this physiological concept to the vision tracking system for high recognition performance in mobile environments. The proposed method was implemented in a vision tracking system consisting of a motion sensor module and an actuation module with vision sensor. We tested the developed system on an x/y stage and a rate table for linear motion and angular motion, respectively. The experimental results show that the recognition rates of the VOR-based method are three times more than non-VOR conventional vision system, which is mainly due to the fact that VOR-based vision tracking system has the line of sight of vision system to be fixed to the object, eventually reducing the blurring effect of images under the dynamic environment. It suggests that the VOR concept proposed in this paper can be applied efficiently to the vision tracking system for mobile robot.

키넥트센서와 확장칼만필터를 이용한 이동로봇의 사람추적 및 사람과의 동반주행 (People Tracking and Accompanying Algorithm for Mobile Robot Using Kinect Sensor and Extended Kalman Filter)

  • 박경재;원문철
    • 대한기계학회논문집A
    • /
    • 제38권4호
    • /
    • pp.345-354
    • /
    • 2014
  • 본 논문에서는 키넥트센서(Kinect sensor)와 확장칼만필터(Extended Kalman Filter : EKF)를 이용하여 사람과 로봇간의 상대위치 및 각도와 상대속도를 실시간으로 추정하는 알고리즘을 제안한다. 또한, 다양한 이동모드에 따른 모바일로봇의 사람과의 근접동반이동 제어를 수행한다. HOG 및 SVM을 이용한 사람 두부 및 어깨 검출 알고리즘을 통해 사람을 검출하고, 키넥트센서의 정보를 이용해 EKF 알고리즘을 거쳐 사람과 로봇간의 상대위치 및 속도를 추정한다. EKF 알고리즘의 결과를 이용해 실내 환경에서 사람과 같이 근접동반주행을 하기 위한 다양한 모드의 제어 실험을 수행한다. 또한, 모션캡처장비(VICON)를 이용해 알고리즘의 정확도를 검증하였다.

머신비젼 기반의 자율주행 차량을 위한 카메라 교정 (Camera Calibration for Machine Vision Based Autonomous Vehicles)

  • 이문규;안택진
    • 제어로봇시스템학회논문지
    • /
    • 제8권9호
    • /
    • pp.803-811
    • /
    • 2002
  • Machine vision systems are usually used to identify traffic lanes and then determine the steering angle of an autonomous vehicle in real time. The steering angle is calculated using a geometric model of various parameters including the orientation, position, and hardware specification of a camera in the machine vision system. To find the accurate values of the parameters, camera calibration is required. This paper presents a new camera-calibration algorithm using known traffic lane features, line thickness and lane width. The camera parameters considered are divided into two groups: Group I (the camera orientation, the uncertainty image scale factor, and the focal length) and Group II(the camera position). First, six control points are extracted from an image of two traffic lines and then eight nonlinear equations are generated based on the points. The least square method is used to find the estimates for the Group I parameters. Finally, values of the Group II parameters are determined using point correspondences between the image and its corresponding real world. Experimental results prove the feasibility of the proposed algorithm.

스테레오 비젼을 이용한 이동로봇의 자기-이동변위인식 시스템에 관한 연구 (The Study of Mobile Robot Self-displacement Recognition Using Stereo Vision)

  • 심성준;고덕현;김규로;이순걸
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2003년도 춘계학술대회 논문집
    • /
    • pp.934-937
    • /
    • 2003
  • In this paper, authors use a stereo vision system based on the visual model of human and establish inexpensive method that recognizes moving distance using characteristic points around the robot. With the stereovision. the changes of the coordinate values of the characteristic points that are fixed around the robot are measured. Self-displacement and self-localization recognition system is proposed from coordination reconstruction with those changes. To evaluate the proposed system, several characteristic points that is made with a LED around the robot and two cheap USB PC cameras are used. The mobile robot measures the coordinate value of each characteristic point at its initial position. After moving, the robot measures the coordinate values of the characteristic points those are set at the initial position. The mobile robot compares the changes of these several coordinate values and converts transformation matrix from these coordinate changes. As a matrix of the amount and the direction of moving displacement of the mobile robot, the obtained transformation matrix represents self-displacement and self-localization by the environment.

  • PDF