• 제목/요약/키워드: Robust calibration

검색결과 105건 처리시간 0.043초

LRF와 카메라를 이용한 강인한 엘리베이터 문 인식 (Robust Elevator Door Recognition using LRF and Camera)

  • 마승완;최학남;이형호;김형래;이재홍;김학일
    • 제어로봇시스템학회논문지
    • /
    • 제18권6호
    • /
    • pp.601-607
    • /
    • 2012
  • The recognition of elevator door is needed for mobile service robots to moving between floors in the building. This paper proposed the sensor fusion approach using LRF (Laser Range Finder) and camera to solve the problem. Using the laser scans by the LRF, we extract line segments and detect candidates as the elevator door. Using the image by the camera, the door candidates are verified and selected as real door of the elevator. The outliers are filtered through the verification process. Then, the door state detection is performed by depth analysis within the door. The proposed method uses extrinsic calibration to fuse the LRF and the camera. It gives better results of elevator door recognition compared to the method using LRF only.

컴퓨터 비젼 방법을 이용한 3차원 물체 위치 결정에 관한 연구 (A Study on the Determination of 3-D Object's Position Based on Computer Vision Method)

  • 김경석
    • 한국생산제조학회지
    • /
    • 제8권6호
    • /
    • pp.26-34
    • /
    • 1999
  • This study shows an alternative method for the determination of object's position, based on a computer vision method. This approach develops the vision system model to define the reciprocal relationship between the 3-D real space and 2-D image plane. The developed model involves the bilinear six-view parameters, which is estimated using the relationship between the camera space location and real coordinates of known position. Based on estimated parameters in independent cameras, the position of unknown object is accomplished using a sequential estimation scheme that permits data of unknown points in each of the 2-D image plane of cameras. This vision control methods the robust and reliable, which overcomes the difficulties of the conventional research such as precise calibration of the vision sensor, exact kinematic modeling of the robot, and correct knowledge of the relative positions and orientation of the robot and CCD camera. Finally, the developed vision control method is tested experimentally by performing determination of object position in the space using computer vision system. These results show the presented method is precise and compatible.

  • PDF

CONTINUOUS PERSON TRACKING ACROSS MULTIPLE ACTIVE CAMERAS USING SHAPE AND COLOR CUES

  • Bumrungkiat, N.;Aramvith, S.;Chalidabhongse, T.H.
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.136-141
    • /
    • 2009
  • This paper proposed a framework for handover method in continuously tracking a person of interest across cooperative pan-tilt-zoom (PTZ) cameras. The algorithm here is based on a robust non-parametric technique for climbing density gradients to find the peak of probability distributions called the mean shift algorithm. Most tracking algorithms use only one cue (such as color). The color features are not always discriminative enough for target localization because illumination or viewpoints tend to change. Moreover the background may be of a color similar to that of the target. In our proposed system, the continuous person tracking across cooperative PTZ cameras by mean shift tracking that using color and shape histogram to be feature distributions. Color and shape distributions of interested person are used to register the target person across cameras. For the first camera, we select interested person for tracking using skin color, cloth color and boundary of body. To handover tracking process between two cameras, the second camera receives color and shape cues of a target person from the first camera and using linear color calibration to help with handover process. Our experimental results demonstrate color and shape feature in mean shift algorithm is capable for continuously and accurately track the target person across cameras.

  • PDF

3D 비접촉 인식을 이용한 냉연코일 테이프부착 로봇 개발 (Development of Smart Tape Attachment Robot in the Cold Rolled Coil with 3D Non-Contact Recognition)

  • 신찬배;김진대
    • 제어로봇시스템학회논문지
    • /
    • 제15권11호
    • /
    • pp.1122-1129
    • /
    • 2009
  • Recently taping robot with smart recognition function have been studied in the coil manufacturing field. Due to the difficulty of 3D surface processing from the complicated working environment, it is not easy to accomplish smart tape attachment motion with non-contact sensor. To solve these problems the applicable surface recognition algorithm and a flexible sensing device has been recommended. In this research, the fusion method between 1D displacement and 3D laser scanner is applied for robust tape attachment about cold rolled coil. With these sensors we develop a two-step exploration and the smart algorithm for the awareness of non-aligned coil's information. In the proposed robot system for tape attachment, the problem is reduced to coil's radius searching with laser displacement sensor at first, and then position and orientation detection with 3D laser scanner. To get the movement at the robot's base frame, the hand-eye compensation between robot's end effector and sensing device should be also carried out respectively. In this paper, we examine the auto-coordinate transformation method in the calibration step for the real environment usage. From the experimental results, it was shown that the taping motion of robot had a robust under the non-aligned cold rolled coil.

휴먼 컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Human Computer Interaction)

  • 박호식;배철수
    • 한국통신학회논문지
    • /
    • 제30권3C호
    • /
    • pp.125-132
    • /
    • 2005
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

컴퓨터 인터페이스를 위한 실시간 시선 식별 (Real Time Gaze Discrimination for Computer Interface)

  • 황선기;김문환
    • 한국정보전자통신기술학회논문지
    • /
    • 제3권1호
    • /
    • pp.38-46
    • /
    • 2010
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안 하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정확하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. 동공을 추적하여 GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 1m 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다. 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84%보다 약 9% 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

  • PDF

GRNN을 이용한 실시간 시선 식별 시스템에 관한 연구 (A Study on Real Time Gaze Discrimination System using GRNN)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제9권2호
    • /
    • pp.322-329
    • /
    • 2005
  • 본 논문에서는 실시간 시선 식별을 위한 능동적 적외선 조명을 기반으로 한 컴퓨터 비전 시스템을 제안하고자 한다. 현존하는 대다수의 시선 식별 방법은 고정된 얼굴에서만 원활하게 동작하고 개개인에 대한 교정 절차를 필요로 한다. 그러므로 본 논문에서는 교정 작업 없이 얼굴 움직임이 있는 경우에도 견실하고 정화하게 동작하는 시선 식별 시스템을 제안하고 있다. 제안된 시스템은 추출된 변수로부터 시선을 스크린 좌표로 매핑하기 위해 GRNN을 이용하였다. GRNN을 사용함으로서, 시선 매핑에 분석적 기능이나 얼굴 움직임에 대한 계산이 필요 없을 뿐 아니라 다른 개개인에 대하여 학습과정에서 매핑 기능을 일반화 할 수 있었다. 시선 예측 정확도를 개선하고자 계층적 식별을 제안함으로써 오분류를 줄일 수 있었고, 공간 시선 해상도는 스크린에서 Im 정도 떨어진 거리에서 수평으로 10cm, 수직으로 약 13cm, 즉 수평으로 8도 수직으로 5도 이었다 실험 결과, 재식별 하였을 경우 1차 시선 식별시 84$\%$보다 약 9$\%$ 정도 정확성이 향상되어 93%를 나타냄으로써 제안된 시스템의 유효성을 증명하였다.

실감 콘텐츠 생성을 위한 분해법 기반 다수 카메라 시스템 자동 보정 알고리즘 (Self-calibration of a Multi-camera System using Factorization Techniques for Realistic Contents Generation)

  • 김기영;우윤택
    • 방송공학회논문지
    • /
    • 제11권4호
    • /
    • pp.495-506
    • /
    • 2006
  • 본 논문에서는 실감 콘텐츠 생성에 쓰이는 움직이는 다수 카메라 시스템을 위한 분해법 기반 자동 보정 알고리즘을 제안한다. 대부분의 기존 자동 보정 연구는 스테레오 카메라 혹은 고정된 다수 카메라 시스템에 한정되어왔다. 보다 넓은 영역의 3차원 복원이나, 다수 카메라를 사용하는 일반적인 응용으로의 확장을 위해서는 새로운 알고리즘에 대한 연구가 필요하다. 본 논문에서는 일반적인 다수 카메라 시스템 (동적인 시스템 포함) 구조에 대한 강건한 자동 보정 방법을 제안하고, 카메라 구조가 평면 구성을 갖는 다수 카메라 시스템 보정 알고리즘을 제안한다. 우선, 기하학적 제한 요소를 바탕으로 분해법을 사용하기 위한 수식을 유도하고, 유도된 정리를 바탕으로 실질적인 자동 보정 사용법을 설명한다. 특히, 평면을 이루는 카메라 시스템에서의 분해법 적용이 어파인 복원과 같다는 성질을 증명하고, 어파인 분해법을 활용한 자동 보정 알고리즘을 제시한다. 실험에서는 제안된 알고리즘을 시뮬레이션 데이터와 실제 영상에 적용한 실험 결과를 보인다. 제안된 알고리즘은 다수 카메라 시스템을 활용한 영상 기반 3차원 실감 콘텐츠 복원이나, 하드웨어의 지원과 함께 실시간 다수 카메라 증강 현실 시스템에 활용될 수 있다.

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 조현섭;김희숙
    • 한국산학기술학회논문지
    • /
    • 제6권2호
    • /
    • pp.195-201
    • /
    • 2005
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다. 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다. 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참여하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.

  • PDF

실시간 눈과 시선 위치 추적 (Real Time Eye and Gaze Tracking)

  • 이영식;배철수
    • 한국정보통신학회논문지
    • /
    • 제8권2호
    • /
    • pp.477-483
    • /
    • 2004
  • 본 논문에서는 새로운 실시간 시선 추적 방식을 제안하고자한다 기존의 시선추적 방식은 사용자가 머리를 조금만 움직여도 잘못된 결과를 얻을 수가 있었고 각각의 사용자에 대하여 교정 과정을 수행할 필요가 있었다 따라서 제안된 시선 추적 방법은 적외선 조명과 Generalized Regression Neural Networks(GRNN)를 이용함으로써 교정 과정 없이 머리의 움직임이 큰 경우에도 견실하고 정확한 시선 추적을 가능하도록 하였다. GRNN을 사용함으로써 매핑기능은 원활하게 할 수 있었고, 머리의 움직임은 시선 매핑 기능에 의해 적절하게 시선추적에 반영되어 얼굴의 움직임이 있는 경우에도 시선추적이 가능토록 하였고, 매핑 기능을 일반화함으로써 각각의 교정과정을 생략 할 수 있게 하여 학습에 참석하지 않은 다른 사용자도 시선 추적을 가능케 하였다. 실험결과 얼굴의 움직임이 있는 경우에는 평균 90%, 다른 사용자에 대해서는 평균 85%의 시선 추적 결과를 나타내었다.