• 제목/요약/키워드: Ego-motion

검색결과 33건 처리시간 0.016초

셀룰라 비선형 네트워크를 이용한 특징점 궤적 상에서 Optical Flow 검출 (Detection of Optical Flows on the Trajectories of Feature Points Using the Cellular Nonlinear Neural Networks)

  • 손혼락;김형숙
    • 전자공학회논문지CI
    • /
    • 제37권6호
    • /
    • pp.10-21
    • /
    • 2000
  • 거리 변환(Distance Transform)을 수행할 수 있는 셀룰라 비선형 네트워크 구조와 특징 점들의 제적 상에서 거리 변환을 이용한 optical flow 검출 방법을 제안하였다. 움직이는 물체의 추적이나 카메라의 움직임 파악 같은 응용 분야에서는 수가 적더라도 정확하고 확실한 optical flow가 더 중요하다. 본 연구는 특징점들의 이동 궤적 상에서 거리 변환 기법을 이용하여 거리 변환 필드(Distance Transform Field)를 생성시키고 거리 변환 필드상에서 궤적의 움직인 거리 값과 방향을 추출함으로써 optical flow를 구하는 방법이다. 이 방법은 영상 정보를 거리 정보로 변환하여 사용하게 되므로 잡음의 영향을 적게 받으며 필요한 연산들이 아날로그 회로에 의해 처리되므로 처리 속도가 빠르고, 지역적 처리 특성을 갖기 때문에 하드웨어 구현이 용이하다는 특징이 있다. 또한, 본 연구에서는 제안한 알고리즘의 핵심부분을 하드웨어로 구현하기 위해 셀룰라 비선형 네트워크(Celluar Nonlinear Neural Network)구조를 제안하였다. 제안한 구조와 알고리즘을 검증하기 위해 다양한 영상과 환경에 대한 시뮬레이션을 수행하여 결과를 제시하였다.

  • PDF

시각장애인 보행 안내를 위한 진행 방향 판단 기법 (Determination of Walking Direction for Guidance of the Blind)

  • 고병오;김하경;손진우;정경훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.49-52
    • /
    • 2019
  • 보도의 점자블록은 시각장애인의 자율적인 보행을 위해서 필수적인 시설물이다. 시각장애인은 발바닥 감각과 지팡이를 이용하여 점자블록을 확인하면서 보행하는데, 점자블록에서 이탈하는 경우에는 다시 점자블록을 만날 때까지 어려움을 겪게 된다. 본 논문에서는 보행자가 착용한 웨어러블 영상 센서를 이용하여 점자블록을 따라서 보행하는지를 판단함으로써 시각장애인의 보행을 유도하는 알고리즘을 제안한다. 이를 위해 점자블록의 기울기를 특징으로 선정하였으며, 3-line detector 구조를 도입하여 프레임마다 점자블록의 좌우 기울기와 전방 연속성을 판단한다. 진행 도중에 점자블록이 끊어지거나 분기되는 상황에 대응하기 위한 공간 필터링과 시각장애인의 보행 도중에 발생하는 상하좌우의 움직임에 대응하기 위한 시간 필터링을 사용하여 기울기를 안정한다. 실제 도로 및 실내에서 획득한 영상을 사용한 모의 실험을 수행하였으며 제안 알고리즘을 통해 보행자의 진행 방향 및 이탈 정도에 대한 판단이 가능함을 확인하였다.

  • PDF

도심자율주행을 위한 라이다 정지 장애물 지도 기반 차량 동적 상태 추정 알고리즘 (LiDAR Static Obstacle Map based Vehicle Dynamic State Estimation Algorithm for Urban Autonomous Driving)

  • 김종호;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.14-19
    • /
    • 2021
  • This paper presents LiDAR static obstacle map based vehicle dynamic state estimation algorithm for urban autonomous driving. In an autonomous driving, state estimation of host vehicle is important for accurate prediction of ego motion and perceived object. Therefore, in a situation in which noise exists in the control input of the vehicle, state estimation using sensor such as LiDAR and vision is required. However, it is difficult to obtain a measurement for the vehicle state because the recognition sensor of autonomous vehicle perceives including a dynamic object. The proposed algorithm consists of two parts. First, a Bayesian rule-based static obstacle map is constructed using continuous LiDAR point cloud input. Second, vehicle odometry during the time interval is calculated by matching the static obstacle map using Normal Distribution Transformation (NDT) method. And the velocity and yaw rate of vehicle are estimated based on the Extended Kalman Filter (EKF) using vehicle odometry as measurement. The proposed algorithm is implemented in the Linux Robot Operating System (ROS) environment, and is verified with data obtained from actual driving on urban roads. The test results show a more robust and accurate dynamic state estimation result when there is a bias in the chassis IMU sensor.