• 제목/요약/키워드: LiDAR Sensor

검색결과 144건 처리시간 0.031초

Anomaly Event Detection Algorithm of Single-person Households Fusing Vision, Activity, and LiDAR Sensors

  • Lee, Do-Hyeon;Ahn, Jun-Ho
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권6호
    • /
    • pp.23-31
    • /
    • 2022
  • 최근 코로나 19가 유행하고 더불어 고령화 시대와 1인 가구 증가로 인해 가구 구성원이 집에서 다양한 활동을 하며 머무는 시간이 매우 증가하였다. 본 연구에서는 노인을 포함한 1인 가구의 구성원들의 이상 징후를 탐지하기 위한 알고리즘을 제안한다. 홈 CCTV를 통한 영상 센서 알고리즘, 스마트폰에 내장된 가속도 센서를 이용한 활동 센서 알고리즘 및 2D LiDAR 센서 기반의 LiDAR 센서 알고리즘을 이용한 사람의 움직임 및 낙상 탐지 결과를 기반으로 이상 징후를 탐지하는 알고리즘들을 제안한다. 하지만, 각 단일 센서 기반 알고리즘은 센서가 가진 한계점으로 인해 특정 상황에서 이상징후를 탐지하기 어려운 단점을 가지고 있다. 그에 따라 단일 센서 기반 알고리즘만을 사용한 것보다 다양한 상황에서 이상 징후를 탐지하기 위해 각 알고리즘을 결합하는 융합 방식을 제안한다. 우리는 각 센서로 수집한 데이터를 통해 알고리즘들의 성능을 평가하고, 특정 시나리오들을 통하여 알고리즘 하나만 사용하여 정확한 이상 징후를 탐지할 수 없는 상황에서도 융합 방식을 통해 서로 보완하여 정확한 이상 징후를 효율적으로 탐지할 수 있음을 보여준다.

LiDAR 센서기반 근접물체 탐지계측 알고리즘 (Algorithm on Detection and Measurement for Proximity Object based on the LiDAR Sensor)

  • 정종택;최조천
    • 한국항행학회논문지
    • /
    • 제24권3호
    • /
    • pp.192-197
    • /
    • 2020
  • 최근 운송수단의 안전운행 및 사고방지를 목표로 하는 자율운행 관련 기술이 적극적으로 연구되고 있다. 현재 자율운행에서 장애물 탐지를 위하여 레이다 및 카메라 기술이 사용되고 있으나, 근접한 물체의 탐지 및 이격거리의 정밀계측에는 LiDAR (light detection and ranging) 센서를 사용하는 방법이 가장 적합하다. LiDAR 센서는 레이저 펄스빔을 발사하고 물체로부터 반사되어 온 반사빔과의 시간차를 취득하여 이것으로 정밀한 거리를 계산하는 측정기로, 광을 이용하기 때문에 대기환경에서 물체의 인식률이 감소할 수 있는 단점이 있다. 본 논문은 LiDAR 센서의 raw 데이타에 대한 신뢰성 향상과 이를 기반으로 실시간 주변물체에 대한 탐지 및 이격거리 계측에서 오차를 개선하기 위하여 삼각함수에 의한 포인트 cloud를 추출하고, 선형회귀 모델을 이용하여 계측알고리즘을 구현하였으며, Python 라이브러리를 활용하여 물체탐지의 오차범위를 개선할 수 있음을 검증하였다.

QR 2D 코드와 라이다 센서를 이용한 모바일 로봇의 사람 추종 기법 개발 (Development of Human Following Method of Mobile Robot Using QR Code and 2D LiDAR Sensor)

  • 이승현;최재원;당반치엔;김종욱
    • 대한임베디드공학회논문지
    • /
    • 제15권1호
    • /
    • pp.35-42
    • /
    • 2020
  • In this paper, we propose a method to keep the robot at a distance of 30 to 45cm from the user in consideration of each individual's minimum area and inconvenience by using a 2D LiDAR sensor LDS-01 as the secondary sensor along with a QR code. First, the robot determines the brightness of the video and the presence of a QR code. If the light is bright and there is a QR code due to human's presence, the range of the 2D LiDAR sensor is set based on the position of the QR code in the captured image to find and follow the correct target. On the other hand, when the robot does not recognize the QR code due to the low light, the target is followed using a database that stores obstacles and human actions made before the experiment using only the 2D LiDAR sensor. As a result, our robot can follow the target person in four situations based on nine locations with seven types of motion.

Integrated Navigation Design Using a Gimbaled Vision/LiDAR System with an Approximate Ground Description Model

  • Yun, Sukchang;Lee, Young Jae;Kim, Chang Joo;Sung, Sangkyung
    • International Journal of Aeronautical and Space Sciences
    • /
    • 제14권4호
    • /
    • pp.369-378
    • /
    • 2013
  • This paper presents a vision/LiDAR integrated navigation system that provides accurate relative navigation performance on a general ground surface, in GNSS-denied environments. The considered ground surface during flight is approximated as a piecewise continuous model, with flat and slope surface profiles. In its implementation, the presented system consists of a strapdown IMU, and an aided sensor block, consisting of a vision sensor and a LiDAR on a stabilized gimbal platform. Thus, two-dimensional optical flow vectors from the vision sensor, and range information from LiDAR to ground are used to overcome the performance limit of the tactical grade inertial navigation solution without GNSS signal. In filter realization, the INS error model is employed, with measurement vectors containing two-dimensional velocity errors, and one differenced altitude in the navigation frame. In computing the altitude difference, the ground slope angle is estimated in a novel way, through two bisectional LiDAR signals, with a practical assumption representing a general ground profile. Finally, the overall integrated system is implemented, based on the extended Kalman filter framework, and the performance is demonstrated through a simulation study, with an aircraft flight trajectory scenario.

LiDAR 반사 강도 영상의 초해상화 신경망 모델 최적화를 위한 파라미터 분석 (Parameter Analysis for Super-Resolution Network Model Optimization of LiDAR Intensity Image)

  • 심승보
    • 한국ITS학회 논문지
    • /
    • 제22권5호
    • /
    • pp.137-147
    • /
    • 2023
  • LiDAR는 자율 주행뿐만 아니라 다양한 산업 현장에 적용되어 대상의 크기와 거리를 측정하는 데 사용되고 있다. 이에 더하여 이 센서는 반사된 빛의 양을 바탕으로 반사 강도 영상 또한 제공한다. 이는 측정 대상의 형상에 대한 정보를 제공하여 센서 데이터 처리에 긍정적인 효과를 일으킨다. LiDAR는 고해상도가 될수록 높은 성능을 보장하지만 이는 센서 비용의 증가를 야기하는데, 이 점은 반사 강도 영상에도 해당된다. 높은 해상도의 반사 강도 영상을 취득하기 위해서는 고가의 장비 사용이 필수적이다. 따라서 본 연구에서는 저해상도의 반사 강도 영상을 고해상도의 영상으로 개선하는 인공지능을 개발하였다. 이를 위해서 본 연구에서는 최적의 초해상화 신경망 모델을 위한 파라미터 분석을 수행하였다. 또한, 초해상화 알고리즘을 2,500여 장의 반사 강도 영상에 적용하여 훈련과 검증을 하였다. 결과적으로 반사 강도 영상의 해상도를 향상시켰다. 바라건대 본 연구의 결과가 향후 자율 주행 분야에 적용되어 주행환경 인식과 장애물 탐지 성능 향상에 기여할 수 있기를 기대하는 바이다.

2차원 라이다와 상업용 영상-관성 기반 주행 거리 기록계를 이용한 3차원 점 구름 지도 작성 시스템 개발 (Development of 3D Point Cloud Mapping System Using 2D LiDAR and Commercial Visual-inertial Odometry Sensor)

  • 문종식;이병윤
    • 대한임베디드공학회논문지
    • /
    • 제16권3호
    • /
    • pp.107-111
    • /
    • 2021
  • A 3D point cloud map is an essential elements in various fields, including precise autonomous navigation system. However, generating a 3D point cloud map using a single sensor has limitations due to the price of expensive sensor. In order to solve this problem, we propose a precise 3D mapping system using low-cost sensor fusion. Generating a point cloud map requires the process of estimating the current position and attitude, and describing the surrounding environment. In this paper, we utilized a commercial visual-inertial odometry sensor to estimate the current position and attitude states. Based on the state value, the 2D LiDAR measurement values describe the surrounding environment to create a point cloud map. To analyze the performance of the proposed algorithm, we compared the performance of the proposed algorithm and the 3D LiDAR-based SLAM (simultaneous localization and mapping) algorithm. As a result, it was confirmed that a precise 3D point cloud map can be generated with the low-cost sensor fusion system proposed in this paper.

Aerial Object Detection and Tracking based on Fusion of Vision and Lidar Sensors using Kalman Filter for UAV

  • Park, Cheonman;Lee, Seongbong;Kim, Hyeji;Lee, Dongjin
    • International journal of advanced smart convergence
    • /
    • 제9권3호
    • /
    • pp.232-238
    • /
    • 2020
  • In this paper, we study on aerial objects detection and position estimation algorithm for the safety of UAV that flight in BVLOS. We use the vision sensor and LiDAR to detect objects. We use YOLOv2 architecture based on CNN to detect objects on a 2D image. Additionally we use a clustering method to detect objects on point cloud data acquired from LiDAR. When a single sensor used, detection rate can be degraded in a specific situation depending on the characteristics of sensor. If the result of the detection algorithm using a single sensor is absent or false, we need to complement the detection accuracy. In order to complement the accuracy of detection algorithm based on a single sensor, we use the Kalman filter. And we fused the results of a single sensor to improve detection accuracy. We estimate the 3D position of the object using the pixel position of the object and distance measured to LiDAR. We verified the performance of proposed fusion algorithm by performing the simulation using the Gazebo simulator.

마킹 로봇의 자동화를 위한 LiDAR 센서 기반 철근배근 오차 측정 및 먹매김 수행 프로세스 연구 (Measuring Rebar Position Error and Marking Work for Automated Layout Robot Using LiDAR Sensor)

  • 김태훈;임현수;조규만
    • 한국건축시공학회지
    • /
    • 제23권2호
    • /
    • pp.209-220
    • /
    • 2023
  • 먹매김 로봇은 허용오차 이내의 정밀도를 확보하는 것이 매우 중요하다. 그러나 골조공사는 시공과정에서 철근배근의 변위가 빈번하게 발생하며, 해당오차는 먹선이나 철근위치의 수정을 요구한다. 먹매김 로봇은 정밀도 확보 및 자동화를 위해 철근의 오차를 측정하고 먹선과 철근의 수정을 스스로 판단할 수 있어야 한다. 이에 본 연구는 LiDAR 센서를 통한 철근배근의 오차 측정방안과 이를 바탕으로 먹매김 판단 프로세스를 제시하였다. LiDAR 센서를 활용한 철근인식 실험결과 평균적으로 5mm 내외의 오차를 발생하였으며, 이는 일반적으로 벽체에 적용되는 철근 수준에서 인식을 신뢰할만한 수준으로 나타났다. 또한 철근오차를 범위별로 판단하여 철근의 보정여부와 먹매김의 수행여부를 로봇이 스스로 판단할 수 있는 프로세스를 제시하였다. 본 연구결과는 시공오차를 고려한 먹매김로봇의 자동운영에 기여할 수 있으며 이를 통해 골조품질을 향상시킬 수 있을 것으로 기대된다.

LiDAR자료의 3차원 정보를 이용한 최적 Sensor 위치 선정방법론 개발 (Process Development for Optimizing Sensor Placement Using 3D Information by LiDAR)

  • 유한서;이우균;최성호;곽한빈;곽두안
    • 대한공간정보학회지
    • /
    • 제18권2호
    • /
    • pp.3-12
    • /
    • 2010
  • 최근 항공사진과 고해상도 위성영상의 보급과 수치사진측량 시스템 및 분석 알고리즘의 발전으로 인하여 데이터 추출, 영상이미지프로세싱처리, 정밀 대축척지도제작 등의 연구가 진행되고 있지만 2차원 평면 정보라는 제한적인 요소를 가지고 있다. 이에, 높은 위치정확도와 개체인식을 위한 정확한 공간정보와 3차원 좌표가 필요하게 되었다. 본 연구에서는 높은 위치정확도가 검증된 LiDAR의 3차원 공간정보를 이용하여 실제 지형을 반영하였고, 센서 최적 위치를 도출하기위해 확률알고리즘을 개발하고 공간분석을 통해 확률 값을 산정하였다. Grid기반인 2차원 3차원 센서위치지점을 생성하고 LiDAR의 3차원정보를 센서감지영역 산정에 적용하였다. 이 데이터를 바탕으로 알고리즘을 구현하여 최적 센서위치지점으로 선정하였다. 또한 최적 센서위치지점 선정 시 고려사항을 3가지 조건으로 나누었다. 첫째조건은 방해물이 없는 2차원인 경우(2-D Non obstacle), 둘째조건은 방해물이 존재하는 2차원인 경우(2-D Obstacle), 셋째는 방해물이 존재하며 3차원인 조건(3-D Obstacle)으로 설정하였다. 이 3가지 조건에 알고리즘을 적용하여 2차원, 3차원적 공간에 대한 최적위치선정 방법을 검토하였다. 결론적으로 본 연구에서는 LiDAR 데이터를 이용하여 정보 수집을 위한 지상 고정센서 위치 선정 방법론을 제시하고자 하였다.

무인선박의 자율운항을 위한 저가형 LiDAR센서 기반의 장애물 회피 시스템 구현 (Implementation of an Obstacle Avoidance System Based on a Low-cost LiDAR Sensor for Autonomous Navigation of an Unmanned Ship)

  • 송현우;이광국;김동헌
    • 전기학회논문지
    • /
    • 제68권3호
    • /
    • pp.480-488
    • /
    • 2019
  • In this paper, we propose an obstacle avoidance system for an unmanned ship to navigate safely in dynamic environments. Also, in this paper, one-dimensional low-cost lidar sensor is used, and a servo motor is used to implement the lidar sensor in a two-dimensional space. The distance and direction of an obstacle are measured through the two-dimensional lidar sensor. The unmanned ship is controlled by the application at a Tablet PC. The user inputs the coordinates of the destination in Google maps. Then the position of the unmanned ship is compared with the position of the destination through GPS and a geomagnetic sensor. If the unmanned ship finds obstacles while moving to its destination, it avoids obstacles through a fuzzy control-based algorithm. The paper shows that the experimental results can effectively construct an obstacle avoidance system for an unmanned ship with a low-cost LiDAR sensor using fuzzy control.