• 제목/요약/키워드: Inertial measurement unit (IMU)

검색결과 218건 처리시간 0.028초

Acquisition of Grass Harvesting Characteristics Information and Improvement of the Accuracy of Topographical Surveys for the GIS by Sensor Fusion (I) - Analysis of Grass Harvesting Characteristics by Sensor Fusion -

  • Choi, Jong-Min;Kim, Woong;Kang, Tae-Hwan
    • Journal of Biosystems Engineering
    • /
    • 제40권1호
    • /
    • pp.28-34
    • /
    • 2015
  • Purpose: This study aimed to install an RTK-GPS (Real Time Kinematic-Global Positioning System) and IMU (Inertial Measurement Unit) on a tractor used in a farm to measure positions, pasture topography, posture angles, and vibration accelerations, translate the information into maps using the GIS, analyze the characteristics of grass harvesting work, and establish new technologies and construction standards for pasture infrastructure improvement based on the analyzed data. Method: Tractor's roll, pitch, and yaw angles and vibration accelerations along the three axes during grass harvesting were measured and a GIS map prepared from the data. A VRS/RTK-GPS (MS750, Trimble, USA) tractor position measuring system and an IMU (JCS-7401A, JAE, JAPAN) tractor vibration acceleration measuring systems were mounted on top of a tractor and below the operator's seat to obtain acceleration in the direction of progression, transverse acceleration, and vertical acceleration at 10Hz. In addition, information on regions with bad workability was obtained from an operator performing grass harvesting and compared with information on changes in tractor posture angles and vibration acceleration. Results: Roll and pitch angles based on the y-axis, the direction of forward movements of tractor coordinate systems, changed by at least $9-13^{\circ}$ and $8-11^{\circ}$ respectively, leading to changes in working postures in the central and northern parts of the pasture that were designated as regions with bad workability during grass harvesting. These changes were larger than those in other regions. The synthesized vectors of the vibration accelerations along the y-axis, the x-axis (transverse direction), and the z-axis (vertical direction) were higher in the central and northwestern parts of the pasture at 3.0-4.5 m/s2 compared with other regions. Conclusions: The GIS map developed using information on posture angles and vibration accelerations by position in the pasture is considered sufficiently utilizable as data for selection of construction locations for pasture infrastructure improvement.

도로 및 인접차량과의 상호작용분석을 통한 차량의 주행안전성 평가기법 개발 연구 (A Methodology for Evaluating Vehicle Driving Safety based on the Analysis of Interactions With Roads and Adjacent Vehicles)

  • 박재홍;오철;윤덕근
    • 대한교통학회지
    • /
    • 제35권2호
    • /
    • pp.116-128
    • /
    • 2017
  • 교통사고는 운전자가 주변 차량 및 도로기하구조 상태 변화에 대한 인지부족과 적절한 회피 행동을 능동적으로 수행하지 못하는 경우에 순간적으로 발생하는 차량의 물리적 충돌사건으로 정의 될 수 있다. 따라서, 운전자가 도로를 주행하면서 만들어 내는 주변 환경과의 상호작용을 지속적으로 모니터링하고, 교통사고를 유발할 개연성이 높은 이벤트를 검지하는 것은 교통사고 예방을 위한 선결조건이다. 본 연구에서는 연속류 도로를 대상으로, GPS(Global Positioning System)-IMU(Inertial Measurement Unit), 카메라, 레이더, 라이다가 부착된 조사 차량을 이용하여 도로기하구조 및 교통환경 정보를 취득하였다. 취득된 정보를 가공하여 차량의 상호 작용 및 도로기하구조 특성을 고려한 주변차량과의 충돌 가능성여부를 평가할 수 있는 알고리즘을 개발하였다. 특히, 도로기하구조를 제한속도(직선부), 안전 속도(곡선부)로 구분하여 평가하고, 교통안전지표인 SDI를 이용하여 차량의 주행안전성을 평가하였다. 본 연구에서 개발한 방법론은 도래하는 자율주행시대에 차량의 센서로 부터 수집이 가능한 자료를 이용하여 안전성을 평가한다는 관점에서 향후 유용하게 활용 될 수 있을 것으로 기대된다.

플럭스게이트 센서 기반 드론 자력탐사 시스템 개발 (A Development of Fluxgate Sensor-based Drone Magnetic Exploration System)

  • 노명근;이슬기;이희순;안태규
    • 지구물리와물리탐사
    • /
    • 제23권3호
    • /
    • pp.208-214
    • /
    • 2020
  • 본 연구에서는 플럭스게이트(fluxgate) 센서를 탑재한 드론 자력탐사 시스템 시작품(proto-type)을 개발하였다. 시스템의 하드웨어는 플럭스게이트 자력센서, 관성측정장치(inertial measurement unit, IMU), GPS, 통신 모듈로 구성되어 있다. 또한 측정된 자료를 지상제어시스템(ground control system, GCS)으로 실시간 전송하는 모니터링 소프트웨어를 개발하였다. 측정된 자력값은 띠통과 필터(notch filter)와 대역통과필터(band-pass filter)를 거쳐서 최종적으로 1Hz 데이터로 저장된다. 본 시스템 검증을 위해 자성체 반응을 확인하는 예비 실험이 먼저 수행되었고, 이후 철광산 두 곳에서 현장 실증을 실시하였다. 현장 실증으로 경기도 포천과 강원도 정선 지역에서 자체 개발한 드론 자력탐사 시스템과 한국지질자원연구원(KIGAM)이 제작한 무인비행선 자력탐사 시스템 결과와 비교하였다. 그 결과 예비 실험과 현장 실증을 통해 본 시스템은 야외 항공 자력탐사에 충분히 활용 가능함을 확인할 수 있었다. 향후 양질의 항공자력탐사 자료 획득을 위해 잡음을 최소화하는 필터 기능 및 기구 성능을 고도화하는 연구가 요구된다.

3차원 거리정보와 DSM의 정사윤곽선 영상 정합을 이용한 무인이동로봇의 위치인식 (Localization of Unmanned Ground Vehicle based on Matching of Ortho-edge Images of 3D Range Data and DSM)

  • 박순용;최성인
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권1호
    • /
    • pp.43-54
    • /
    • 2012
  • 본 논문에서는 야지 환경에서 동작하는 무인이동로봇에서 획득한 3차원 LIDAR (Light Detection and Ranging) 센서 정보와 로봇이 이동하는 지형의 3차원 DSM (Digital Surface Map)에서 정사윤곽선(Ortho-edge) 특징영상을 생성하고 정합하여 로봇의 현재 위치를 추정하는 기술을 제안한다. 최근의 무인이동로봇의 위치 인식에 대한연구는 GPS (Global Positioning System), IMU (Inertial Measurement Unit), LIDAR 등의 위치인식 센서를 융합하는 경우가 많아지고 있다. 특히 LIDAR에서 획득한 거리정보를 ICP(Iterative Closest Point) 기반의 기하정합으로 로봇의 위치를 추정하는 기술이 개발되고 있다. 그러나 이동로봇에서 획득한 센서 정보는 DSM의 센싱 방향과 큰 차이차이가 있어 기존의 기하정합 기술을 사용하는데 어려움이 있다. 본 논문에서는 서로 다른 센싱 방향에서 획득한 3차원 LIDAR 거리정보와 DSM에서 정사윤곽선이라는 특징 영상을 생성하고 이들을 정합하여 로봇의 위치를 추정하는 새로운 기술을 제안한다. DSM으로부터 현재 시점의 정사윤곽선 영상을 생성하는 방법, 전방향 LIDAR 거리센서에서 정사윤곽선 영상을 생성하는 방법, 그리고 정사윤곽선 영상의 정합 기술을 설명하였다. 실험에서는 다양한 주행 경로에 대한 위치 추정의 오차를 분석하고 제안 기술의 성능의 우수성을 보였다.

고해상도 카메라와의 동시 운영을 통한 드론 다분광카메라의 외부표정 및 영상 위치 정밀도 개선 연구 (Improving Precision of the Exterior Orientation and the Pixel Position of a Multispectral Camera onboard a Drone through the Simultaneous Utilization of a High Resolution Camera)

  • 백승일;변민수;김원국
    • 한국측량학회지
    • /
    • 제39권6호
    • /
    • pp.541-548
    • /
    • 2021
  • 최근 농업, 산림관리, 해안환경 모니터링 등 다양한 분야에서 다분광 카메라의 활용, 특히 드론에 탑재되어 활용되는 사례가 증대되고 있다. 산출되는 다분광 영상은 위치정보를 위해 주로 드론에 탑재된 GPS (Global Positioning System)나 IMU (Inertial Measurement Unit) 센서를 이용해 지리참조(georeferencing)되는데, 보다 높은 정확도를 위해서는 직접 측량한 지상 기준점을 이용하기도 한다. 하지만, 직접 측량에 드는 비용 및 시간으로 인해 또는 직접 접근이 어려운 지역에 대해서는 지상 참조값을 활용하지 않고 지리참조를 수행해야하는 경우가 자주 발생하게 된다. 본 연구는 지상기준점이 가용하지 않은 경우에 다분광카메라로부터의 영상의 지리참조 정밀도를 향상시키기 위해 같이 탑재된 고해상도 RGB카메라의 영상을 활용하는 방안에 대하여 연구한다. 드론 영상은 우선 번들조정을 통해 카메라의 외부표정 요소를 추정하였고, 이를 지상 기준점을 이용한 경우의 외부표정 및 위치결과와 비교하였다. 실험결과, 고해상도 영상을 포함하여 번들조정을 하게 될 경우, 다분광 카메라 영상을 단독으로 활용할 때보다, 다분광 카메라 영상의 지리참조 오차가 비약적으로 감소하였음을 확인하였다. 추가로 한 지상 지점에서 드론으로의 방향각을 추정할 때의 오차를 분석한 결과, 마찬가지로 고해상도 RGB영상을 포함하여 번들조정하게 되면 기존의 방향각 오차가 한 단위이상 감소하는 것으로 나타났다.

저가형 드론의 외부표정요소에 따른 위치결정 정확도 분석 (Positional Accuracy Analysis According to the Exterior Orientation Parameters of a Low-Cost Drone)

  • 김두표;이재원
    • 대한토목학회논문집
    • /
    • 제42권2호
    • /
    • pp.291-298
    • /
    • 2022
  • 최근 개발되는 드론은 저가이면서 운용의 편의성 또한 높아 드론을 이용한 공간정보 제작 및 활용이 나날이 증대되고 있다. 그러나, 대부분 저가형의 드론은 저정밀도 GNSS (Global Navigation Satellite System), IMU (Inertial Measurement Unit)를 탑재하여 영상을 취득하기 때문에 영상이 초기에 가지고 있는 위치정보 및 회전각 요소의 정확도가 낮다. 또한, 기체가 작고 가벼워 바람의 영향을 많이 받기 때문에 일정한 중복도를 유지하기에 어려움이 있으며 이러한 문제가 위치결정 정확도에 영향을 미친다. 이에 본 연구에서는 외부표정요소 변화에 따른 위치 정확도 변화를 분석하기 위하여 서로 다른 시기에 촬영한 영상을 Pix4D Mapper로 영상처리하고 성과물의 정확도를 분석하였다. 외부표정요소에 따른 정확도 변화를 세밀하게 분석하기 위하여 1차 처리 결과의 외부표정요소를 2차 처리 시 메타데이터로 활용하였다. 이후 외부표정요소를 스트립별로 나누어 변화량을 분석하였다. 분석 결과 회전각 요소 중 Omega, Phi값의 변화는 표고위치 정확도, Kappa값은 평면위치 정확도의 저하에 더욱 관련되어 있음을 입증하였다.

GPS를 활용한 Vision/IMU/OBD 시각동기화 기법 (A Time Synchronization Scheme for Vision/IMU/OBD by GPS)

  • 임준후;최광호;유원재;김라우;이유담;이형근
    • 한국항행학회논문지
    • /
    • 제21권3호
    • /
    • pp.251-257
    • /
    • 2017
  • 차량의 정확한 위치 추정을 위하여 GPS (global positioning system)와 영상 센서, 관성 센서 등을 결합한 복합 측위에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 복합 측위에 있어 중요한 요소 중 하나인 각 센서 간의 시각동기화 기법을 제안한다. 제안된 기법은 GPS 시각 정보를 기준으로 시각동기화 된 영상 센서, 관성 센서와 OBD (on-board diagnostics) 측정치를 획득하는 기법이다. GPS로부터 시각 정보와 위치 정보를 획득하며, 관성 센서로부터 차량의 자세에 관련된 측정치와 OBD를 활용하여 차량의 속력을 획득한다. 영상 센서로부터 획득한 영상에 GPS 시각 정보와 위치 정보, 관성 센서와 OBD의 측정치를 색상으로 변환하여 영상 픽셀에 삽입하는 기법을 제안한다. 또한, 영상에 삽입된 시각동기화 된 센서 측정치들은 변환 과정을 통하여 추출할 수 있다. 각 센서들의 결합을 위하여 임베디드 리눅스 보드를 활용하였으며, 제안된 기법의 성능 평가를 위하여 실제 차량 주행을 통한 실험을 수행하였다.

고공 비행개시가 가능한 접이식 쿼더콥터 자율비행 실험 (Autonomous Flight Experiment of a Foldable Quadcopter with Airdrop Launching Function)

  • 이청화;주백석
    • 한국기계가공학회지
    • /
    • 제17권2호
    • /
    • pp.109-117
    • /
    • 2018
  • The experimental results are presented of an autonomous flight algorithm of a foldable quadcopter with airdrop launching functions. A foldable wing structure enabled the quadcopter to be inserted into a rocket container with limited space. The foldable quadcopter was then separated from the rocket in the air. The flight pattern was tracked using a global positioning system (GPS) with various sensors, including an inertial measurement unit (IMU) module until a designated target position was reached. Extensive field tests were conducted through an international rocket competition, ARLISS 2017, which was held in Black Rock Desert, Nevada, USA. The flight trajectory record of the experiments is stored in electrically erasable programmable read-only memory (EEPROM) embedded in the main control unit. The flight record confirmed that the quadcopter successfully separated from the rocket, executed flight toward the target for a certain length of time, and stably landed on the ground.

Attitude Determination GPS/INS Integrated Navigation System with FDI Algorithm for a UAV

  • Oh Sang Heon;Hwang Dong-Hwan;Park Chansik;Lee Sang Jeong;Kim Se Hwan
    • Journal of Mechanical Science and Technology
    • /
    • 제19권8호
    • /
    • pp.1529-1543
    • /
    • 2005
  • Recently an unmanned aerial vehicle (UAV) has been widely used for military and civil applications. The role of a navigation system in the UAV is to provide navigation data to the flight control computer (FCC) for guidance and control. Since performance of the FCC is highly reliant on the navigation data, a fault in the navigation system may lead to a disastrous failure of the whole UAV. Therefore, the navigation system should possess a fault detection and isolation (FDI) algorithm. This paper proposes an attitude determination GPS/INS integrated navigation system with an FDI algorithm for a UAV. Hardware for the proposed navigation system has been developed. The developed hardware comprises a commercial inertial measurement unit (IMU) and the integrated navigation package (INP) which includes an attitude determination GPS (ADGPS) receiver and a navigation computer unit (NCU). The navigation algorithm was implemented in a real-time operating system with a multi-tasking structure. To evaluate performance of the proposed navigation system, a flight test has been performed using a small aircraft. The test results show that the proposed navigation system can give accurate navigation results even in a high dynamic environment.

MULTI-SENSOR DATA FUSION FOR FUTURE TELEMATICS APPLICATION

  • Kim, Seong-Baek;Lee, Seung-Yong;Choi, Ji-Hoon;Choi, Kyung-Ho;Jang, Byung-Tae
    • Journal of Astronomy and Space Sciences
    • /
    • 제20권4호
    • /
    • pp.359-364
    • /
    • 2003
  • In this paper, we present multi-sensor data fusion for telematics application. Successful telematics can be realized through the integration of navigation and spatial information. The well-determined acquisition of vehicle's position plays a vital role in application service. The development of GPS is used to provide the navigation data, but the performance is limited in areas where poor satellite visibility environment exists. Hence, multi-sensor fusion including IMU (Inertial Measurement Unit), GPS(Global Positioning System), and DMI (Distance Measurement Indicator) is required to provide the vehicle's position to service provider and driver behind the wheel. The multi-sensor fusion is implemented via algorithm based on Kalman filtering technique. Navigation accuracy can be enhanced using this filtering approach. For the verification of fusion approach, land vehicle test was performed and the results were discussed. Results showed that the horizontal position errors were suppressed around 1 meter level accuracy under simulated non-GPS availability environment. Under normal GPS environment, the horizontal position errors were under 40㎝ in curve trajectory and 27㎝ in linear trajectory, which are definitely depending on vehicular dynamics.