DOI QR코드

DOI QR Code

요구 공간해상도를 만족하는 무인기의 유효 비행 영역 생성 방법

Methodology for Generating UAV's Effective Flight Area that Satisfies the Required Spatial Resolution

  • 우지원 (LIG넥스원 지상통제연구소) ;
  • 김양곤 (LIG넥스원 지상통제연구소) ;
  • 안정우 (LIG넥스원 지상통제연구소) ;
  • 박상윤 (LIG넥스원 지상통제연구소) ;
  • 남경래 (LIG넥스원 지상통제연구소)
  • Ji Won Woo (Ground Control System R&D Lab, LIG Nex1) ;
  • Yang Gon Kim (Ground Control System R&D Lab, LIG Nex1) ;
  • Jung Woo An (Ground Control System R&D Lab, LIG Nex1) ;
  • Sang Yun Park (Ground Control System R&D Lab, LIG Nex1) ;
  • Gyeong Rae Nam (Ground Control System R&D Lab, LIG Nex1)
  • 투고 : 2024.07.29
  • 심사 : 2024.08.22
  • 발행 : 2024.08.31

초록

현대전에서 무인기의 역할은 지속해서 커지고 있으며, 무인기의 자율적 임무 수행 능력이 필요해지고 있다. 따라서, 촬영 영상을 기반으로한 무인기의 자율적인 표적 탐지/식별이 필수적이다. 하지만, 영상인식 인공지능 모델의 표적 인식률은 영상 내 표적의 선명도에 따라 큰 영향을 받는다. 따라서 본 연구에서는 요구 공간해상도를 고려한 촬영 장비의 화각 및 무인기의 비행 위치를 결정하는 방법을 다룬다. 먼저, 촬영하고자 하는 좌표에 대한 무인기의 상대 고도, 지면 거리, 그리고 촬영 화각에 따라 촬영 영역의 크기를 계산 방법을 다룬다. 이 방법을 통해, 본 논문에서는 촬영하고자 하는 공간해상도를 만족시킬 수 있는 촬영 영역의 넓이를 먼저 계산하고, 이를 만족할 수 있는 무인기의 상대 고도, 지면 거리, 그리고 촬영 화각을 계산한다. 또한, 촬영하고자 하는 좌표를 중심으로 요구되는 공간해상도를 만족시킬 수 있는 촬영 화각에 따른 무인기의 유효한 위치 범위를 계산하고, 이를 촬영 임무 계획에 활용할 수 있도록 표 형식으로 가공하는 방법을 제안한다.

The role of unmanned aerial vehicles (UAVs) in modern warfare is increasingly significant, making their capacity for autonomous missions essential. Accordingly, autonomous target detection/identification based on captured images is crucial, yet the effectiveness of AI models depends on image sharpness. Therefore, this study describes how to determine the field of view (FOV) of the camera and the flight position of the UAV considering the required spatial resolution. Firstly, the calculation of the size of the acquisition area is discussed in relation to the relative position of the UAV and the FOV of the camera. Through this, this paper first calculates the area that can satisfy the spatial resolution and then calculates the relative position of the UAV and the FOV of the camera that can satisfy it. Furthermore, this paper propose a method for calculating the effective range of the UAV's position that can satisfy the required spatial resolution, centred on the coordinate to be photographed. This is then processed into a tabular format, which can be used for mission planning.

키워드

Ⅰ. 서론

현대전에서 무인기의 역할은 지속해서 커지고 있으며, 특히 러시아-우크라이나 전에서는 무인기의 대기갑 타격 및 저지 능력이 돋보이고 있다. 이러한 무인기의 대기갑 능력을 더욱 향상시키기 위해서는 전통적인 수동 조종 무인기 운용을 탈피하여 자율적 임무 수행이 가능한 무인기 활용이 필수적이다.

무인기의 자율적인 임무 수행을 위해서는 OODA (observe, orient, decide, act) 루프를 통한 무인기의 자율 의사결정 기능을 구현해야 하며, 이를 위해서는 외부 환경 인식을 위한 센서 탑재가 필수적이다 [1],[2]. 일반적인 군용 무인기는 EO/IR 장비를 통해 촬영 영상을 얻을 수 있으며, 주어진 촬영 영상을 기반으로 영상인식 인공지능 모델이 촬영 영상 내부 표적의 탐지/식별을 수행한다. 이를 통해 무인기는 자율적인 표적의 탐지/식별을 수행할 수 있다.

하지만, 영상인식 인공지능 모델의 표적 인식률은 영상 내 표적의 선명도에 따라 큰 영향을 받는다. 이러한 영상 내 표적의 선명도는 영상의 공간해상도에 따라 결정된다. 공간해상도는 주로 위성 촬영 영상에서 얼마나 공간을 세부적으로 표현할 수 있는지 나타내는 척도로써 사용된다. 공간해상도는 이미지나 영상에서 한 픽셀이 실제 세계에서 얼마만큼의 면적을 표현하는지를 나타내는 단위이며, 1 픽셀이 1 m2을 나타내는 경우 1 m2/pix로 표현된다. 따라서, 영상인식 인공지능 모델의 성능을 고려하여 충분히 높은 표적 인식률을 달성할 수 있도록 요구되는 공간해상도를 결정하고, 그에 맞춰 무인기 항공 촬영 계획의 제약조건으로 활용할 수 있어야 한다.

무인기 항공 촬영의 경우에, 공간해상도는 촬영 장비의 화각, 짐벌 각도, 영상의 해상도, 그리고 무인기의 비행고도에 따라 영향을 받는다. 이때, 촬영 장비의 해상도는 동적인 조절이 어려우므로, 무인기는 요구 공간해상도에 따라 촬영 장비의 화각 및 무인기의 비행 위치를 결정할 수 있어야 한다. 이러한 기능은 무인기의 자율적인 임무 계획에 필수적인 기능으로 판단된다.

무인기의 항공 촬영 계획에 대한 많은 선행연구들이 있었으나, 영상인식 인공지능 모델의 성능을 고려하지 않는 항공 촬영 계획 연구들이 대부분이다 [3]-[12]. 따라서, 본 논문에서는 무인기의 촬영 임무 계획 시 요구 공간해상도를 고려한 촬영 장비의 화각 및 무인기의 비행 위치를 결정하는 방법을 제시하고자 한다.

본 논문은 다음과 같이 구성된다. 먼저, 2장에서는 촬영 중심점에 대한 무인기의 상대적인 고도 및 지면 거리 그리고 촬영 화각에 따른 촬영 영역 계산 방법을 소개한다. 3장에서는, 주어진 요구 공간해상도를 만족할 수 있는 무인기의 상대 고도 및 지면 거리 결정 방법에 대해서 제안한다. 마지막으로 4장에서는 결론을 맺는다.

Ⅱ. 촬영영역 계산 방법

영상인식 인공지능 모델의 성능을 고려하여 촬영 장비의 화각 및 무인기의 비행 위치를 결정하기 위해서는 먼저 촬영 영역을 계산할 수 있어야 한다. 본 장에서는 지구의 곡률 및 지형의 높낮이를 고려하지 않는 직교 좌표계 상에서의 촬영 영역을 계산하는 방법을 설명한다.

2-1 촬영영역 계산

고고도에서 운용되는 무인기가 수행하는 촬영 임무는 개별적인 표적을 수색하고 추적하기보다는 넓은 영역에서의 광범위한 탐지를 목적으로 하는 경우가 많다. 따라서 고고도 무인기는 본 논문에서 고려하고자 하는 임무를 수행하기에는 적합하지 않다. 이에 따라, 본 논문에서 고려하는 무인기는 상대적으로 낮은 고도에서 운용되는 것으로 가정한다. 따라서, 직교 좌표계 상에서 촬영 영역을 계산하더라도 지구 곡면으로 인해 발생하는 오차는 무시할 수 있는 수준으로 판단된다.

직교 좌표계 상에서 무인기의 고도 및 촬영 장비의 상태에 따른 촬영 영역을 산출하는 방법은 논문[13]에서 논의된 바 있으며, 본 논문의 완전성을 위해 해당 방법을 간략히 설명하고자 한다.

일반적인 상황에서, 무인기는 피치, 롤 자세각이 비행 상태에 따라 변화한다. 하지만 본 논문에서 촬영 장비의 김발을 이용하여 충분히 무인기의 피치, 롤 자세각의 변화에 대응할 수 있다고 가정하고 무인기의 자세각 변화를 고려하지 않는다. 또한 촬영 장비의 장착각 및 무인기 무게 중심점과의 이격 거리도 고려하지 않으며, 무인기의 무게 중심점과 촬영 장비의 중심점을 같다고 가정한다.

그림 1과 같이 지면 좌표계에서 촬영 장비의 중심점은 O에 위치하고 촬영 중심점 G를 지향한다고 할 때, 지면과 촬영 중심점이 이루는 각은 곧 촬영 고각 이며 수식(1)과 같이 나타난다. 촬영 장비의 중심점과 지면과의 수직거리는 고도 h로 나타낸다. 이때, 촬영 장비의 수직 화각 αv 및 수평 화각 αh에 따라, 지면 상에 촬영되는 영역이 결정된다. 촬영 영역은 롤 자세각이 0 °일 때, 그림 2와 같이 일반적으로 사다리꼴 형태를 띤다.

\(\begin{align}\theta=\tan ^{-1}\left(\frac{h}{d}\right)\end{align}\)       (1)

HHHHBI_2024_v28n4_400_2_f0001.png 이미지

그림 1. 무인기와 촬영중심점의 상대위치에 따른 촬영영역

Fig. 1. The camera footprint according to the relative location of the UAV to the center point of the area to be imaged.

HHHHBI_2024_v28n4_400_3_f0001.png 이미지

그림 2. 촬영영역의 넓이

Fig. 2. The area of camera footprint.

이때, 촬영 영역의 세로 길이 l, 전방 가로 길이 w1 그리고 후방 가로 길이 w2는 각각 수식 (2)-(4) 과와 같이 나타난다. 따라서 촬영 영역의 넓이 s는 수식 (5)과 같이 나타난다.

\(\begin{align}l=h\left[\cot \left(\theta-\frac{\alpha_{v}}{2}\right)-\cot \left(\theta+\frac{\alpha_{v}}{2}\right)\right]\end{align}\)       (2)

\(\begin{align}w_{1}=\frac{2 h \tan \left(\alpha_{h} / 2\right)}{\sin \left(\theta-\alpha_{v} / 2\right)}\end{align}\)       (3)

\(\begin{align}w_{2}=\frac{2 h \tan \left(\alpha_{h} / 2\right)}{\sin \left(\theta+\alpha_{v} / 2\right)}\end{align}\)       (4)

\(\begin{align}s=\frac{l \cdot\left(w_{1}+w_{2}\right)}{2}\end{align}\)       (5)

2-2 화각 관계식

촬영 영역을 계산하기 위해서는 수직 및 수평 화각의 값이 각각 필요하다. 하지만, 일반적으로 촬영 장비의 화각은 대각선 화각으로 표현되는 경우가 많다. 따라서, 대각선 화각이 주어졌을 때, 수직, 수평 화각을 구하기 위한 공식을 유도하고자 한다. 먼저, 그림 3과 같이 초점의 길이 f와 센서의 길이 δ가 주어져 있을 때, 화각 α을 계산하는 식은 식 (6)과 같다.

\(\begin{align}\alpha=2 \tan ^{-1}\left(\frac{\delta}{2 f}\right)\end{align}\)       (6)

HHHHBI_2024_v28n4_400_3_f0002.png 이미지

그림 3. 촬영 화각

Fig. 3. Field of view.

일반적인 촬영 장비의 센서는 직사각형으로 이루어져 있으며, 센서의 길이는 대각선, 수직, 수평에 따라 다르다. 센서의 종횡비 μ가 주어져 있을 때, 대각선 화각 αd과 수직화각 αv, 수평화각 αh간의 관계는 다음과 같이 유도된다.

먼저, 식(6)으로부터 각 센서 길이 별, 화각과의 관계식은 식 (7)과같이 나타난다.

\(\begin{align}\begin{array}{l}\alpha_{d}=2 \tan ^{-1}\left(\frac{\delta_{d}}{2 f}\right) \\ \alpha_{v}=2 \tan ^{-1}\left(\frac{\delta_{v}}{2 f}\right) \\ \alpha_{h}=2 \tan ^{-1}\left(\frac{\delta_{h}}{2 f}\right)\end{array}\end{align}\)       (7)

이때, 센서의 종횡비에 따른 수직 센서 길이 및 수평 센서 길이 관계는 식 (8)과 같다.

δh = μ ∙ δv       (8)

피타고라스의 정리에 따라 각 센서 길이 간의 관계는 식(9)과 같이 나타난다.

δ2d = δ2h + δ2v       (9)

식 (9)에 식 (8)을 대입하면 각 대각선 센서 길이와 각 수직, 수평 센서 길이 간의 관계가 식 (10)과같이 유도된다.

\(\begin{align}\begin{array}{l}\delta_{d}=\delta_{v} \sqrt{1+\mu^{2}} \\ \delta_{d}=\delta_{h} \sqrt{1+\frac{1}{\mu^{2}}}\end{array}\end{align}\)       (10)

식(10)을 식(7)에 대입하여 유도하면 식 (11)과같이 대각선 화각에 따른 수직, 수평 화각 공식이 유도된다.

\(\begin{align}\begin{array}{l}\alpha_{v}=\tan ^{-1}\left(\frac{1}{\sqrt{1+\mu^{2}}}\right) \cdot \alpha_{d} \\ \alpha_{h}=\tan ^{-1}\left(\frac{\mu}{\sqrt{1+\mu^{2}}}\right) \cdot \alpha_{d}\end{array}\end{align}\)       (11)

Ⅲ. 요구 공간해상도를 고려한 촬영 화각 및 무인기 위치 결정

영상인식 인공지능 모델은 사람, 물체, 장소 및 기타 요소를 식별할 수 있도록 이미지를 학습한다. 이때, 딥러닝 모델, 특히 합성곱 신경망(CNN; convolutional neural network)은 이미지의 픽셀을 분석하여 객체의 고유한 특징과 패턴을 학습한다. 이 과정에서 모델은 이미지의 각 픽셀과 그 주변 픽셀 간의 관계를 학습하여 객체를 식별한다. 따라서, 영상 내부 객체의 크기는 객체 특징이 학습 및 식별이 가능한 수준으로 나타나도록 결정되어야 한다. 즉, 영상 내부 객체가 일정한 개수 이상의 픽셀 영역을 차지하고 있어야 한다.

영상 내부에 객체가 차지해야 하는 최소 픽셀 개수는 합성곱 신경망의 내부적인 작동 원리를 명확히 알 수 없으므로, 산술적으로 정의하기는 매우 어렵다. 따라서, 주어진 영상인식 모델을 활용하여 다수의 샘플에 대한 인식률을 측정하여 통계적인 추측을 수행하여야 한다. 다수의 샘플은 다양한 촬영 각도 및 공간해상도에 따라 생성되어야 하며, 운용자가 만족할 만한 인식률을 보이는 통계적인 공간해상도를 결정하여 요구 공간해상도를 정의해야 한다.

센서의 가로 픽셀 수 Ph와 세로 픽셀 수 Pv가 주어져 있을 때, 센서의 총 픽셀 수 P는 식(12)과 같이 나타난다.

P = Ph ∙ Pv       (12)

요구 공간해상도 γ가 결정되어 있을 때, 요구되는 촬영 영역의 최대 넓이 sreq는 식 (13)과같이 결정된다.

sreq = γ ∙ P       (13)

식(5)을 통해 계산되는 촬영 영역의 넓이 s가 요구되는 촬영 영역의 최대 넓이 sreq보다 작다면, 요구 공간해상도를 만족한다. 본 논문에서는 s가 sreq보다 작도록 하는 무인기의 위치 및 촬영 화각을 계산하고자 한다. 이러한 접근 방법을 통해, 요구 공간해상도와 촬영하고자 하는 지점이 미리 결정된 상태에서 요구 공간해상도 제약조건을 만족할 수 있는 촬영 장비의 화각 및 무인기의 비행 위치를 결정하는 방법에 관하여 서술한다.

먼저, 식 (2)~(4)에서 h성분을 좌 항으로 유도하여 식 (14)과 같은 함수를 정의한다. 이때, 대각선 화각 αd은 식 (11)을 통해 가로 화각 αh및 세로 화각 αv으로 변환된다.

\(\begin{align}\begin{array}{l}f_{l}\left(\theta, \alpha_{d}\right)=\left[\cot \left(\theta-\frac{\alpha_{v}}{2}\right)-\cot \left(\theta+\frac{\alpha_{v}}{2}\right)\right] \\ f_{w_{1}}\left(\theta, \alpha_{d}\right)=\frac{\tan \left(\alpha_{h} / 2\right)}{\sin \left(\theta-\alpha_{v} / 2\right)} \\ f_{w_{2}}\left(\theta, \alpha_{d}\right)=\frac{\tan \left(\alpha_{h} / 2\right)}{\sin \left(\theta+\alpha_{v} / 2\right)}\end{array}\end{align}\)       (14)

식 (5)을 위 함수들을 이용하여 나타내면 식 (15)과 같이 유도된다.

s = h2[f1 ∙ (fw1 + fw2)]       (15)

이때, 식 (15)을 h에 대해 정리하면 식 (16)과 같이 유도 된다.

\(\begin{align}h=\sqrt{\frac{s}{\left[f_{l} \cdot\left(f_{w_{1}}+f_{w_{2}}\right)\right]}}\end{align}\)       (16)

식(17)을 이용하면, 식 (18)과같이 식(16)을 d에 대한 식으로 유도할 수 있다.

\(\begin{align}\tan (\theta)=\frac{h}{d}\end{align}\)       (17)

\(\begin{align}d=\frac{1}{\tan \theta} \sqrt{\frac{s}{\left[f_{l} \cdot\left(f_{w_{1}}+f_{w_{2}}\right)\right]}}\end{align}\)       (18)

식(16), (18)을 통해서 촬영 고각과 촬영 화각이 주어졌을 때, 촬영 영역의 넓이가 sreq이 되는 무인기의 고도 및 상대 지면 거리를 계산하는 함수를 다음과 같이 유도할 수 있다.

\(\begin{align}f_{h}\left(\theta, \alpha_{d}, s_{r e q}\right)=h_{r e q}=\sqrt{\frac{s_{r e q}}{\left[f_{l} \cdot\left(f_{w_{1}}+f_{w_{2}}\right)\right]}}\end{align}\)       (19)

\(\begin{align}f\left(\theta, \alpha_{d}, s_{r e q}\right)=d_{r e q}=\frac{1}{\tan \theta} \sqrt{\frac{s_{r e q}}{\left[f_{l} \cdot\left(f_{w_{1}}+f_{w_{2}}\right)\right]}}\end{align}\)       (20)

sreq는 요구 공간해상도와 센서 픽셀 총개수에 대한 식으로 나타낼 수 있으므로, 식 (19), (20)을 활용하여, 촬영 화각 및 요구 공간해상도가 주어졌을 때, 촬영 고각에 따른 무인기의 고도 및 상대 지면 거리를 계산할 수 있다. 이때, 촬영 고각 θ이 0 °이 될 경우, 식(20)의 분모 항이 0이 되어 값을 구할 수 없음에 주의해야 한다.

본 논문에서는 이해를 돕기 위해 한 가지 조건에서의 결과를 예시로 제공한다. 다음과 같은 조건에서 요구 공간해상도는 0.01 m2/pix 로 계산되며, 따라서 요구되는 촬영 영역의 최대 넓이 sreq는 20736 m2이다.

이때, 촬영 고각을 다음과 같은 범위 (θ∈[5°, 90°])에서 변화해 가며, 식 (19),(20) 을 통해 촬영 영역의 넓이가 sreq가 되는 무인기의 고도 및 상대 지면 거리를 계산한다. 계산 결과는 그림 4, 5의 한계선으로 표현된다. 한계선 내부의 운용 영역에서 촬영 시, 촬영 영역의 넓이가 sreq보다 작아지기 때문에 더 정밀한 촬영이 가능하다. 따라서 한계선 내부 영역은 촬영이 유효한 영역으로 정의될 수 있다.

그림 4. 촬영 화각 별, 무인기 유효 비행 영역 – FoV 5°

Fig. 4. Effective flight area of the UAV – FoV 5°.

그림 5. 촬영 화각 별, 무인기 유효 비행 영역 – FoV 20°

Fig. 5. Effective flight area of the UAV – FoV 20°.

표 1. 분석 조건

Table 1. Analysis condition.

HHHHBI_2024_v28n4_400_5_t0001.png 이미지

그림 4와 그림 5는 촬영 중심점이 (0,0)에 위치할 때, 요구 해상도를 만족할 수 있는 무인기의 고도 및 상대 지면 거리 범위를 나타낸다. 요구 공간해상도를 만족할 수 있는 무인기의 운용 영역은 그림 4, 5의 녹색으로 표현된 촬영 유효 영역으로 나타난다. 그림 6는 이해를 돕기 위해 3차원 시점으로 촬영 화각이 20°인 경우의 촬영 유효 영역을 표현한 그림이다. 그림 5의 (0,0)에 표적이 위치한다고 할 때, 붉은색 구형 영역 내부에 무인기가 위치하여 촬영한다면, 요구 공간해상도를 만족하며 표적을 촬영할 수 있다.

그림 6. 무인기 유효 비행 영역 – 3차원 시점

Fig. 6. Effective flight area of the UAV - 3D view.

촬영 유효 영역은 무인기의 촬영 중심점에 대한 상대 위치를 기준으로 유효성을 판단하는 데 활용될 수 있다. 그림 7은 촬영 유효 영역을 테이블 형태로 가공하는 방법을 나타낸다. 이 테이블은 무인기의 상대 고도, 지면 거리, 그리고 촬영 장비의 화각에 따라 촬영이 유효한지 여부를 저장한다. 그림 8은 생성된 테이블 형태의 이해를 돕기 위해, 테이블을 시각화하여 나타낸 그림이다. 임무 계획 시, 촬영 중심점에 대한 무인기의 상대 고도 및 지면 거리를 입력하면, 이 테이블을 참조하여 촬영이 유효한지 판단할 수 있다. 이는, 유효한 촬영 임무 계획 수립에 활용할 수 있다.

HHHHBI_2024_v28n4_400_6_f0001.png 이미지

그림 7. 요구 공간해상도를 만족하는 유효 비행 영역 테이블 생성 방법

Fig. 7. Methods for generating an effective flight area table that satisfies the required spatial resolution.

HHHHBI_2024_v28n4_400_6_f0002.png 이미지

그림 8. 유효 비행 영역 테이블 시각화

Fig. 8. Effective flight area table visualization.​​​​​​​

Ⅳ. 결론

본 연구에서는 요구되는 공간해상도를 만족시키기 위해 무인기의 상대적 위치와 촬영 화각을 결정하는 방법을 제시하였다. 촬영하고자 하는 좌표에 대한 무인기의 상대 고도, 지면 거리, 그리고 촬영 화각에 따라 촬영 영역의 크기를 계산할 수 있음을 이용하였다. 본 논문에서는 촬영하고자 하는 공간해상도를 만족시킬 수 있는 촬영 영역의 넓이를 먼저 계산하고, 이를 만족할 수 있는 무인기의 상대 고도, 지면 거리, 그리고 촬영 화각을 계산하였다. 또한 촬영하고자 하는 좌표를 중심으로 요구되는 공간해상도를 만족시키기 위해 촬영 화각에 따른 무인기의 유효한 비행 영역을 계산하고, 이를 촬영 임무 계획에 활용할 수 있도록 표 형식으로 가공하는 방법을 제안한다.

일반적으로 주어진 영역을 촬영하는 무인기의 임무 계획을 작성할 때, CPP(coverage path planning) 알고리즘을 통해 촬영 중심점을 결정하고 각 촬영 중심점을 연결하여 무인기의 경로점을 결정한다. 이러한 방법은 무인기의 고도를 운용자가 직접 조절하여 간접적으로 공간해상도를 조절할 수 있으나 운용자의 경험에 지나치게 의존할 수밖에 없다. 본 연구에서 제안하는 방법은 무인기의 촬영 임무 계획 시, 요구 공간해상도를 만족할 수 있도록 무인기의 경로점을 생성하는 데 이바지할 수 있을 것으로 보인다.

하지만, 본 연구에서는 지구 곡률 및 지면의 높낮이를 고려하지 않았으며, 지형 높낮이로 인한 촬영 영역의 굴곡을 고려하지 않는다. 또한, 영상인식 인공지능 모델의 성능에 따른 요구 촬영 공간해상도를 결정하는 방법이 추가로 필요하다. 따라서 이러한 단점을 극복하기 위한 추후 연구가 필요하다. 또한, 본 연구를 활용하여 무인기의 촬영 및 경로 계획을 수립하기 위한 구체적인 방법론에 관한 추가적 연구를 수행할 예정이다.

Acknowledgments

이 논문은 2024년 정부(방위사업청)의 재원으로 국방기술진흥연구소의 지원을 받아 수행된 연구임("KRIT-CT-22-064-00, 전술 군집 무인기 임무계획 및 자율 임무 재계획 기술")

참고문헌

  1. J. Boyd, A Discourse on Winning and Losing, Maxwell AFB, AL: Air University Press, 2018.
  2. F. P. B. Osinga, Science, Strategy and War: The Strategic Theory of John Boyd, 1-st Ed. London, UK: Routledge, 2007.
  3. Y. Choi, Y. Choi, S. Briceno, and D. N. Mavris, "Energy-constrained multi-UAV coverage path planning for an aerial imagery mission using column generation," Journal of Intelligent & Robotic Systems 97, 125-139, 2020. DOI: https://doi.org/10.1007/s10846-019-01010-4
  4. G. Ristorto, P. D'Incalci, R. Gallo, F. Mazzetto, and G. Guglieri, "Mission planning for the estimation of the field coverage of unmanned aerial systems in monitoring mission in precision farming," Chemical Engineering Transactions, vol. 58, pp. 649-654, Jun. 2017. DOI: https://doi.org/10.3303/CET1758109
  5. C. S. Hsieh, D. H. Hsiao, and D. Y. Lin, "Contour mission flight planning of UAV for photogrammetric in hillside areas," Applied Science, Vol. 13, Article No: 7666, 2023. DOI: https://doi.org/10.3390/app13137666
  6. P. Tong, X. Yang, Y. Yang, W. Liu, and P. Wu, "Multi-UAV collaborative absolute vision positioning and navigation: A survey and discussion," Drones, Vol. 7, No. 4, Article No: 261, 2023. DOI: https://doi.org/10.3390/drones7040261
  7. H. Liu, M. Lin, and L. Deng, "UAV route planning for aerial photography under interval uncertainties," Optik, Vol 127, Issue 20, pp. 9695-9700, 2016. DOI: https://doi.org/10.1016/j.ijleo.2016.06.117
  8. E. Seifert, S. Seifert, H. Vogt, D. Drew, J. v. Aardt, A. Kunneke, and T. Seifert. 2019. "Influence of drone altitude, image overlap, and optical sensor resolution on multi-view reconstruction of forest images," Remote Sensing, Vol. 11, No. 10, Article No: 1252, 2019. DOI: https://doi.org/10.3390/rs11101252
  9. K. Kumar, N. Kumar, "Region coverage-aware path planning for unmanned aerial vehicles: A systematic review," Physical Communication, Vol. 59, Article No: 102073, 2023. DOI: https://doi.org/10.1016/j.phycom.2023.102073.
  10. G. S. C. Avellar, G. A. S. Pereira, L. C. A. Pimenta, and P. Iscold, "Multi-UAV routing for area coverage and remote sensing with minimum time," Sensors, Vol. 15, No. 11, 27783-27803, 2015. DOI: https://doi.org/10.3390/s151127783
  11. M. A. Luna, M. S. A. Isaac, A. R. Ragab, P. Campoy, P. F. Pena, and M. Molina, "Fast multi-UAV path planning for optimal area coverage in aerial sensing applications," Sensors, Vol. 22, No. 6, Article No: 2297, 2022. DOI: https://doi.org/10.3390/s22062297
  12. Y. Cao, X. Cheng and J. Mu, "Concentrated coverage path planning algorithm of UAV formation for aerial photography," IEEE Sensors Journal, Vol. 22, No. 11, pp. 11098-11111, June 2022. DOI: https://doi.org/10.1109/JSEN.2022.3168840.
  13. K. Chen, J. Zhang, M. Wang, and H. Li, "Research on search probability and camera footprint of region coverage for UAVs," International Journal of Advanced Robotic Systems, Vol. 18, No. 3, pp. 1-12, Mar. 2022. DOI: 10.1177/17298814221001030.