• 제목/요약/키워드: Cloud-free image

검색결과 18건 처리시간 0.023초

INVESTIGATION OF CLOUD COVERAGE OVER ASIA WITH NOAA AVHRR TIME SERIES

  • Takeuchit Wataru;Yasuokat Yoshifumi
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.26-29
    • /
    • 2005
  • In order to compute cloud coverage statistics over Asian region, an operational scheme for masking cloud-contaminated pixels in Advanced Very High Resolution Radiometer (AVHRR) daytime data was developed, evaluated and presented. Dynamic thresholding was used with channell, 2 and 3 to automatically create a cloud mask for a single image. Then the IO-day cloud coverage imagery was generated over the whole Asian region along with cloud-free composite imagery. Finally the monthly based statistics were computed based on the derived cloud coverage imagery in terms of land cover and country. As a result, it was found that 20-day is required to acquire the cloud free data over the whole Asia using NOAA AVHRR. The to-day cloud coverage and cloud-free composite imagery derived in this research is available via the web-site http://webpanda.iis.u-tokyo.ac.jp/CloudCover/.

  • PDF

광학 영상의 구름 제거를 위한 조건부 생성적 적대 신경망과 회귀 기반 보정의 결합 (Combining Conditional Generative Adversarial Network and Regression-based Calibration for Cloud Removal of Optical Imagery)

  • 곽근호;박소연;박노욱
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1357-1369
    • /
    • 2022
  • 구름 제거는 식생 모니터링, 변화 탐지 등과 같은 광학 영상이 필요한 모든 작업에서 필수적인 영상 처리 과정이다. 이 논문에서는 조건부 생성적 적대 신경망(conditional generative adversarial networks, cGANs)과 회귀 기반 보정을 결합하여 구름이 없는 시계열 광학 영상 세트를 구성하는 2단계의 구름 제거 기법을 제안하였다. 첫 번째 단계에서는 광학 영상과 synthetic aperture radar 영상 간 정량적 관계를 이용하는 cGANs을 이용하여 초기 예측 결과를 생성한다. 두 번째 단계에서는 구름이 아닌 영역에서 예측 결과와 실제 값과의 관계를 random forest 기반 회귀 모델링을 통해 정량화한 후에 cGANs 기반 예측 결과를 보정한다. 제안 기법은 김제의 벼 재배지에서 Sentinel-2 영상과 COSMO-SkyMed 영상을 이용한 구름 제거 실험을 통해 적용 가능성을 평가하였다. cGAN 모델은 구름 영역에서 지표면 상태의 급격한 변화가 발생하는 논 재배지를 대상으로 반사율 값을 효과적으로 예측할 수 있었다. 또한 두 번째 단계의 회귀 기반 보정은 예측 대상 영상에서 시간적으로 떨어진 보조 영상을 이용하는 회귀 기반 구름 제거 기법에 비해 예측 정확도를 향상시킬 수 있었다. 이러한 실험 결과는 구름이 없는 광학 영상을 환경 모니터링에 이용할 수 없는 경우 제안된 방법이 구름 오염 지역을 복원하는데 효과적으로 적용될 수 있음을 나타낸다.

Cloud Removal Using Gaussian Process Regression for Optical Image Reconstruction

  • Park, Soyeon;Park, No-Wook
    • 대한원격탐사학회지
    • /
    • 제38권4호
    • /
    • pp.327-341
    • /
    • 2022
  • Cloud removal is often required to construct time-series sets of optical images for environmental monitoring. In regression-based cloud removal, the selection of an appropriate regression model and the impact analysis of the input images significantly affect the prediction performance. This study evaluates the potential of Gaussian process (GP) regression for cloud removal and also analyzes the effects of cloud-free optical images and spectral bands on prediction performance. Unlike other machine learning-based regression models, GP regression provides uncertainty information and automatically optimizes hyperparameters. An experiment using Sentinel-2 multi-spectral images was conducted for cloud removal in the two agricultural regions. The prediction performance of GP regression was compared with that of random forest (RF) regression. Various combinations of input images and multi-spectral bands were considered for quantitative evaluations. The experimental results showed that using multi-temporal images with multi-spectral bands as inputs achieved the best prediction accuracy. Highly correlated adjacent multi-spectral bands and temporally correlated multi-temporal images resulted in an improved prediction accuracy. The prediction performance of GP regression was significantly improved in predicting the near-infrared band compared to that of RF regression. Estimating the distribution function of input data in GP regression could reflect the variations in the considered spectral band with a broader range. In particular, GP regression was superior to RF regression for reproducing structural patterns at both sites in terms of structural similarity. In addition, uncertainty information provided by GP regression showed a reasonable similarity to prediction errors for some sub-areas, indicating that uncertainty estimates may be used to measure the prediction result quality. These findings suggest that GP regression could be beneficial for cloud removal and optical image reconstruction. In addition, the impact analysis results of the input images provide guidelines for selecting optimal images for regression-based cloud removal.

AVHRR MOSAIC IMAGE DATA SET FOR ASIAN REGION

  • Yokoyama, Ryuzo;Lei, Liping;Purevdorj, Ts.;Tanba, Sumio
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 1999년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.285-289
    • /
    • 1999
  • A processing system to produce cloud-free composite image data set was developed. In the process, a fine geometric correction based on orbit parameters and ground control points and radiometric correction based on 6S code are applied. Presently, by using AVHRR image data received at Tokyo, Okinawa, Ulaanbaatar and Bangkok, data set of 10 days composite images covering almost whole Asian region.

  • PDF

카메라-라이다 센서 융합을 통한 VRU 분류 및 추적 알고리즘 개발 (Vision and Lidar Sensor Fusion for VRU Classification and Tracking in the Urban Environment)

  • 김유진;이호준;이경수
    • 자동차안전학회지
    • /
    • 제13권4호
    • /
    • pp.7-13
    • /
    • 2021
  • This paper presents an vulnerable road user (VRU) classification and tracking algorithm using vision and LiDAR sensor fusion method for urban autonomous driving. The classification and tracking for vulnerable road users such as pedestrian, bicycle, and motorcycle are essential for autonomous driving in complex urban environments. In this paper, a real-time object image detection algorithm called Yolo and object tracking algorithm from LiDAR point cloud are fused in the high level. The proposed algorithm consists of four parts. First, the object bounding boxes on the pixel coordinate, which is obtained from YOLO, are transformed into the local coordinate of subject vehicle using the homography matrix. Second, a LiDAR point cloud is clustered based on Euclidean distance and the clusters are associated using GNN. In addition, the states of clusters including position, heading angle, velocity and acceleration information are estimated using geometric model free approach (GMFA) in real-time. Finally, the each LiDAR track is matched with a vision track using angle information of transformed vision track and assigned a classification id. The proposed fusion algorithm is evaluated via real vehicle test in the urban environment.

MMT 기반 3차원 포인트 클라우드 콘텐츠의 영역 선별적 전송 방안 (Region Selective Transmission Method of MMT based 3D Point Cloud Content)

  • 김두환;김준식;김규헌
    • 방송공학회논문지
    • /
    • 제25권1호
    • /
    • pp.25-35
    • /
    • 2020
  • 최근 하드웨어 성능뿐 아니라 영상 처리 기술의 발달로 인해 다양한 분야에서 사용자에게 자유로운 시야각과 입체감을 제공하는 3차원 포인트를 다루는 기술에 관한 연구를 지속하고 있다. 3차원 포인트를 표현하는 형식 중 포인트 클라우드 기술은 포인트를 정밀하게 획득/표현할 수 있다는 장점으로 인해 다양한 분야에서 주목받고 있다. 하지만 하나의 3차원 포인트 클라우드 콘텐츠를 표현하기 위해 수십, 수백만 개의 포인트가 필요하므로 기존의 2차원 콘텐츠보다 많은 양의 저장 공간을 요구한다는 단점이 존재한다. 이러한 이유로, 국제 표준화 기구인 MPEG (Moving Picture Experts Group)에서는 3차원 포인트 클라우드 콘텐츠를 효율적으로 압축 및 저장하고, 사용자에게 전송하는 방안에 대해 계속 연구를 진행 중이다. 본 논문에서는 MPEG-I (Immersive) 그룹에서 제안한 V-PCC(Video based Point Cloud Compression) 부호화기를 통해 생성된 V-PCC 비트스트림을 MMT (MPEG Media Transport) 표준에서 정의한 MPU (Media Processing Unit)로 구성하는 방안을 제안한다. 또한, MMT 표준에서 정의한 시그널링 메시지를 확장하여 3차원 포인트 클라우드 콘텐츠의 영역 선별적 전송 방안을 위한 파라미터와 사용자의 요구에 따라 선택적으로 품질 파라미터를 결정할 수 있도록 V-PCC에서 상정하는 품질 파라미터를 추가 정의한다. 마지막으로, 본 논문에서는 제안한 기술을 기반으로 검증 플랫폼의 설계/구현을 통해 결과를 확인한다.

A STUDY ON INTER-RELATIONSHIP OF VEGETATION INDICES USING IKONOS AND LANDSAT-7 ETM+ IMAGERY

  • Yun, Young-Bo;Lee, Sung-Hun;Cho, Seong-Ik;Cho, Woo-Sug
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2006년도 Proceedings of ISRS 2006 PORSEC Volume II
    • /
    • pp.852-855
    • /
    • 2006
  • There is an increasing need to use data from different sensors in order to maximize the chances of obtaining a cloud-free image and to meet timely requirements for information. However, the use of data from multiple sensor systems is depending on comprehensive relationships between sensors of different types. Indeed, a study of inter-sensor relationships is well advanced in the effective use of remotely sensed data from multiple sensors. This paper was concerned with relationships between sensors of different types for vegetation indices (VI). The study was conducted using IKONOS and Landsat-7 ETM+ images. IKONOS and Landsat-7 ETM+ image of the same or about the same dates were acquired. The Landsat-7 ETM+ images were resampled in order to make them coincide with the pixel sizes of IKONOS. Inter-relationships of vegetation indices between images were performed using at-satellite reflectance obtained by converting image digital number (DN). All images were applied to topographic normalization method in order to reduce topographic effect in digital imagery. Also, Inter-sensor model equations between two sensors were developed and applied to other study region. In the result, the relational equations can be used to compute or interpret VI of one sensor using the VI of another sensor.

  • PDF

논과 고랭지 배추밭 대상 Sentinel-2A/B 정규식생지수 월 합성영상의 구름 제거 효과 분석 (Analysis of the Cloud Removal Effect of Sentinel-2A/B NDVI Monthly Composite Images for Rice Paddy and High-altitude Cabbage Fields)

  • 은정;김선화;김태호
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1545-1557
    • /
    • 2021
  • 농작물은 그 종과 생육상태에 따라 민감한 분광특성을 나타내며, 특히 여름철에 집중적으로 관측이 필요하나 장마로 인해 광학위성의 활용이 어렵다. 이 문제를 해결하기 위해 CC-MNC(Constrained Cloud-Maximum NDVI Composite) 기법이 개발되었으며, 이 기법을 통해 구름의 영향이 최소화된 일정 주기의 대표 합성영상이 생성된다. 본 연구에서도 이 기법을 이용하여, 2019년부터 2021년까지 논과 고랭지 배추밭을 대상으로 Sentinel-2A/B NDVI 월합성영상을 제작하였다. 다른 해보다 200 mm 많은 강수량을 보이는 2020년 8월에는 16일 주기 MODIS NDVI합성영상에서도 구름의 영향이 크게 나타났다. 이 시기를 제외하고 CC-MNC 기법은 평균적으로 원영상의 45.4%의 구름 비율을 14.9%로 줄일 수 있었다. 논의 경우 Sentinel-2A/B와 MODIS NDVI 값이 큰 차이가 나지 않았으며, 5일의 주기로도 벼의 생육 주기를 잘 모니터링할 수 있었다. 고랭지 배추밭의 경우, Sentinel-2A/B에서는 고랭지 배추의 짧은 생육 주기가 잘 나타났지만, MODIS는 공간해상도의 한계를 보였다. 이와 함께 CC-MNC 기법은 수확 시기에 구름 화소가 합성에 사용되는 현상이 보이기도 하였으며, 국내지역에 맞게 VZA 임계치의 조정이 필요하다는 시사점이 도출되었다.

Integrating UAV Remote Sensing with GIS for Predicting Rice Grain Protein

  • Sarkar, Tapash Kumar;Ryu, Chan-Seok;Kang, Ye-Seong;Kim, Seong-Heon;Jeon, Sae-Rom;Jang, Si-Hyeong;Park, Jun-Woo;Kim, Suk-Gu;Kim, Hyun-Jin
    • Journal of Biosystems Engineering
    • /
    • 제43권2호
    • /
    • pp.148-159
    • /
    • 2018
  • Purpose: Unmanned air vehicle (UAV) remote sensing was applied to test various vegetation indices and make prediction models of protein content of rice for monitoring grain quality and proper management practice. Methods: Image acquisition was carried out by using NIR (Green, Red, NIR), RGB and RE (Blue, Green, Red-edge) camera mounted on UAV. Sampling was done synchronously at the geo-referenced points and GPS locations were recorded. Paddy samples were air-dried to 15% moisture content, and then dehulled and milled to 92% milling yield and measured the protein content by near-infrared spectroscopy. Results: Artificial neural network showed the better performance with $R^2$ (coefficient of determination) of 0.740, NSE (Nash-Sutcliffe model efficiency coefficient) of 0.733 and RMSE (root mean square error) of 0.187% considering all 54 samples than the models developed by PR (polynomial regression), SLR (simple linear regression), and PLSR (partial least square regression). PLSR calibration models showed almost similar result with PR as 0.663 ($R^2$) and 0.169% (RMSE) for cloud-free samples and 0.491 ($R^2$) and 0.217% (RMSE) for cloud-shadowed samples. However, the validation models performed poorly. This study revealed that there is a highly significant correlation between NDVI (normalized difference vegetation index) and protein content in rice. For the cloud-free samples, the SLR models showed $R^2=0.553$ and RMSE = 0.210%, and for cloud-shadowed samples showed 0.479 as $R^2$ and 0.225% as RMSE respectively. Conclusion: There is a significant correlation between spectral bands and grain protein content. Artificial neural networks have the strong advantages to fit the nonlinear problem when a sigmoid activation function is used in the hidden layer. Quantitatively, the neural network model obtained a higher precision result with a mean absolute relative error (MARE) of 2.18% and root mean square error (RMSE) of 0.187%.

다시점 RGB-D 카메라를 이용한 실시간 3차원 체적 모델의 생성 (Real-time 3D Volumetric Model Generation using Multiview RGB-D Camera)

  • 김경진;박병서;김동욱;권순철;서영호
    • 방송공학회논문지
    • /
    • 제25권3호
    • /
    • pp.439-448
    • /
    • 2020
  • 본 논문에서는 다시점 RGB-D 카메라의 포인트 클라우드 정합을 위한 수정된 최적화 알고리즘을 제안한다. 일반적으로 컴퓨터 비전 분야에서는 카메라의 위치를 정밀하게 추정하는 것은 매우 중요하다. 기존의 연구에서 제안된 3D 모델 생성 방식들은 많은 카메라 대수나 고가의 3차원 Camera를 필요로 한다. 또한 2차원 이미지를 통해 카메라 외부 파라미터를 얻는 방식들은 큰 오차를 가지고 있다. 본 논문에서는 저가의 RGB-D 카메라를 8개 사용하여 전방위 자유시점을 제공할 수 있는 3차원 포인트 클라우드 및 매쉬 모델을 생성하기 위한 정합 기법을 제안하고자 한다. RGB영상과 함께 깊이지도 기반의 함수 최적화 방식을 이용하고, 초기 파라미터를 구하지 않으면서 고품질의 3차원 모델을 생성할 수 있는 좌표 변환 파라미터를 구하는 방식을 제안한다.