Proceedings of the Korea Water Resources Association Conference
/
2011.05a
/
pp.16-16
/
2011
Statistics of extreme rainfall play a vital role in engineering practice from the perspective of mitigation and protection of infrastructure and human life from flooding. While flood frequency assessments, based on river flood flow data are preferred, the analysis of rainfall data is often more convenient due to the finer spatial nature of rainfall recording networks, often with longer records, and potentially more easily transferable from site to site. The rainfall frequency analysis as a design tool has developed over the years in New Zealand from Seelye's daily rainfall frequency maps in 1947 to Thompson's web based tool in 2010. This paper will present a history of the development of New Zealand rainfall frequency analysis methods, and the details of the latest method, so that comparisons may in future be made with the development of Korean methods. One of the main findings in the development of methods was new knowledge on the distribution of New Zealand rainfall extremes. The High Intensity Rainfall Design System (HIRDS.V3) method (Thompson, 2011) is based upon a regional rainfall frequency analysis with the following assumptions: $\bullet$ An "index flood" rainfall regional frequency method, using the median annual maximum rainfall as the indexing variable. $\bullet$ A regional dimensionless growth curve based on the Generalised Extreme Value (GEV), and using goodness of fit test for the GEV, Gumbel (EV1), and Generalised Logistic (GLO) distributions. $\bullet$ Mapping of median annual maximum rainfall and parameters of the regional growth curves, using thin-plate smoothing splines, a $2km\times2km$ grid, L moments statistics, 10 durations from 10 minutes to 72 hours, and a maximum Average Recurrence Interval of 100 years.
Huanlong Zhang;Weiqiang Fu;Bin Zhou;Keyan Zhou;Xiangbo Yang;Shanfeng Liu
KSII Transactions on Internet and Information Systems (TIIS)
/
v.18
no.9
/
pp.2605-2625
/
2024
Siamese-based segmentation and tracking algorithms improve accuracy and stability for video object segmentation and tracking tasks simultaneously. Although effective, variability in target appearance and background clutter can still affect segmentation accuracy and further influence the performance of tracking. In this paper, we present a memory propagation-based target-aware and mask-attention decision network for robust object segmentation and tracking. Firstly, a mask propagation-based attention module (MPAM) is constructed to explore the inherent correlation among image frames, which can mine mask information of the historical frames. By retrieving a memory bank (MB) that stores features and binary masks of historical frames, target attention maps are generated to highlight the target region on backbone features, thus suppressing the adverse effects of background clutter. Secondly, an attention refinement pathway (ARP) is designed to further refine the segmentation profile in the process of mask generation. A lightweight attention mechanism is introduced to calculate the weight of low-level features, paying more attention to low-level features sensitive to edge detail so as to obtain segmentation results. Finally, a mask fusion mechanism (MFM) is proposed to enhance the accuracy of the mask. By utilizing a mask quality assessment decision network, the corresponding quality scores of the "initial mask" and the "previous mask" can be obtained adaptively, thus achieving the assignment of weights and the fusion of masks. Therefore, the final mask enjoys higher accuracy and stability. Experimental results on multiple benchmarks demonstrate that our algorithm performs outstanding performance in a variety of challenging tracking tasks.
Natural or man-made disaster has been expected to be one of the potential themes that can integrate human geography and physical geography. Typhoons like Rusa and Maemi caused great loss to insurance companies as well as public sectors. We have implemented a natural disaster management system for a private insurance company to produce better estimation of hazards from high wind as well as calculate vulnerability of damage. Climatic gauge sites and addresses of contract's objects were geo-coded and the pressure values along all the typhoon tracks were vectorized into line objects. National GIS topog raphic maps with scale of 1: 5,000 were updated into base maps and digital elevation model with 30 meter space and land cover maps were used for reflecting roughness of land to wind velocity. All the data are converted to grid coverage with $1km{\times}1km$. Vulnerability curve of Munich Re was ad opted, and preprocessor and postprocessor of wind velocity model was implemented. Overlapping the location of contracts on the grid value coverage can show the relative risk, with given scenario. The wind velocities calculated by the model were compared with observed value (average $R^2=0.68$). The calibration of wind speed models was done by dropping two climatic gauge data, which enhanced $R^2$ values. The comparison of calculated loss with actual historical loss of the insurance company showed both underestimation and overestimation. This system enables the company to have quantitative data for optimizing the re-insurance ratio, to have a plan to allocate enterprise resources and to upgrade the international creditability of the company. A flood model, storm surge model and flash flood model are being added, at last, combined disaster vulnerability will be calculated for a total disaster management system.
Journal of the Earthquake Engineering Society of Korea
/
v.27
no.5
/
pp.221-230
/
2023
This study proposes a methodology for assessing seismic liquefaction hazard by implementing high-resolution three-dimensional (3D) ground models with high-density/high-precision site investigation data acquired in an area of interest, which would be linked to geotechnical numerical analysis tools. It is possible to estimate the vulnerability of earthquake-induced geotechnical phenomena (ground motion amplification, liquefaction, landslide, etc.) and their triggering complex disasters across an area for urban development with several stages of high-density datasets. In this study, the spatial-ground models for city development were built with a 3D high-precision grid of 5 m × 5 m × 1 m by applying geostatistic methods. Finally, after comparing each prediction error, the geotechnical model from the Gaussian sequential simulation is selected to assess earthquake-induced geotechnical hazards. In particular, with seven independent input earthquake motions, liquefaction analysis with finite element analyses and hazard mappings with LPI and LSN are performed reliably based on the spatial geotechnical models in the study area. Furthermore, various phenomena and parameters, including settlement in the city planning area, are assessed in terms of geotechnical vulnerability also based on the high-resolution spatial-ground modeling. This case study on the high-precision 3D ground model-based zonations in the area of interest verifies the usefulness in assessing spatially earthquake-induced hazards and geotechnical vulnerability and their decision-making support.
Accurate estimation of forest carbon stocks is important in establishing greenhouse gas reduction plans. In this study, we estimate the spatial distribution of forest carbon stocks using machine learning techniques based on high-resolution remote sensing data and detailed field survey data. The high-resolution remote sensing data used in this study are Landsat indices (EVI, NDVI, NDII) for monitoring vegetation vitality and Shuttle Radar Topography Mission (SRTM) data for describing topography. We also used the forest growing stock data from the National Forest Inventory (NFI) for estimating forest biomass. Based on these data, we built a model based on machine learning methods and optimized for Korean forest types to calculate the forest carbon stocks per grid unit. With the newly developed estimation model, we created forest carbon stocks maps and estimated the forest carbon stocks in South Korea. As a result, forest carbon stock in South Korea was estimated to be 432,214,520 tC in 2020. Furthermore, we estimated the loss of forest carbon stocks due to the Donghae-Uljin forest fire in 2022 using the forest carbon stock map in this study. The surrounding forest destroyed around the fire area was estimated to be about 24,835 ha and the loss of forest carbon stocks was estimated to be 1,396,457 tC. Our model serves as a tool to estimate spatially distributed local forest carbon stocks and facilitates accounting of real-time changes in the carbon balance as well as managing the LULUCF part of greenhouse gas inventories.
KSCE Journal of Civil and Environmental Engineering Research
/
v.28
no.3D
/
pp.417-422
/
2008
With standard orthorectification algorithms, one can produce unacceptable structure duplication in the orthophoto due to the double projection. Because of the abrupt height differences, such structure duplication is a frequently occurred phenomenon in the dense urban area which includes multi-history buildings. Therefore, occlusion area detection especially for the urban area is a critical issue in generation of true orthophoto. This paper deals with occlusion area detection with visible height based approach from aerial imagery and LiDAR. In order to accomplish this, a grid format DSM is produced from the point clouds of LiDAR. Next, visible height based algorithm is proposed to detect the occlusion area for each camera exposure station with DSM. Finally, generation of true orthophoto is presented with DSM and previously produced occlusion maps. The proposed algorithms are applied in the Purdue campus, Indiana, USA.
Extraction of region of interest for satellite image classification is one of the important techniques for efficient management of the national land space. However, recent studies on satellite image classification often depend on the information of the selected image in selecting the region of interest. This study propose an effective method of selecting the area of interest using the continuous digital topographic map constructed from high resolution images. The spatial information used in this research is based on the digital topographic map from 2013 to 2017 provided by the National Geographical Information Institute and the 2015 Sejong City land cover map provided by the Ministry of Environment. To verify the accuracy of the extracted area of interest, KOMPSAT-3A satellite images were used which taken on October 28, 2018 and July 7, 2018. The baseline samples for 2015 were extracted using the unchanged area of the continuous digital topographic map for 2013-2015 and the land cover map for 2015, and also extracted the baseline samples in 2018 using the unchanged area of the continuous digital topographic map for 2015-2017 and the land cover map for 2015. The redundant areas that occurred when merging continuous digital topographic maps and land cover maps were removed to prevent confusion of data. Finally, the checkpoints are generated within the region of interest, and the accuracy of the region of interest extracted from the K3A satellite images and the error matrix in 2015 and 2018 is shown, and the accuracy is approximately 93% and 72%, respectively. The accuracy of the region of interest can be used as a region of interest, and the misclassified region can be used as a reference for change detection.
The Journal of the Korea institute of electronic communication sciences
/
v.7
no.4
/
pp.721-726
/
2012
In this paper, we proposed an efficient algorithm based on SPFA(shortest path faster algorithm), which is an improved the Bellman-Ford algorithm. The Bellman-Ford algorithm can be used on graphs with negative edge weights unlike Dijkstra's algorithm. And SPFA algorithm used a queue to store the nodes, to avoid redundancy, though the Bellman-Ford algorithm takes a long time to update the nodes table. In this improved algorithm, an adjacency list is also used to store each vertex of the graph, applying dynamic optimal approach. And a queue is used to store the data. The improved algorithm can find the optimal path by continuous relaxation operation to the new node. Simulations to compare the efficiencies for Dijkstra's algorithm, SPFA algorithm and improved Bellman-Ford were taken. The result shows that Dijkstra's algorithm, SPFA algorithm have almost same efficiency on the random graphs, the improved algorithm, although the improved algorithm is not desirable, on grid maps the proposed algorithm is very efficient. The proposed algorithm has reduced two-third times processing time than SPFA algorithm.
The East African ionosphere (3°S-18°N, 32°E-50°E) was mapped using Total Electron Content (TEC) measurements from ground-based GPS receivers situated at Asmara, Mekelle, Bahir Dar, Robe, Arbaminch, and Nairobi. Assuming a thin shell ionosphere at 350 km altitude, we project the Ionospheric Pierce Point (IPP) of a slant TEC measurement with an elevation angle of >10° to its corresponding location on the map. We then infer the estimated values at any point of interest from the vertical TEC values at the projected locations by means of interpolation. The total number of projected IPPs is in the range of 24-66 at any one time. Since the distribution of the projected IPPs is irregularly spaced, we have used an inverse distance weighted interpolation method to obtain a spatial grid resolution of 1°×1° latitude and longitude, respectively. The TEC maps were generated for the year 2008, with a 2 hr temporal resolution. We note that TEC varies diurnally, with a peak in the late afternoon (at 1700 LT), due to the equatorial ionospheric anomaly. We have observed higher TEC values at low latitudes in both hemispheres compared to the magnetic equatorial region, capturing the ionospheric distribution of the equatorial anomaly. We have also confirmed the equatorial seasonal variation in the ionosphere, characterized by minimum TEC values during the solstices and maximum values during the equinoxes. We evaluate the reliability of the map, demonstrating a mean error (difference between the measured and interpolated values) range of 0.04-0.2 TECU (Total Electron Content Unit). As more measured TEC values become available in this region, the TEC map will be more reliable, thereby allowing us to study in detail the equatorial ionosphere of the African sector, where ionospheric measurements are currently very few.
Xie, Junyao;Zhang, Lu;Zheng, Qian;Liu, Xiaoben;Dubljevic, Stevan;Zhang, Hong
Earthquakes and Structures
/
v.20
no.1
/
pp.109-122
/
2021
Significant progress in the oil and gas industry advances the application of pipeline into an intelligent era, which poses rigorous requirements on pipeline safety, reliability, and maintainability, especially when crossing seismic zones. In general, strike-slip faults are prone to induce large deformation leading to local buckling and global rupture eventually. To evaluate the performance and safety of pipelines in this situation, numerical simulations are proved to be a relatively accurate and reliable technique based on the built-in physical models and advanced grid technology. However, the computational cost is prohibitive, so one has to wait for a long time to attain a calculation result for complex large-scale pipelines. In this manuscript, an efficient and accurate surrogate model based on machine learning is proposed for strain demand prediction of buried X80 pipelines subjected to strike-slip faults. Specifically, the support vector regression model serves as a surrogate model to learn the high-dimensional nonlinear relationship which maps multiple input variables, including pipe geometries, internal pressures, and strike-slip displacements, to output variables (namely tensile strains and compressive strains). The effectiveness and efficiency of the proposed method are validated by numerical studies considering different effects caused by structural sizes, internal pressure, and strike-slip movements.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.