• 제목/요약/키워드: Local measurements

검색결과 714건 처리시간 0.031초

Satellite-derived flow 시그널 및 인공신경망 모형을 활용한 임진강 유역 유출량 산정 (Estimation of river discharge using satellite-derived flow signals and artificial neural network model: application to imjin river)

  • ;김형록;전경수;최민하
    • 한국수자원학회논문집
    • /
    • 제49권7호
    • /
    • pp.589-597
    • /
    • 2016
  • 본 연구에서는 임진강 상류유역과 같이 수리수문학적 분석에 필요한 측정데이터가 존재하지 않거나 혹은 데이터의 확보가 어려운 유역에 대하여 위성 데이터와 데이터 기반 모형을 활용하여 유출량을 산정하였다. SDF 시그널(Satellite-derived Flow Signal)은 하도내의 유량변화에 따른 하천 폭의 변화를 반영할 수 있다고 알려져 있으며, 그 상관관계는 하도단면의 형태와 밀접한 관계가 있다. SDF 시그널 데이터와 유출량 간의 비선형 상관관계를 반영할 수 있는 인공신경망 모형을 활용하여, 모형의 입력변수인 SDF 시그널 데이터로부터 임진강의 임진교 지점에서의 유출량을 추정하였다. 15개의 위성 이미지 픽셀의 SDF 시그널 값이 0~10일의 lag가 되어 활용되었으며, lag된 데이터를 포함하여 총 150개의 변수 중 유출량과 가장 큰 관계가 있는 변수 선정을 위해 PMI(Partial Mutual Information) 기법이 활용되었다. 인공신경망 모형을 통해 산정된 유출량은 임진교에서 측정된 지점 유출량과 비교 분석되었으며, 학습(training)과 검증(validation)을 통한 상관계수는 각각 0.86, 0.72로 좋은 결과를 보여주었다. 추가적으로 SDF 시그널 데이터 외에 임진교의 1일 전 측정유량이 인공신경망 입력변수로 추가되었을 때 상관계수가 0.90, 0.83으로 증가함을 보였다. 결과로부터 계측수문자료가 부족하거나 접근 불가능한 유역에 대하여 하천 유량 변화에 대한 추정치인 SDF 시그널 데이터와 지상 데이터가 결합되었을 때 신뢰성 높은 유역의 유출량을 산정할 수 있으며, 큰 유량이 발생하는 홍수사상에 대해서도 첨두 유량과 첨두 발생시간을 잘 모의할 수 있음을 알 수 있었다. 향후 위성 데이터와 지점 데이터를 활용하여 미계측 유역의 홍수발생에 대하여 높은 정확도로 예측 가능할 것으로 기대한다.

흉막액 감별에 있어서 C-반응성단백과 혈관내피성장인자의 유용성 (Diagnostic value of C-reactive Protein and Vascular Endothelial Growth Factor in Differentiation of Pleural Effusions)

  • 김상하;이원연;박주영;박현숙;한혜경;주헌수;홍태원;이낙원;신계철;용석중
    • Tuberculosis and Respiratory Diseases
    • /
    • 제55권5호
    • /
    • pp.467-477
    • /
    • 2003
  • 배 경 : 흉막액은 임상적으로 Light's criteria에 의하여 여출액과 삼출액으로 구분하게 되며 삼출액일 경우에는 그 원인질환들을 감별해야 하나 적용할 만한 표지자가 많지 않다. 이에 CRP와 VEGF가 흉막액을 여출액과 삼출액으로 감별하는데 임상적으로 유용한지를 알아보고 나아가 악성삼출액에 대한 감별 표지자로서의 유용성이 있는지를 함께 검토하기 위하여 연구하였다. 대상 및 방법 : 흉막액 환자 80명을 대상으로 Light's criteria에 따라 여출액과 삼출액으로 구분하였고, 삼출액은 다시 원인에 따라 결핵성, 부폐렴성, 악성 흉막액으로 구분 하였다. 각 20명씩 네 군에서 혈청에서와 흉막액에서의 CRP, VEGF를 측정하였고 각각의 혈청에 대한 흉막액의 측정치의 비를 계산하였다. CRP는 turbidimetric immunoassay 로, VEGF는 ELlSA로 측정하였다. 결 과 : 여출액과 삼출액으로 나누어 측정치를 비교하였다. 흉막액 CRP는 여출액과 삼출액에서 각각 $1.29{\pm}1.45mg/d{\ell}$, $4.19{\pm}4.22mg/d{\ell}$로 측정되었으며 삼출액에서 유의한 증가를 보였고, cutoff value가 $2.35mg/d{\ell}$ 일 때 민감도 56.7%, 특이도 90.0%의 감별력을 보였다. 흉막액 VEGF는 여출액과 삼출액에서 각각 $389{\pm}325pg/m{\ell}$, $1,011{\pm}1,055pg/m{\ell}$로 측정되었으며 삼출액에서 유의한 증가를 보였다. VEGF비는 여출액과 삼출액에서 각각 $1.6{\pm}0.9$, $3.9{\pm}4.7$으로 계산되었으며 삼출액에서 유의한 증가를 보였다. 또한 악성 흉막액과 양성 흉막액으로 나누어 측정치를 비교하였는데, 흉막액 CRP는 양성 흉막액과 악성 흉막액에서 각각 $4.15{\pm}4.20mg/d{\ell}$, $1.43{\pm}1.91mg/d{\ell}$로 측정되었으며 양성 흉막액에서 의미있게 증가하였다. VEGF비는 양성 흉막액과 악성 흉막액에서 각각 $2.8{\pm}3.6$, $4.9{\pm}5.5$로 계산되었으며 악성 흉막액에서 의미 있게 증가하였다. 결 론 : 흉막액 CRP, 흉막액 VEGF, VEGF비는 흉막액의 감별에 있어서 여출액과 삼출액을 감별하는데 보완적인 표지자로서 유용하며, 흉막액 CRP와 VEGF비는 양성 흉막액과 악성 흉막액을 감별하는 표지자로서도 유용하리라 생각된다.

지속성 기흉에서 OK-432와 자가혈액을 이용한 흉막 유착술의 효과 (Efficacious Pleurodesis with OK-432 Plus Autoblood or OK-432 Against the Pneumothorax with Persistent Air Leak)

  • 김형수;최광민
    • Tuberculosis and Respiratory Diseases
    • /
    • 제60권1호
    • /
    • pp.72-75
    • /
    • 2006
  • 연구배경 : 지속적인 공기 누출이 있고, 수술적 치료가 가능하지 않았던 기흉 환자들에서 OK-432 또는 OK-432와 자가혈액을 혼합한 흉막 유착제를 이용한 흉막 유착술의 효과를 알아보기 위해 연구를 하였다. 대상 및 방법 : 2004년 3월부터 2005년 7월까지 기흉으로 입원한 환자들 중 흉관을 삽입하고 공기누출이 5일 이상 지속되고, 흉부컴퓨터 촬영 결과 다양한 크기의 기낭과 기종성 변화가 있어, 수술적 치료가 불가능 한 8명의 환자를 대상으로 하였다. 폐의 팽창여부에 따라서 OK-432 또는 OK-432와 자가혈액을 이용한 흉막 유착술을 시행하였다. OK-432의 흉막 유착술의 효과와 부작용을 알아보기 위해 흉막 유착술 후 흉관을 통한 공기누출 시간, 흉막 유착술을 시행한 횟수, 환자의 임상증상, 활력징후 및 일반 혈액검사의 변화와 C-반응단백을 측정하였다. 결 과 : 대상 환자 8명은 모두 남자 였고 평균 나이는 $72.4{\pm}8.5$세였다. 흉막 유착술을 시행한 평균 횟수는 $1.9{\pm}1.1$회였고, 흉막 유착술 후 공기 누출이 멈춘 시간은 평균 $4.6{\pm}4.6$일이었다. 7명의 환자에서 흉막 유착술 후 발생한 부작용은 오한감 7례, 흉통 5례, 두통 3례, 국소부위 열감 2례, 발열 1례 였다. 흉막 유착술 후 백혈구 증가증은 6례에서 관찰 할 수 있었고, 가장 최고치의 평균 백혈구 수는 $14500{\pm}2100$개였고, C-반응단백은 평균 $21.9{\pm}11.4mg/dL$로 증가되는 것을 관찰 할 수 있었다. 결 론 : 공기누출이 지속되고 수술적인 방법으로 치료가 가능하지 않은 기흉 환자에서 OK-432와 자가혈액을 이용한 흉막 유착술은 안전하고 효과적인 것으로 관찰 되어 기존 약제와 더불어 흉막 유착술에 이용하여도 될 것으로 생각된다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

광릉 산림의 플럭스 자료 처리와 품질 관리 (Processing and Quality Control of Flux Data at Gwangneung Forest)

  • 임희정;이영희
    • 한국농림기상학회지
    • /
    • 제10권3호
    • /
    • pp.82-93
    • /
    • 2008
  • 보다 자동화된 방법으로 신뢰성 있는 난류 플럭스의 자료를 생산하기 위해서 Hong and Kim(2002)의 난류 품질 관리 프로그램을 개선하고 개선된 프로그램을 광릉산림에 적용하여 복잡한 산림지역에서 난류 플럭스의 특성을 조사하였다. 개선된 프로그램을 이용하여 2005년 1월부터 5월까지 광릉 수목원에 위치한 주 타워의 두 고도(20m와 40m)에서 관측된 난류 자료에 대하여 품질 검사를 실시하였다. 개선전과 비교해 개선된 프로그램은 이상점(outlier)에 해당되는 자료들을 많이 제거하였다. 자료의 품질체계는 4등급(Good, Dubious, Missing, Bad)으로 분류하였으며 본 분석에서 사용된 기간의 자료 중 25%는 결측이었고(Missing 등급), 60%는 Good 등급으로 분류되었다. 고도 별로는 40m에서 관측된 자료가 20m에서 관측된 자료보다 Bad 등급의 자료수가 적었는데 이는 20m가 식생 꼭대기에 인접한 거칠기 아층에 해당하고 또한 풍속도 더 낮은데 기인한다. Bad 등급으로 분류된 자료의 주원인은 낮은 풍속으로 나타났다. 분석 기간 동안의 에너지 수지의 닫힘은 약 40%로 나타났고 이러한 에너지 불균형의 부분적인 이유로는 열 저장항들이 고려되지 않은 점, 토양열 플럭스 측정의 불확실성, 복잡한 지형 등에 의한 국지풍에 의한 이류 등이 복합적으로 작용했을 것으로 생각된다. 광릉에서 발생하는 상향 운동량 플럭스는 국지풍의 발달 시 높은 발생률을 보여 이 둘이 밀접히 관련되어 있음을 나타낸다. 야간에 낮은 음의 $CO_2$ 플럭스가 발생하는 경우에 대하여 평균 시간을 증가시킴에 따른 $CO_2$ flux의 변화를 조사한 결과 평균시간이 10분 이상 증가함에 따라 $CO_2$ flux의 절대값이 빠르게 증가하는 경향을 보였다. 이는 야간에 $CO_2$ 플럭스는 중규모 운동이나 비정상성(nonstationarity) 등의 영향을 많이 받고 있음을 시사한다. 그러므로 야간에 보다 정확한 난류 플럭스 값을 산출하기 위해서는 평균시간의 적절한 조절이 필요할 것으로 보인다.

Modern Paper Quality Control

  • Olavi Komppa
    • 한국펄프종이공학회:학술대회논문집
    • /
    • 한국펄프종이공학회 2000년도 제26회 펄프종이기술 국제세미나
    • /
    • pp.16-23
    • /
    • 2000
  • The increasing functional needs of top-quality printing papers and packaging paperboards, and especially the rapid developments in electronic printing processes and various computer printers during past few years, set new targets and requirements for modern paper quality. Most of these paper grades of today have relatively high filler content, are moderately or heavily calendered , and have many coating layers for the best appearance and performance. In practice, this means that many of the traditional quality assurance methods, mostly designed to measure papers made of pure. native pulp only, can not reliably (or at all) be used to analyze or rank the quality of modern papers. Hence, introduction of new measurement techniques is necessary to assure and further develop the paper quality today and in the future. Paper formation , i.e. small scale (millimeter scale) variation of basis weight, is the most important quality parameter of paper-making due to its influence on practically all the other quality properties of paper. The ideal paper would be completely uniform so that the basis weight of each small point (area) measured would be the same. In practice, of course, this is not possible because there always exists relatively large local variations in paper. However, these small scale basis weight variations are the major reason for many other quality problems, including calender blacking uneven coating result, uneven printing result, etc. The traditionally used visual inspection or optical measurement of the paper does not give us a reliable understanding of the material variations in the paper because in modern paper making process the optical behavior of paper is strongly affected by using e.g. fillers, dye or coating colors. Futhermore, the opacity (optical density) of the paper is changed at different process stages like wet pressing and calendering. The greatest advantage of using beta transmission method to measure paper formation is that it can be very reliably calibrated to measure true basis weight variation of all kinds of paper and board, independently on sample basis weight or paper grade. This gives us the possibility to measure, compare and judge papers made of different raw materials, different color, or even to measure heavily calendered, coated or printed papers. Scientific research of paper physics has shown that the orientation of the top layer (paper surface) fibers of the sheet paly the key role in paper curling and cockling , causing the typical practical problems (paper jam) with modern fax and copy machines, electronic printing , etc. On the other hand, the fiber orientation at the surface and middle layer of the sheet controls the bending stiffness of paperboard . Therefore, a reliable measurement of paper surface fiber orientation gives us a magnificent tool to investigate and predict paper curling and coclking tendency, and provides the necessary information to finetune, the manufacturing process for optimum quality. many papers, especially heavily calendered and coated grades, do resist liquid and gas penetration very much, bing beyond the measurement range of the traditional instruments or resulting invonveniently long measuring time per sample . The increased surface hardness and use of filler minerals and mechanical pulp make a reliable, nonleaking sample contact to the measurement head a challenge of its own. Paper surface coating causes, as expected, a layer which has completely different permeability characteristics compared to the other layer of the sheet. The latest developments in sensor technologies have made it possible to reliably measure gas flow in well controlled conditions, allowing us to investigate the gas penetration of open structures, such as cigarette paper, tissue or sack paper, and in the low permeability range analyze even fully greaseproof papers, silicon papers, heavily coated papers and boards or even detect defects in barrier coatings ! Even nitrogen or helium may be used as the gas, giving us completely new possibilities to rank the products or to find correlation to critical process or converting parameters. All the modern paper machines include many on-line measuring instruments which are used to give the necessary information for automatic process control systems. hence, the reliability of this information obtained from different sensors is vital for good optimizing and process stability. If any of these on-line sensors do not operate perfectly ass planned (having even small measurement error or malfunction ), the process control will set the machine to operate away from the optimum , resulting loss of profit or eventual problems in quality or runnability. To assure optimum operation of the paper machines, a novel quality assurance policy for the on-line measurements has been developed, including control procedures utilizing traceable, accredited standards for the best reliability and performance.

초음파 서모그라피를 이용한 실시간 결함 검출에 대한 연구 (A Study on Real-Time Defect Detection Using Ultrasound Excited Thermography)

  • 조재완;서용칠;정승호;정현규;김승호
    • 비파괴검사학회지
    • /
    • 제26권4호
    • /
    • pp.211-219
    • /
    • 2006
  • 초음파 서모그라피는 초음파 진동 에너지 여기에 의한 물체의 표면 및 표면 아래에 존재하는 결함부위의 선택적 발열 특성을 적외선 열영상 카메라로 관측하는 것이다. 결함(균열, 박리, 공극 등) 이 존재하는 구조물에 초음파 진동 에너지를 입사시킬 경우 결함 부근에서의 국부적인 발열로 인해 건전 부위와의 급격한 온도차를 드러내는 핫 스폿이 관측된다. 초음파 진동 에너지 여기에 의한 핫 스폿 관측 및 분석을 통해 결함을 진단하는 것이 초음파 서모그라피를 이용한 비파괴 결함 진단 방법이다. 이를 이용한 결함 검출을 위해서는 초음파의 진동에너지를 검사 구조물에 효율적으로 전달하는 것이 중요하다 본 논문에서는 초음파 서모그라피를 이용한 실시간 결함검출에 대해 기술한다. 초음파 진동에너지의 입사 방향에 따른 결함 검출 특성을 평가하기 위해 진동에너지의 전달 방향을 시편과 수직 또는 수평방향으로 각각 입사시켰다. 각각의 입사 방향에 따른 초음파 트랜스듀서 양단에 인가되는 전압을 디지털 오실로스코우프로 계측 비교하였다. 결함 검출에 사용한 시편은 14 mm 두께의 SUS 균열(crack) 시편, PCB 기판(1.8 mm), 인코넬 600 판(1.0 mm) 및 CFRP 판(3.0 mm)의 4종류이다. 4종류의 시편에 대해 280ms 펄스폭의 초음파에너지를 수직 수평으로 각각 입사시켰다. 4종류 모두 수직방향으로 초음파 진동에너지를 입사시켰을 때 수평방향에 비해 전달 손실이 적었다. 복합재료인 PCB, CFRP 판은 수직방향으로 초음파 진동에너지를 입사시켰을 때 수평방향에 비해 결함 위치에서 열이 크게 발생하였으며 선택적 발열 현상도 3배 이상 지속되었다. 금속재료인 인코넬 600판과 SUS 시편은 수평방향이 수직방향보다 핫 스폿이 빨리 관측되었다.

TerraSAR-X를 이용한 조간대 관측 (Investigation of Intertidal Zone using TerraSAR-X)

  • 박정원;이윤경;원중선
    • 대한원격탐사학회지
    • /
    • 제25권4호
    • /
    • pp.383-389
    • /
    • 2009
  • TerraSAR-X자료를 이용하여 고해상 X-밴드 SAR시스템을 이용한 조간대 갯벌 관측에의 적용 가능성을 시험하였다. 연구대상지 역은 강화도 남단과 영종도를 잇는 조간대이며, 단일편파자료와 이중편파자료를 이용하였다. 연구내용은 다음과 같은 세 가지로 분류된다. 첫째, X-밴드 영상에서의 연안의 레이더 반사도 특성 연구 및 waterline 추출 정밀도를 평가하였다. 연안지역의 waterline은 HH 편광자료의 레이더 반사도 특성을 통하여 추출하였을 때 가장 신뢰도가 높았으며, TerraSAR-X 시스템의 짧은 파장과 높은 궤도정밀도로 인하여 정밀한 지리좌표로의 변환이 가능하였다. 연구지역의 조간대 지형 경사도는 평균적으로 수평방향으로 60 m당 20 cm의 고도변화를 가지므로, TerraSAR-X HH 편광자료를 이용한 waterline 추출은 정밀한 조간대 DEM 추출로 응용될 수 있다. 둘째, 이중편파자료의 편파특성을 이용한 조간대 영생식물의 산란특성을 관측하였다. 조간대 수륙경계부에서 잘 관측되는 칠면초와 같은 염생식물은 해수면변화에 따른 조간대의 육지화 모니터링에 좋은 표적이 된다. TerraSAR-X 이중편파자료의 산란특성을 이용한 염생식물 관측결과는 2007년에 현장에서 취득된 실측자료와 비교하여 3 dB 이내의 정밀도로 일치하였다. 셋째, 단일편파자료의 레이더 간섭기법을 이용한 조간대 DEM작성을 시도하였다. 조간대 내에서 육지화가 진행된 지역은 표면에 염생식물이 발달하였음에도 불구하고 높은 간섭긴밀도를 나타내었다. 레이더 간섭기법을 통한 DEM의 제작은 일반적인 조간대에서는 적용이 제한적이며, TanDEM-X의 적용이 필요하다.

MEGAN을 이용한 국내 BVOCs 배출량 산정: 2012년 6월 사례 연구 (BVOCs Estimates Using MEGAN in South Korea: A Case Study of June in 2012)

  • 김경수;이승재
    • 한국농림기상학회지
    • /
    • 제24권1호
    • /
    • pp.48-61
    • /
    • 2022
  • 한국은 국토의 약 63%가 산림으로 구성되어 있고, 16%가 농경지로 구성되어 있어 도심에서 발생하는 NOx가 산림지역과 농경지에서 발생하는 BVOCs와 결합하여 오존을 생성할 가능성이 높다. 그래서 본 연구에서는 한국의 자연 식생 BVOCs 배출을 추정하기 위해 MODIS의 토지피복 자료와 엽면적지수 자료를 이용하여 입력자료를 생성한 후 MEGAN 모델로 BVOCs의 주요 배출 물질인 이소프렌과 모노테르펜을 대상으로 2012년 6월 한 달 간 모델링을 실시하였다. 그 결과, 해당기간 동안 이소프렌은 10,495 ton, 모노테르펜은 2,709 ton이 배출되었다. 기존 국내에서 BEIS와 CORINAR를 이용하여 연구된 이소프렌의 배출량은 약 24,000 ton, 모노테르펜은 25,000 ton으로 나타났는데, 본 연구와 배출량 차이가 나타난 주된 이유는 모델 알고리즘 차이와 모델 구동 시점에서의 일사량과 기온 등 기상 조건의 차이에 의한 것으로 추정된다. 그리고 모델링 결과와 측정 값의 비교를 위하여, 6월 11일부터 12일까지 이틀 간에 걸쳐, 한국 태화산에서 활엽수의 이소프렌과 침엽수의 모노테르펜 챔버 측정 값을 항공라이다와 방형구 식생자료를 기반으로 산정된 엽생체량 값을 이용하여 산림 단위의 BVOCs 배출량으로 환산하였다. 태화산 지역에서의 MEGAN 모델과 측정 간 BVOCs 배출량을 비교한 결과, 시간적인 배출 경향은 유사했으나 이소프렌은 MEGAN 모델에서 최대 6.4배 정도 배출량이 높게 나타났고, 모노테르펜은 최대 5.6배 정도 배출량이 높게 나타났다. MODIS에서 제공되는 토지피복 자료가 한국의 토지피복 특성을 잘 반영하지 못함에도 불구하고 MEGAN 모델링 결과가 측정 값과 다른 모델에 비해 상대적으로 큰 차이를 보이지 않은 것은 MEGAN 내에 기온, 일사량 등에 의해 식생의 BVOCs 배출량을 변환시키는 파라미터들이 현실을 비교적 적절하게 반영하고 있는 것으로 사료된다. 본 연구는 국내의 BVOCs 배출량을 MEGAN 모델을 활용하여 산정하였고, 산림지에서의 실측 자료와 비교를 통해 배출량을 평가하였다는데 의의가 있으며, 산림과 대기 간의 BVOCs 상호작용 연구에 작은 도움이 될 것으로 기대된다. 국내 BVOCs 배출량을 더 정확하게 추정하기 위해서는 지형과 식생의 특성을 더욱 최신으로 반영한 토지피복 및 엽면적지수 자료의 이용, 그리고 수목 및 농작물 등과 같이 개별 식생에 따른 배출계수 등의 대한 연구가 향후에 심도 있게 이루어져야 할 것이다.

드론기반 시공간 초분광영상을 활용한 식생유무에 따른 하천 수심산정 기법 적용성 검토 (Evaluation for applicability of river depth measurement method depending on vegetation effect using drone-based spatial-temporal hyperspectral image)

  • 권영화;김동수;유호준
    • 한국수자원학회논문집
    • /
    • 제56권4호
    • /
    • pp.235-243
    • /
    • 2023
  • 하천법 개정 및 수자원의 조사·계획 및 관리에 관한 법률 제정으로 하상변동조사를 정기적으로 실시하는 것이 의무화되었고, 지자체가 계획적으로 수자원을 관리할 수 있도록 제도가 마련되고 있다. 하상 지형은 직접 측량할 수 없기 때문에 수심 측량을 통해 간접적으로 이루어지고 있으며, 레벨측량이나 음향측심기를 활용한 접촉식 방법으로 이루어지고 있다. 접촉식 수심측량법은 자료수집이 제한적이기 때문에 공간해상도가 낮고 연속적인 측량이 불가능하다는 한계가 있어 최근에는 LiDAR나 초분광영상을 이용한 원격탐사를 이용한 수심측정 기술이 개발되고 있다. 개발된 초분광영상을 이용한 수심측정 기술은 접촉식 조사보다 넓은 지역을 조사할 수 있고, 잦은 빈도로 자료취득이 용이한 드론에 경량 초분광센서를 탑재하여 초분광영상을 취득하고, 최적 밴드비 탐색 알고리즘을 적용해 수심분포 산정이 가능하다. 기존의 초분광 원격탐사 기법은 드론의 경로비행으로 획득한 초분광영상을 면단위의 영상으로 정합한 후 특정 물리량에 대한 분석이 수행되었으며, 수심측정의 경우 모래하천을 대상으로 한 연구가 주를 이루었으며, 하상재료에 대한 평가는 이루어지지 않았었다. 본 연구에서는 기존의 초분광영상을 활용한 수심산정 기법을 식생이 있는 하천에 적용하고, 동일지역에서 식생을 제거한 후의 2가지 케이스에 대해서 시공간 초분광영상과 단면초분광영상에 모두 적용하였다. 연구결과, 식생이 없는 경우의 수심산정이 더 높은 정확도를 보였으며, 식생이 있는 경우에는 식생의 높이를 바닥으로 인식한 수심이 산정되었다. 또한, 기존의 단면초분광영상을 이용한 수심산정뿐만 아니라 시공간 초분광영상에서도 수심산정의 높은 정확도를 보여 시공간 초분광영상을 활용한 하상변동(수심변동) 추적의 가능성을 확인하였다.