• 제목/요약/키워드: Flow Computer

검색결과 2,558건 처리시간 0.037초

토양수분함량 예측 및 계획관개 모의 모형 개발에 관한 연구(I) (A Study on the Development of a Simulation Model for Predicting Soil Moisture Content and Scheduling Irrigation)

  • 김철회;고재군
    • 한국농공학회지
    • /
    • 제19권1호
    • /
    • pp.4279-4295
    • /
    • 1977
  • Two types of model were established in order to product the soil moisture content by which information on irrigation could be obtained. Model-I was to represent the soil moisture depletion and was established based on the concept of water balance in a given soil profile. Model-II was a mathematical model derived from the analysis of soil moisture variation curves which were drawn from the observed data. In establishing the Model-I, the method and procedure to estimate parameters for the determination of the variables such as evapotranspirations, effective rainfalls, and drainage amounts were discussed. Empirical equations representing soil moisture variation curves were derived from the observed data as the Model-II. The procedure for forecasting timing and amounts of irrigation under the given soil moisture content was discussed. The established models were checked by comparing the observed data with those predicted by the model. Obtained results are summarized as follows: 1. As a water balance model of a given soil profile, the soil moisture depletion D, could be represented as the equation(2). 2. Among the various empirical formulae for potential evapotranspiration (Etp), Penman's formula was best fit to the data observed with the evaporation pans and tanks in Suweon area. High degree of positive correlation between Penman's predicted data and observed data with a large evaporation pan was confirmed. and the regression enquation was Y=0.7436X+17.2918, where Y represents evaporation rate from large evaporation pan, in mm/10days, and X represents potential evapotranspiration rate estimated by use of Penman's formula. 3. Evapotranspiration, Et, could be estimated from the potential evapotranspiration, Etp, by introducing the consumptive use coefficient, Kc, which was repre sensed by the following relationship: Kc=Kco$.$Ka+Ks‥‥‥(Eq. 6) where Kco : crop coefficient Ka : coefficient depending on the soil moisture content Ks : correction coefficient a. Crop coefficient. Kco. Crop coefficients of barley, bean, and wheat for each growth stage were found to be dependent on the crop. b. Coefficient depending on the soil moisture content, Ka. The values of Ka for clay loam, sandy loam, and loamy sand revealed a similar tendency to those of Pierce type. c. Correction coefficent, Ks. Following relationships were established to estimate Ks values: Ks=Kc-Kco$.$Ka, where Ks=0 if Kc,=Kco$.$K0$\geq$1.0, otherwise Ks=1-Kco$.$Ka 4. Effective rainfall, Re, was estimated by using following relationships : Re=D, if R-D$\geq$0, otherwise, Re=R 5. The difference between rainfall, R, and the soil moisture depletion D, was taken as drainage amount, Wd. {{{{D= SUM from { {i }=1} to n (Et-Re-I+Wd)}}}} if Wd=0, otherwise, {{{{D= SUM from { {i }=tf} to n (Et-Re-I+Wd)}}}} where tf=2∼3 days. 6. The curves and their corresponding empirical equations for the variation of soil moisture depending on the soil types, soil depths are shown on Fig. 8 (a,b.c,d). The general mathematical model on soil moisture variation depending on seasons, weather, and soil types were as follow: {{{{SMC= SUM ( { C}_{i }Exp( { - lambda }_{i } { t}_{i } )+ { Re}_{i } - { Excess}_{i } )}}}} where SMC : soil moisture content C : constant depending on an initial soil moisture content $\lambda$ : constant depending on season t : time Re : effective rainfall Excess : drainage and excess soil moisture other than drainage. The values of $\lambda$ are shown on Table 1. 7. The timing and amount of irrigation could be predicted by the equation (9-a) and (9-b,c), respectively. 8. Under the given conditions, the model for scheduling irrigation was completed. Fig. 9 show computer flow charts of the model. a. To estimate a potential evapotranspiration, Penman's equation was used if a complete observed meteorological data were available, and Jensen-Haise's equation was used if a forecasted meteorological data were available, However none of the observed or forecasted data were available, the equation (15) was used. b. As an input time data, a crop carlender was used, which was made based on the time when the growth stage of the crop shows it's maximum effective leaf coverage. 9. For the purpose of validation of the models, observed data of soil moiture content under various conditions from May, 1975 to July, 1975 were compared to the data predicted by Model-I and Model-II. Model-I shows the relative error of 4.6 to 14.3 percent which is an acceptable range of error in view of engineering purpose. Model-II shows 3 to 16.7 percent of relative error which is a little larger than the one from the Model-I. 10. Comparing two models, the followings are concluded: Model-I established on the theoretical background can predict with a satisfiable reliability far practical use provided that forecasted meteorological data are available. On the other hand, Model-II was superior to Model-I in it's simplicity, but it needs long period and wide scope of observed data to predict acceptable soil moisture content. Further studies are needed on the Model-II to make it acceptable in practical use.

  • PDF

Modern Paper Quality Control

  • Olavi Komppa
    • 한국펄프종이공학회:학술대회논문집
    • /
    • 한국펄프종이공학회 2000년도 제26회 펄프종이기술 국제세미나
    • /
    • pp.16-23
    • /
    • 2000
  • The increasing functional needs of top-quality printing papers and packaging paperboards, and especially the rapid developments in electronic printing processes and various computer printers during past few years, set new targets and requirements for modern paper quality. Most of these paper grades of today have relatively high filler content, are moderately or heavily calendered , and have many coating layers for the best appearance and performance. In practice, this means that many of the traditional quality assurance methods, mostly designed to measure papers made of pure. native pulp only, can not reliably (or at all) be used to analyze or rank the quality of modern papers. Hence, introduction of new measurement techniques is necessary to assure and further develop the paper quality today and in the future. Paper formation , i.e. small scale (millimeter scale) variation of basis weight, is the most important quality parameter of paper-making due to its influence on practically all the other quality properties of paper. The ideal paper would be completely uniform so that the basis weight of each small point (area) measured would be the same. In practice, of course, this is not possible because there always exists relatively large local variations in paper. However, these small scale basis weight variations are the major reason for many other quality problems, including calender blacking uneven coating result, uneven printing result, etc. The traditionally used visual inspection or optical measurement of the paper does not give us a reliable understanding of the material variations in the paper because in modern paper making process the optical behavior of paper is strongly affected by using e.g. fillers, dye or coating colors. Futhermore, the opacity (optical density) of the paper is changed at different process stages like wet pressing and calendering. The greatest advantage of using beta transmission method to measure paper formation is that it can be very reliably calibrated to measure true basis weight variation of all kinds of paper and board, independently on sample basis weight or paper grade. This gives us the possibility to measure, compare and judge papers made of different raw materials, different color, or even to measure heavily calendered, coated or printed papers. Scientific research of paper physics has shown that the orientation of the top layer (paper surface) fibers of the sheet paly the key role in paper curling and cockling , causing the typical practical problems (paper jam) with modern fax and copy machines, electronic printing , etc. On the other hand, the fiber orientation at the surface and middle layer of the sheet controls the bending stiffness of paperboard . Therefore, a reliable measurement of paper surface fiber orientation gives us a magnificent tool to investigate and predict paper curling and coclking tendency, and provides the necessary information to finetune, the manufacturing process for optimum quality. many papers, especially heavily calendered and coated grades, do resist liquid and gas penetration very much, bing beyond the measurement range of the traditional instruments or resulting invonveniently long measuring time per sample . The increased surface hardness and use of filler minerals and mechanical pulp make a reliable, nonleaking sample contact to the measurement head a challenge of its own. Paper surface coating causes, as expected, a layer which has completely different permeability characteristics compared to the other layer of the sheet. The latest developments in sensor technologies have made it possible to reliably measure gas flow in well controlled conditions, allowing us to investigate the gas penetration of open structures, such as cigarette paper, tissue or sack paper, and in the low permeability range analyze even fully greaseproof papers, silicon papers, heavily coated papers and boards or even detect defects in barrier coatings ! Even nitrogen or helium may be used as the gas, giving us completely new possibilities to rank the products or to find correlation to critical process or converting parameters. All the modern paper machines include many on-line measuring instruments which are used to give the necessary information for automatic process control systems. hence, the reliability of this information obtained from different sensors is vital for good optimizing and process stability. If any of these on-line sensors do not operate perfectly ass planned (having even small measurement error or malfunction ), the process control will set the machine to operate away from the optimum , resulting loss of profit or eventual problems in quality or runnability. To assure optimum operation of the paper machines, a novel quality assurance policy for the on-line measurements has been developed, including control procedures utilizing traceable, accredited standards for the best reliability and performance.

장력 침투계(Disk Tension Infiltrometer)와 van Genuchten-Mualem 모형 적용에 따른 불포화수리 전도도의 비교 해석 (Comparison of Disk Tension Infiltrometer and van Genuchten-Mualem Model on Estimation of Unsaturated Hydraulic Conductivity)

  • 허승오;정강호;박찬원;하상건;김정규
    • 한국토양비료학회지
    • /
    • 제39권5호
    • /
    • pp.259-267
    • /
    • 2006
  • 수리 전도도는 수리구배에 대한 플럭스의 비율을 나타내며, 포화된 토양에서의 물의 이동이 포화수리전도도이고 불포화된 토양에서의 이동이 불포화수리전도도이다. 일반적인 밭 상태에서의 토양수분 조건은 불포화수리전도도로 표시하는 것이 적절하나 그 상태를 표현하기가 쉽지 않다. 토양의 불포화 상태를 나타내는데 가장 많이 쓰이고 있는 VGM(van Genuchten Mualem) 모형은 토양수분 포텐셜과 수분함량의 함수로 구성된 모형이며 몇 가지 매개변수가 필요하다. VGM 모형의 매개변수를 얻기 위해 본 연구에서는 VGM 모형의 매개변수를 계산해주는 프로그램인 Rosetta를 사용하였다. Rosetta 모형은 신경그물 얼개(neural network)를 이용하여 토양의 물리적 자료들인 토성이나 모래, 미사, 점토 함량 또는 용적밀도나 33 kPa, 1500 kPa에서의 토양수분 함량 자료를 가지고 VGM의 매개변수인 Ko(effedive saturated hydraulic conductivity), ${\theta}r$(residual soil water content), ${\theta}s$(saturated soil water content), L, n, m(=1-1/n)을 예측하는 모형으로 미국 농무성(USDA-ARS)에서 개발한 프로그램이다. Rosetta를 이용하여 10kPa에서의 불포화수리전도도를 예측하였다. 또한 Gardner와 Wooding의 모형을 기반으로 하여 만들어진 장력침투계의 포화수리전도도 값을 Gardner식에 적용하여 1, 3, 5, 7 kPa에서의 불포화수리전도도 값을 17개 토양통을 대상으로 하여 구했다. 토양수분 potential이 3 kPa에서는 물의 이동이 거의 없는 토양들이 있었는데 반해 남계통을 비롯한 학곡통, 회곡통, 백산통, 상주통, 석천통, 예산통 등 7개의 토양은 3 kPa에서도 약간의 물의 이동이 있었다. 또한, 1 kPa에서 물의 이동은 삼각통에서 $40.8{\times}10^{-5}cm{\cdot}sec^{-1}$로 이동 속도가 가장 컸으며 그 뒤로 예산통, 화봉통, 학곡통, 백산통 등이 토양에서 빠른 속도로 이동하였다. 가천통이나 석천통 및 우곡통은 1 kPa에서의 이동 속도가 아주 느린 토양으로 판단되었다. PTF와 VG모형에 의해 얻어진 10 kPa에서의 수분함량 예측 값을 VGM 모형에 적용해 불포화수리전도도를 구했을 때, VG모형에 의한 예측 값은 존재하는 반면 PTF에 의한 값은 결측 값이 존재해 그 적용에 한계가 있었다. 그리고 1 kPa에서 불포화 수리전도도를 VGM 모형으로 예측한 값과 측정된 값을 Gardner 모형으로 해석한 값을 비교했을 때 자갈이 없는 토양에서는 일정한 경향(exponential 함수)이 존재한 반면, 자갈이 있는 토양에서는 경향을 발견할 수가 없었다. 이상의 결과로 불포화 수리전도도 특성평가에 대한 VGM 모형의 적용성을 살펴보았을 때는 우리나라와 같이 경사지가 많고 토심이 깊지 않으면서 자갈함량이 많은 토양에서는 한계가 있을 것으로 판단되었다.

핵융합로부품 시험을 위한 고열부하 시험시설 KoHLT-1 구축 (Development of a High Heat Load Test Facility KoHLT-1 for a Testing of Nuclear Fusion Reactor Components)

  • 배영덕;김석권;이동원;신희윤;홍봉근
    • 한국진공학회지
    • /
    • 제18권4호
    • /
    • pp.318-330
    • /
    • 2009
  • 본 한국원자력연구원에서는 국제열핵융합실험로(ITER)의 일차벽을 개발하기 위해 그라파이트 히터를 이용한 고열부하 시험시설 KoHLT-1(Korea Heat Load Test facility-1)을 구축하였으며, 현재 정상적으로 가동되고 있다. KoHLT-1의 주목적은 Be-CuCrZr-SS의 이종 금속이 HIP 방법에 의해 접합된 ITER 일차벽 mockup의 접합 건전성을 확인하는데 있다. KoHLT-1은 판형 그라파이트 히터, 냉각 jacket이 부착된 상자형 시험용기, 직류 전원, 냉각계통, He 기체 공급계통과 각종 진단계통으로 구성되어 있으며, 이 모든 시설은 Be 처리가 가능한 특수 정화계통이 설치된 실험실에 설치되었다. 그라파이트 히터는 두개의 시험 대상물 사이에 설치되며, 시험대상물과의 거리는 $2{\sim}3\;mm$이다. 시험 대상물의 크기와 요구되는 열유속에 따라 여러 가지의 그라파이트 히터를 설계, 제작하였으며, 전기 저항은 고온 운전 중에 $0.2{\sim}0.5{\Omega}$이 되도록 하였다. 히터는 100V/400 A의 직류전원에 연결되어 있으며, PC와 multi function module로 구성된 전류 조정계통에 의해 미리 프로그램되어 있는 패턴으로 전류를 자동 조절하게 된다. 두 시험대상물에 인가되는 열유속은 calorimetry법에 의해 냉각수의 입, 출구 온도와 유량을 측정하여 얻게 된다. 여러 가지 형태의 ITER 일차벽 Be mockups에 대해 고열부하 시험을 수행하였으며, 시험을 통하여 KoHLT-1 고열부하 시험 시설의 성능이 확인되었고, 24시간 이상의 연속 운전에 있어서도 그 신뢰성이 입증되었다.

한국소설에 나타난 포스트휴머니즘의 상상력 -조하형의 『키메라의 아침』과 『조립식 보리수나무』를 중심으로 (The Imagination of Post-humanism Appeared in Korean Fictions -Focused on Cho Ha-hyung's Chimera's Morning and A Prefabricated Bodhi Tree)

  • 이소연
    • 대중서사연구
    • /
    • 제25권4호
    • /
    • pp.191-221
    • /
    • 2019
  • 본 연구는 최근 주요한 인문학적 테제로 등장하고 있는 포스트휴머니즘적 상상력이 한국문학, 특히 소설에 나타난 양상을 분석하는 것을 목표로 한다. 특히 본고에서는 2000년대 초반 활동했던 작가인 조하형의 두 소설 『키메라의 아침』(2004)과 『조립식 보리수나무』(2008) 두 편을 집중적인 분석의 대상으로 삼는다. '포스트휴머니즘(Post-humanism)'은 근대의 한계를 극복하고 새로운 세계관의 정립을 모색하기 위해 노력한 탈근대적 사유의 연장선상에서 파악할 수 있다. 특히 이 사상은 20세기 이후 급격히 발전한 과학 기술의 발달이 인간관 나아가서는 인간중심적인 문명 자체를 바꿔온 양상을 종합적으로 파악하는 데에 관심을 기울인다. 포스트휴머니즘 비평은 서사에 등장하는 인물 형상을 새롭게 바라보는 시선을 제공하는 한편, 과거에 쓰인 고전 작품 속에서 주목받지 못했던 주변 인물들, 비-인간, 사물들을 발굴해서 재조명하는 작업을 시도하고 있다. 이러한 사상적 흐름은 최근 기존의 인문학이 지배하던 인간에 대한 관념이 전면적으로 바뀌어 자연과학·기술적 관점이 담론장에 다양하게 적용되는 현실을 반영하는 것이다. 포스트휴머니즘의 질문들은 철학의 큰 범주인 존재론, 인식론, 경험론적인 분야를 아우르는 동시에 문학과 과학 그리고 사회과학 전체의 참여를 요청함으로써 학제적인 연구 과제를 발생시키고 있다. 혹독한 재난이 닥친 세계를 배경으로 『키메라의 아침』은 인간이 바이오테크놀로지에 의해 변형된 변종의 형태로, 『조립식 보리수나무』는 컴퓨터 시뮬레이션에 의해 제작된 인공지능(Artificial Intelligence)의 모습으로, 다시 태어나는 과정을 그린다. 조하형 소설에 나타난 포스트휴머니즘적 사상은 텍스트에 재현된 세계의 형상와 인간의 정체성을 종합적으로 재고하고, 인간과 비인간을 구분하는 경계선과 위계질서 등을 다시 탐구하는 반성적인 계기가 된다.

붕소-중성자 포획치료를 위한 미세 속중성자 선량 특성 연구 (Dosimetry of the Low Fluence Fast Neutron Beams for Boron Neutron Capture Therapy)

  • 이동한;지영훈;이동훈;박현주;이석;이경후;서소희;김미숙;조철구;류성렬;유형준;곽호신;이창훈
    • Radiation Oncology Journal
    • /
    • 제19권1호
    • /
    • pp.66-73
    • /
    • 2001
  • 목적 : 붕소-중성자 포획치료법(Boron Neutron Capture Therapy, BNCT)을 위해 원자력병원 싸이클로트론에서 발생되는 최대에너지 34.4 MeV의 속중성자(Fast neutron)를 70 cm 파라핀으로 감속시킨 후 선량 특성을 조사하였다. 그 결과를 토대로 열외중성자(Epithermal neutron) 선량 측정법에 대한 프로토콜을 확립하여 원자로에서 방출되는 열외 중성자 선량 특성 평가의 기초를 삼고, 가속기를 이용한 BNCT 연구에 대한 타당성 여부를 조사하고자 한다. 대상 및 방법 : 공기 중 선량 및 물질 내 선량 분포 측정을 위해 Unidos 10005 (PTW, Germany) 전기계와 조직 등가 물질인 A-150 플라스틱으로 제작된 IC-17 (Far West, USA) 및 IC-18, ElC-1 이온함을 사용하였고, 감마선의 측정을 위해서는 마그네슘으로 제작된 IC-l7M 이온함을 이용하였으며 조직등가 기체와 아르곤 기체를 분당 5cc 씩 주입하며 측정하였다. 중성자, 광자, 전자가 혼합된 장의 모의 수송 해석을 위해 이용되는 Monte Carlo N-Particle (MCNP) transport code를 사용하여 2차원적 선량 분포 및 에너지 분포를 계산하였으며 이 결과를 측정값과 비교하였다. 결과 : BNCT에서의 유효 치료 깊이인 물 팬텀 4 cm에서의 선량은 치료기 1 MU 당 $6.47\times10^{-3}\;cGy$로 미세하였으며, 이때 감마 오염도(contamination)는 $65.2{\pm}0.9\%$로 중성자보다는 감마선에 의한 선량 기여분이 우세하였다. 깊이에 따른 선량 분포 특성에서는 중성자 선량은 선형적으로 감쇠 되었고, 감마선량은 지수적으로 보다 급격히 감쇠되는 경향을 보였으며 전체 선량의 $D_{20}/D_{10}$은 0.718 이었다. MCNP에 의한 에너지 분포 전산 계산의 결과 2.87 MeV 이하에서 중성자 피크가 나타났으며, 저에너지 영역에서는 감마선이 연속적으로 분포되는 양상을 보였다. 결론 : 벽 물질이 서로 다른 두 개의 이온함을 사용한 직접 선량 측정과 MCNP 전산 시뮬레이션을 이용한 공간 선량분포 계산으로 미세 속중성자 빔에 대한 선량 특성을 파악할 수 있었으며, 원자로 열외중성자 주(Epithermal neutron column)에 대한 선량 평가 자료로 확보하였다. 아울러 가속기에 대한 연구가 진행되어 고전압, 고전류를 발생시키는 전원 공급장치와 표적핵(Target) 물질이 개발되고 비스무스나 납 등에 의해 감마 오염도를 줄일 경우, 싸이크로트론에 의한 보론-중성자 포획치료도 가능해질 것으로 판단된다.

  • PDF

자율 주행을 위한 Edge to Edge 모델 및 지연 성능 평가 (Edge to Edge Model and Delay Performance Evaluation for Autonomous Driving)

  • 조문기;배경율
    • 지능정보연구
    • /
    • 제27권1호
    • /
    • pp.191-207
    • /
    • 2021
  • 오늘날 이동통신은 급증하는 데이터 수요에 대응하기 위해서 주로 속도 향상에 초점을 맞추어 발전해 왔다. 그리고 5G 시대가 시작되면서 IoT, V2X, 로봇, 인공지능, 증강 가상현실, 스마트시티 등을 비롯하여 다양한 서비스를 고객들에게 제공하기위한 노력들이 진행되고 있고 이는 우리의 삶의 터전과 산업 전반에 대한 환경을 바꿀 것으로 예상되고 되고 있다. 이러한 서비스를 제공하기위해서 고속 데이터 속도 외에도, 실시간 서비스를 위한 지연 감소 그리고 신뢰도 등이 매우 중요한데 5G에서는 최대 속도 20Gbps, 지연 1ms, 연결 기기 106/㎢를 제공함으로써 서비스 제공할 수 있는 기반을 마련하였다. 하지만 5G는 고주파 대역인 3.5Ghz, 28Ghz의 높은 주파수를 사용함으로써 높은 직진성의 빠른 속도를 제공할 수 있으나, 짧은 파장을 가지고 있어 도달할 수 있는 거리가 짧고, 회절 각도가 작아서 건물 등을 투과하지 못해 실내 이용에서 제약이 따른다. 따라서 기존의 통신망으로 이러한 제약을 벗어나기가 어렵고, 기반 구조인 중앙 집중식 SDN 또한 많은 노드와의 통신으로 인해 처리 능력에 과도한 부하가 발생하기 때문에 지연에 민감한 서비스 제공에 어려움이 있다. 그래서 자율 주행 중 긴급 상황이 발생할 경우 사용 가능한 지연 관련 트리 구조의 제어 기능이 필요하다. 이러한 시나리오에서 차량 내 정보를 처리하는 네트워크 아키텍처는 지연의 주요 변수이다. 일반적인 중앙 집중 구조의 SDN에서는 원하는 지연 수준을 충족하기가 어렵기 때문에 정보 처리를 위한 SDN의 최적 크기에 대한 연구가 이루어져야 한다. 그러므로 SDN이 일정 규모로 분리하여 새로운 형태의 망을 구성 해야하며 이러한 새로운 형태의 망 구조는 동적으로 변하는 트래픽에 효율적으로 대응하고 높은 품질의 유연성 있는 서비스를 제공할 수 있다. 이러한 SDN 구조 망에서 정보의 변경 주기, RTD(Round Trip Delay), SDN의 데이터 처리 시간은 지연과 매우 밀접한 상관관계를 가진다. 이 중 RDT는 속도는 충분하고 지연은 1ms 이하이기에 유의미한 영향을 주는 요인은 아니지만 정보 변경 주기와 SDN의 데이터 처리 시간은 지연에 크게 영향을 주는 요인이다. 특히, 5G의 다양한 응용분야 중에서 지연과 신뢰도가 가장 중요한 분야인 지능형 교통 시스템과 연계된 자율주행 환경의 응급상황에서는 정보 전송은 매우 짧은 시간 안에 전송 및 처리돼야 하는 상황이기때문에 지연이라는 요인이 매우 민감하게 작용하는 조건의 대표적인 사례라고 볼 수 있다. 본 논문에서는 자율 주행 시 응급상황에서 SDN 아키텍처를 연구하고, 정보 흐름(셀 반경, 차량의 속도 및 SDN의 데이터 처리 시간의 변화)에 따라 차량이 관련정보를 요청해야 할 셀 계층과의 상관관계에 대하여 시뮬레이션을 통하여 분석을 진행하였다.

Hierarchical Attention Network를 이용한 복합 장애 발생 예측 시스템 개발 (Development of a complex failure prediction system using Hierarchical Attention Network)

  • 박영찬;안상준;김민태;김우주
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.127-148
    • /
    • 2020
  • 데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.