• Title/Summary/Keyword: 결함 관리 기법

Search Result 2,856, Processing Time 0.036 seconds

Efficient Process Checkpointing through Fine-Grained COW Management in New Memory based Systems (뉴메모리 기반 시스템에서 세밀한 COW 관리 기법을 통한 효율적 프로세스 체크포인팅 기법)

  • Park, Jay H.;Moon, Young Je;Noh, Sam H.
    • Journal of KIISE
    • /
    • v.44 no.2
    • /
    • pp.132-138
    • /
    • 2017
  • We design and implement a process-based fault recovery system to increase the reliability of new memory based computer systems. A rollback point is made at every context switch to which a process can rollback to upon a fault. In this study, a clone process of the original process, which we refer to as a P-process (Persistent-process), is created as a rollback point. Such a design minimizes losses when a fault does occur. Specifically, first, execution loss can be minimized as rollback points are created only at context switches, which bounds the lost execution. Second, as we make use of the COW (Copy-On-Write)mechanism, only those parts of the process memory state that are modified (in page units) are copied decreasing the overhead for creating the P-process. Our experimental results show that the overhead is approximately 5% in 8 out of 11 PARSEC benchmark workloads when P-process is created at every context switch time. Even for workloads that result in considerable overhead, we show that this overhead can be reduced by increasing the P-process generation interval.

Analysis of Leasing Decision Determinants by the Store Size and Lend-Lease Perspectives for Mix-Used Shopping Mall Development (복합쇼핑몰 개발을 위한 매장규모 및 임대차 관점에 따른 임차인 입점결정요인에 관한 연구)

  • Park, Hyeyoon;Lee, Sangyoub
    • Korean Journal of Construction Engineering and Management
    • /
    • v.18 no.2
    • /
    • pp.49-57
    • /
    • 2017
  • This study intends to determine the decision making criteria of leasing in mix-used shopping mall, analyze the variation of their weight by store size inside mall and lend-lease perspective for lessor and lessee towards the identification of optimal leasing environment in mix-used shopping mall development. The decision making have been identified based on the number of prior literature review and expert consultation. And the AHP methodology and Fuzzy theory have been implemented to develop the weight for criteria based on experts survey. Research finding indicates that the 2 categories with 6 criteria and 24 sub-criteria have been determined. It is noteworthy that the large sized group would be located in both ends on main floor with their requested store size; middle sized group done over second floor with low rent by attracting with both competitive brands and key-tenants; small sized group done in both ends on main floor or on 2 to 3 floor connecting to main circulation. This should be examined in the planning stage of SPA lessee solicitation by the lessor in mix-used shopping mall development project.

Development of a Location Data Management System for Mass Moving Objects (대용량 이동 객체 위치 데이타 관리 시스템의 개발)

  • Kim, Dong-Oh;Ju, Sung-Wan;Jang, In-Sung;Han, Ki-Joon
    • Journal of Korea Spatial Information System Society
    • /
    • v.7 no.1 s.13
    • /
    • pp.63-76
    • /
    • 2005
  • Recently, the wireless positioning techniques and mobile computing techniques were developed with rapidly to use location data of moving objects. Also, the demand for LBS(Location Based Services) which uses location data of moving objects is increasing rapidly. In order to support various LBS, a system that can store and retrieve location data of moving objects efficiently is required necessarily. The more the number of moving objects is numerous and the more periodical sampling of locations is frequent, the more location data of moving objects become very large. Hence the system should be able to efficiently manage mass location data, support various spatio-temporal queries for LBS, and solve the uncertainty problem of moving objects. Therefore, in this paper, we presented a hash technique, a clustering technique and a trajectory search technique to manage location data of moving objects efficiently And, we have developed a Mass Moving Object Location Data Management System, which is a disk-based system, that can store and retrieve location data of mass moving objects efficiently and support the query for spatio-temporal data and the past location data with uncertainty. By analying the performance of the Mass Moving Object Locations Management system and the SQL-Server, we can find that the performance of our system for storing and retrieving location data of moving objects was about 5% and 300% better than the SQL-Server, repectively.

  • PDF

A Workflow Determinacy Decision Mechanism (워크플로우 결정성 판단 메커니즘)

  • Chung, Woo-Jin;Kim, Kwang-Hoon
    • Journal of Internet Computing and Services
    • /
    • v.10 no.3
    • /
    • pp.1-8
    • /
    • 2009
  • The primary tasks of a workflow management system specify workflow models with respect to resource, control-flow, data-flow, functional, and operational perspectives, and to enact their workcases (workflow instances). In terms of enacting workflow models, the essential criterion grading the quality of the system is "how much is the system able to guarantee the correctness of workflow models' enactment?". Particularly, the workflow determinacy problem, which may be caused by the interference of the control-flow and the data-flow specifications, is the most challenging issue in guaranteeing the correctness of the system. We are able to solve the problem by either of the following two approaches-analysis of workflow model and verification of workflow enactment. In the paper, we propose a technique that guarantee the system's correctness through verifying workflow enactment. In other words, the technique is able to detect the conflicts of control-flow and data-flow enactments existing on a workflow model, which causes the system to be non-determinant in enacting workflow models. Finally, by applying the technique to the e-Chautauque workflow management system developed by the authors' research group, we prove that the technique is a feasible solution for the workflow determinacy problem.

  • PDF

Estimation of Quantitative Daily Precipitation Forecasting for Integrated Real-time Basin Water Management System (실시간 물관리를 위한 정량적 강수예측기법에 관한 연구)

  • Oh, Jai-Ho;Kim, Jin-Young;Kang, Bu-Sick;Jeong, Chang-Sam;Ko, Ick-Hwan
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2006.05a
    • /
    • pp.1488-1491
    • /
    • 2006
  • 본 연구에서는 실시간 통합 물관리 시스템의 일환으로 월별 일강수량 예측 시스템에 관한 연구를 실시하였다. 선행시간 2일 예측에 대해서는 기상청 생성 수치모의 RDAPS (Regional Data Assimilation and Prediction System)를 기반으로 강수진단모형인 QPM (Quantitative Precipitatiom Model)을 이용하여 지형효과를 보정하였으며, 선행시간 2일에서 8일까지의 예측에 대해서는 GDAPS (Global Data Assimilation and Prediction System) 모의결과를 QPM을 이용하여 보정하였고, 선행시간 10일 이후의 예측값은 통계적 기법을 이용한 자료를 활용하였다. 통계적 기법으로는 과거 20년간의 관측된 강수경향을 이용하여 시스템을 구축하였다. 강수진단모형 (QPM)은 Misumi et al. (2001), Bell (1978), Collier (1975)등이 제안한 바 있는 Collier-type의 모형으로서 이들 모형은 소규모 지형 효과를 고려한 강수량을 산출하는 진단 모형이다. QPM은 중규모 예측 모형으로부터 계산된 수평 바람, 고도, 기온, 강우 강도, 그리고 상대습도 등의 예측 자료를 이용하고, 중규모 예측 모형에서는 잘 표현되지 않는 소규모 지형 효과를 고려함으로써 중규모 예측 모형에서 생산된 상대적으로 성긴 격자의 강수량 예측 값을 상세 지역의 지형을 고려한 강수량 예측 값으로 재구성하게 된다. QPM은 중규모 모형으로부터 나온 자료를 초기 자료로 이용하고 3 km 간격의 상세 지형을 반영하는 모형으로 소규모 지형 효과를 표현함으로써 상세 지역에서의 강수량 산출과 지형에 따른 강수량의 분포 파악이 용이할 뿐 아니라, 계산 효율성을 개선시킬 수 있다.착능이 높은 것으로 사료되었다.X>${\mu}_{max,A}$는 최대암모니아 섭취률을 이용하여 구한 결과 $0.65d^{-1}$로 나타났다.EX>$60%{\sim}87%$가 수심 10m 이내에 분포하였고, 녹조강과 남조강이 우점하는 하절기에는 5m 이내에 주로 분포하였다. 취수탑 지점의 수심이 연중 $25{\sim}35m$를 유지하는 H호의 경우 간헐식 폭기장치를 가동하는 기간은 물론 그 외 기간에도 취수구의 심도를 표층 10m 이하로 유지 할 경우 전체 조류 유입량을 60% 이상 저감할 수 있을 것으로 조사되었다.심볼 및 색채 디자인 등의 작업이 수반되어야 하며, 이들을 고려한 인터넷용 GIS기본도를 신규 제작한다. 상습침수지구와 관련된 각종 GIS데이타와 각 기관이 보유하고 있는 공공정보 가운데 공간정보와 연계되어야 하는 자료를 인터넷 GIS를 이용하여 효율적으로 관리하기 위해서는 단계별 구축전략이 필요하다. 따라서 본 논문에서는 인터넷 GIS를 이용하여 상습침수구역관련 정보를 검색, 처리 및 분석할 수 있는 상습침수 구역 종합정보화 시스템을 구축토록 하였다.N, 항목에서 보 상류가 높게 나타났으나, 철거되지 않은 검전보나 안양대교보에 비해 그 차이가 크지 않은 것으로 나타났다.의 기상변화가 자발성 기흉 발생에 영향을 미친다고 추론할 수 있었다. 향후 본 연구에서 추론된 기상변화와 기흉 발생과의 인과관계를 확인하고 좀 더 구체화하기 위한 연구가 필요할 것이다.게 이루어질 수 있을 것으로 기대된다.는 초과수익률이 상승하지만, 이후로는 감소하므로, 반전거래전략을 활용하는 경우 주식투자기간은 24개월이하의 중단기가 적합함을 발견하였다. 이상의 행태적 측면과 투자성과측면의 실증결과를 통하여 한국주

  • PDF

Analysis of the Impact Relationship for Risk Factors on Big Data Projects Using SNA (SNA를 활용한 빅데이터 프로젝트의 위험요인 영향 관계 분석)

  • Park, Dae-Gwi;Kim, Seung-Hee
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.21 no.1
    • /
    • pp.79-86
    • /
    • 2021
  • In order to increase the probability of success in big data projects, quantified techniques are required to analyze the root cause of risks from complex causes and establish optimal countermeasures. To this end, this study measures risk factors and relationships through SNA analysis and presents a way to respond to risks based on them. In other words, it derives a dependency network matrix by utilizing the results of correlation analysis between risk groups in the big data projects presented in the preliminary study and performs SNA analysis. In order to derive the dependency network matrix, partial correlation is obtained from the correlation between the risk nodes, and activity dependencies are derived by node by calculating the correlation influence and correlation dependency, thereby producing the causal relationship between the risk nodes and the degree of influence between all nodes in correlation. Recognizing the root cause of risks from networks between risk factors derived through SNA between risk factors enables more optimized and efficient risk management. This study is the first to apply SNA analysis techniques in relation to risk management response, and the results of this study are significant in that it not only optimizes the sequence of risk management for major risks in relation to risk management in IT projects but also presents a new risk analysis technique for risk control.

A Method to Establish Severity Weight of Defect Factors for Application Software using ANP (ANP 모형을 이용한 응용 소프트웨어 결함요소에 대한 중요도 가중치 설정 기법)

  • Huh, SangMoo;Kim, WooJe
    • Journal of KIISE
    • /
    • v.42 no.11
    • /
    • pp.1349-1360
    • /
    • 2015
  • In order to improve software quality, it is necessary to efficiently and effectively remove software defects in source codes. In the development field, defects are removed according to removal ratio or severity of defects. There are several studies on the removal of defects based on software quality attributes, and several other studies have been done to improve the software quality using classification of the severity of defects, when working on projects. These studies have thus far been insufficient in terms of identifying if there exists relationships between defects or whether any type of defect is more important than others. Therefore, in this study, we collected various types of software defects, standards organization, companies, and researchers. We modeled the defects types using an ANP model, and developed the weighted severities of the defects types, with respect to the general application software, using the ANP model. When general application software is developed, we will be able to use the weight for each severity of defect type, and we expect to be able to remove defects efficiently and effectively.

Combining Bias-correction on Regional Climate Simulations and ENSO Signal for Water Management: Case Study for Tampa Bay, Florida, U.S. (ENSO 패턴에 대한 MM5 강수 모의 결과의 유역단위 성능 평가: 플로리다 템파 지역을 중심으로)

  • Hwang, Syewoon;Hernandez, Jose
    • Korean Journal of Agricultural and Forest Meteorology
    • /
    • v.14 no.4
    • /
    • pp.143-154
    • /
    • 2012
  • As demand of water resources and attentions to changes in climate (e.g., due to ENSO) increase, long/short term prediction of precipitation is getting necessary in water planning. This research evaluated the ability of MM5 to predict precipitation in the Tampa Bay region over 23 year period from 1986 to 2008. Additionally MM5 results were statistically bias-corrected using observation data at 33 stations over the study area using CDF-mapping approach and evaluated comparing to raw results for each ENSO phase (i.e., El Ni$\tilde{n}$o and La Ni$\tilde{n}$a). The bias-corrected model results accurately reproduced the monthly mean point precipitation values. Areal average daily/monthly precipitation predictions estimated using block-kriging algorithm showed fairly high accuracy with mean error of daily precipitation, 0.8 mm and mean error of monthly precipitation, 7.1 mm. The results evaluated according to ENSO phase showed that the accuracy in model output varies with the seasons and ENSO phases. Reasons for low predictions skills and alternatives for simulation improvement are discussed. A comprehensive evaluation including sensitivity to physics schemes, boundary conditions reanalysis products and updating land use maps is suggested to enhance model performance. We believe that the outcome of this research guides to a better implementation of regional climate modeling tools in water management at regional/seasonal scale.

Efficient Parallel Spatial Join Method In Shared-Nothing Spatial Database Cluster (비공유 공간 데이터베이스 클러스터에서 효율적인 병렬 공간 조인 기법)

  • Kim, Jong-Hyun;Kim, Myung-Keun;Kim, Jae-Hong;Bae, Hae-Young
    • Annual Conference of KIPS
    • /
    • 2002.11c
    • /
    • pp.1871-1874
    • /
    • 2002
  • 최근 인터넷 환경에서 지리 정보 서비스를 제공받으려는 사용자들의 지속적인 증가로 인해 저비용의 여러 개의 단일 노드를 고속의 네트워크로 연결하여 고성능을 제공하는 클러스터 기반의 공간 데이터베이스에 대한 연구가 활발하게 진행되고 있다. 이러한 공간 데이터베이스 클러스터에서 사용자가 요구한 공간 질의를 빠르게 처리하기 위해서는 고비용의 공간 조인 연산을 효율적으로 처리하기 위한 기법이 요구된다. 본 논문에서는 비공유 공간 데이터베이스 클러스터 환경하에서 공간 조인 연산 수행 시 효율적인 병렬 처리를 위한 영역 분할 기법 및 병렬 공간 조인 기법을 제안한다. 기존의 병렬 공간 데이터베이스 시스템에서의 분할 기반 병렬 공간 조인 기법들은 병렬로 수행할 작업 분배 및 할당과 분할 경계선 상에 존재하는 공간 객체들에 대한 중복 조인 연산 및 중복 결과 제거 등의 추가적인 연산을 해야 한다는 문제점들이 있다. 제안된 기법은 공간 릴레이션들을 일정 영역들로 분할하여 비공유 공간 데이터베이스 클러스터의 각 노드에서 중복없이 저장, 관리하도록 하며 분할 영역의 경계선 상에 위치하는 공간 데이터에 대해서만 중복 저장을 허용하여 병렬 공간 조인 연산 시 누락되는 공간 데이터가 없도록 한다. 본 기법은 공간 조인 연산 시 병렬 처리를 위한 별도의 작업 할당 과정을 거치지 않고 각 노드에서 병렬적으로 공간 조인 연산을 수행하며, 분할 경계선 상에 존재하는 공간 객체들은 여과 과정을 거쳐 한번만 공간 조인이 수행되므로 중복 결과들을 제거하기 위한 별도의 연산이 필요없는 특징을 갖는다. Ad Hoc망의 위상변화에 대한 적응성을 높일 수 있도록 한다. SQL Server 2000 그리고 LSF를 이용하였다. 그리고 구현 환경과 구성요소에 대한 수행 화면을 보였다.ool)을 사용하더라도 단순 다중 쓰레드 모델보다 더 많은 수의 클라이언트를 수용할 수 있는 장점이 있다. 이러한 결과를 바탕으로 본 연구팀에서 수행중인 MoIM-Messge서버의 네트워크 모듈로 다중 쓰레드 소켓폴링 모델을 적용하였다.n rate compared with conventional face recognition algorithms. 아니라 실내에서도 발생하고 있었다. 정량한 8개 화합물 각각과 총 휘발성 유기화합물의 스피어만 상관계수는 벤젠을 제외하고는 모두 유의하였다. 이중 톨루엔과 크실렌은 총 휘발성 유기화합물과 좋은 상관성 (톨루엔 0.76, 크실렌, 0.87)을 나타내었다. 이 연구는 톨루엔과 크실렌이 총 휘발성 유기화합물의 좋은 지표를 사용될 있고, 톨루엔, 에틸벤젠, 크실렌 등 많은 휘발성 유기화합물의 발생원은 실외뿐 아니라 실내에도 있음을 나타내고 있다.>10)의 $[^{18}F]F_2$를 얻었다. 결론: $^{18}O(p,n)^{18}F$ 핵반응을 이용하여 친전자성 방사성동위원소 $[^{18}F]F_2$를 생산하였다. 표적 챔버는 알루미늄으로 제작하였으며 본 연구에서 연구된 $[^{18}F]F_2$가스는 친핵성 치환반응으로 방사성동위원소를 도입하기 어려운 다양한 방사성의 약품개발에 유용하게 이

  • PDF

Reinforcement Mining Method for Anomaly Detection and Misuse Detection using Post-processing and Training Method (이상탐지(Anomaly Detection) 및 오용탐지(Misuse Detection) 분석의 정확도 향상을 위한 개선된 데이터마이닝 방법 연구)

  • Choi Yun-Jeong;Park Seung-Soo
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.06b
    • /
    • pp.238-240
    • /
    • 2006
  • 네트워크상에서 발생하는 다양한 형태의 대량의 데이터를 정확하고 효율적으로 분석하기 위해 설계되고 있는 마이닝 시스템들은 목표지향적으로 훈련데이터들을 어떻게 구축하여 다룰 것인지에 대한 문제보다는 대부분 얼마나 많은 데이터 마이닝 기법을 지원하고 이를 적용할 수 있는지 등의 기법에 초점을 두고 있다. 따라서, 점점 더 에이전트화, 분산화, 자동화 및 은닉화 되는 최근의 보안공격기법을 정확하게 탐지하기 위한 방법은 미흡한 실정이다. 본 연구에서는 유비쿼터스 환경 내에서 발생 가능한 문제 중 복잡하고 지능화된 침입패턴의 탐지를 위해 데이터 마이닝 기법과 결함허용방법을 이용하는 개선된 학습알고리즘과 후처리 방법에 의한 RTPID(Refinement Training and Post-processing for Intrusion Detection)시스템을 제안한다. 본 논문에서의 RTPID 시스템은 active learning과 post-processing을 이용하여, 네트워크 내에서 발생 가능한 침입형태들을 정확하고 효율적으로 다루어 분석하고 있다. 이는 기법에만 초점을 맞춘 기존의 데이터마이닝 분석을 개선하고 있으며, 특히 제안된 분석 프로세스를 진행하는 동안 능동학습방법의 장점을 수용하여 학습효과는 높이며 비용을 감소시킬 수 있는 자가학습방법(self learning)방법의 효과를 기대할 수 있다. 이는 관리자의 개입을 최소화하는 학습방법이면서 동시에 False Positive와 False Negative 의 오류를 매우 효율적으로 개선하는 방법으로 기대된다. 본 논문의 제안방법은 분석도구나 시스템에 의존하지 않기 때문에, 유사한 문제를 안고 있는 여러 분야의 네트웍 환경에 적용될 수 있다.더욱 높은성능을 가짐을 알 수 있다.의 각 노드의 전력이 위험할 때 에러 패킷을 발생하는 기법을 추가하였다. NS-2 시뮬레이터를 이용하여 실험을 한 결과, 제안한 기법이 AOMDV에 비해 경로 탐색 횟수가 최대 36.57% 까지 감소되었음을 알 수 있었다.의 작용보다 더 강력함을 시사하고 있다.TEX>로 최고값을 나타내었으며 그 후 감소하여 담금 10일에는 $1.61{\sim}2.34%$였다. 시험구간에는 KKR, SKR이 비교적 높은 값을 나타내었다. 무기질 함량은 발효기간이 경과할수록 증하였고 Ca는 $2.95{\sim}36.76$, Cu는 $0.01{\sim}0.14$, Fe는 $0.71{\sim}3.23$, K는 $110.89{\sim}517.33$, Mg는 $34.78{\sim}122.40$, Mn은 $0.56{\sim}5.98$, Na는 $0.19{\sim}14.36$, Zn은 $0.90{\sim}5.71ppm$을 나타내었으며, 시험구별로 보면 WNR, BNR구가 Na만 제외한 다른 무기성분 함량이 가장 높았다.O to reduce I/O cost by reusing data already present in the memory of other nodes. Finally, chunking and on-line compression mechanisms are included in both models. We demonstrate that we can obtain significantly high-performanc

  • PDF