• 제목/요약/키워드: time complexity analysis

검색결과 702건 처리시간 0.028초

유한 고체내 탄성동역학 문제의 모델링 (Modeling of Elastodynamic Problems in Finite Solid Media)

  • 조윤호
    • 비파괴검사학회지
    • /
    • 제20권2호
    • /
    • pp.138-149
    • /
    • 2000
  • 본 논문에서는 유한 고체내 초음파 전파 및 산란 현상의 해석을 위한 다양한 경계요소 모델링 기법이 제시되었다. 박판 재료내 유도초음파 전파에 대한 모드해석을 위해 비균질 적충 박판 구조물에 대한 탄성동역학 경계치 문제가 설정되었으며 이에 대한 수치해로부터 유도초음파의 전파특성을 나타내는 분산곡선이 얻어졌다. 파동 산란시 발생되는 기하학적 복잡성과 모드변환 문제를 수치적으로 모델링하기 위해 탄성 동역학 경계요소법을 적용하였고 이를 박판내 유도초음파의 이론적 직교 모드의 중첩해와 결합시킨 혼합형 경계요소법으로 확장하여 유한 고체내 다중 모드변환의 효율적 모델링법이 제안되었다. 주파수 영역의 수치해로부터 시간 의존 문제의 파동신호 예측을 위해 역 푸리에(Fourier) 변환을 통한 시간 영역 파동산란 신호가 얻어졌다. 이와 함께 실제 초음파 탐상조건에 보다 가까운 파동산란 문제의 모델링을 위해 3차원 경계요소법을 소개하고, 개발중인 3차원 경계요소 프로그램을 이용하여 유한 직경을 갖는 봉재내의 파동 전파를 수치적으로 해석하여 해석해와 비교 검증하였다. 본 논문에서 제시된 탄성파동 모델링 기법은 정량적 비파괴 평가법을 확립하는데 다양하게 응용될 수 있을 것으로 기대된다.

  • PDF

위키를 활용한 집단지성 기반의 시나리오 플래닝 (Scenario Planning based on Collective Intelligence Using Wiki)

  • 한종민;임현;이재신
    • 기술혁신연구
    • /
    • 제20권2호
    • /
    • pp.29-48
    • /
    • 2012
  • 사회 경제 체제의 복잡성 및 불확실성이 증가하면서, 환경변화에 능동적이고 효과적으로 대응할 수 있는 전략적 예측의 필요성이 더욱 중요해지고 있다. 전략적 예측을 수행하는 데는 목적과 상황에 따라 다양한 예측방법론이 사용될 수 있다. 최근의 상황을 보면, 추세외삽법 같은 단정적인 미래예측 방법론들의 활용성은 줄어들고 있다. 그러나 불확실성을 고려한 시나리오 플래닝은 전략적인 의사결정을 도와주는 도구로서 정부와 기업의 관심이 증대하고 있다. 일반적으로 시나리오 플래닝은 다양한 분야의 전문가들이 참여하여 의견을 개진하고 협의를 통해 결과를 도출하는 워크숍 방식으로 진행된다. 그러나 재원이 한정되고 수행기간이 짧은 예측의 경우에는 소수의 전문가들만이 참여하게 되는 단점이 존재한다. 또한 일반시민의 의견이 적극적으로 반영되기 어렵고, 중요한 요인과 현상이 고려되지 못하는 경우가 발생하기도 한다. 이에 더하여 시간적 공간적 제약으로 인해 창의적인 아이디어를 다양하게 제시하기 어려운 단점도 존재한다. 일반적인 워크숍에서는 10명 내외의 소수 전문가들이 참여하여 시나리오가 작성된다. 본 연구에서는 이러한 기존의 워크숍 방식을 개선하기 위해 집단지성을 활용하는 새로운 방안을 제시하고자 한다. 즉 20명 이상 다수의 구성원들이 시나리오 작성에 참여하도록 하며 이들의 다양한 의견이 효과적으로 반영될 수 있도록 위키(Wiki)를 활용하는 방안을 제시하는 것이다. 또한 이러한 새로운 방식을 활용하여"미래 미디어에 관한 전략적 예측"을 수행한 실제 사례를 소개하고 수행 중 발견된 프로세스 개선 방안을 함께 제시하고자 한다.

  • PDF

$GF(2^{m})$ 상에서 새로운 디지트 시리얼 $AB^{2}$ 시스톨릭 어레이 설계 및 분석 (Design and Analysis of a Digit-Serial $AB^{2}$ Systolic Arrays in $GF(2^{m})$)

  • 김남연;유기영
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제32권4호
    • /
    • pp.160-167
    • /
    • 2005
  • $GF(2^{m})$ 상의 공개키 암호 시스템에서 나눗셈/역원은 기본이 되는 연산으로 내부적으로 $AB^{2}$ 연산을 반복적으로 수행함으로써 계산이 된다. 본 논문에서는 유한 필드 $GF(2^{m})$상에서 $AB^{2}$ 연산을 수행하는 디지트 시리얼(digit-serial) 시스톨릭 구조를 제안하였다. L(디지트 크기)×L 크기의 디지트 시리얼 구조로 유도하기 위하여 새로운 $AB^{2}$ 알고리즘을 제안하고, 그 알고리즘에서 유도된 구조의 각 셀을 분리, 인덱스 변환시킨 후 병합하는 방법을 사용하였다. 제안된 구조는 공간-시간 복잡도를 비교할 때, 디지트 크기가 m보다 적을 때 비트 패러럴 구조에 비해 효율적이고, $(1/5)log_{2}(m+1)$ 보다 적을 때 비트 시리얼(bit-serial) 구조에 비해 효율적이다. 또한, 제안된 디지트 시리얼 구조에 파이프라인 기법을 적용하면 그렇지 않은 구조에 비해 m=160, L=8 일 때 공간-시간 복잡도가 $10.9\%$ 적다. 제안된 구조는 암호 프로세서 칩 디자인의 기본 구조로 이용될 수 있고, 또한 단순성, 규칙성과 병렬성으로 인해 VLSI 구현에 적합하다.

최신 웹 크롤링 알고리즘 분석 및 선제적인 크롤링 기법 제안 (A proposal on a proactive crawling approach with analysis of state-of-the-art web crawling algorithms)

  • 나철원;온병원
    • 인터넷정보학회논문지
    • /
    • 제20권3호
    • /
    • pp.43-59
    • /
    • 2019
  • 오늘날 스마트폰의 보급과 SNS의 발달로 정형/비정형 빅데이터는 기하급수적으로 증가하였다. 이러한 빅데이터를 잘 분석한다면 미래 예측도 가능할 만큼 훌륭한 정보를 얻을 수 있다. 빅데이터를 분석하기 위해서는 먼저 대용량의 데이터 수집이 필요하다. 이러한 데이터가 가장 많이 저장되어 있는 곳은 바로 웹 페이지다. 하지만 데이터의 양이 방대하기 때문에 유용한 정보를 가진 데이터가 많은 만큼 필요하지 않은 정보를 가진 데이터도 많이 존재한다. 그렇기 때문에 필요하지 않은 정보를 가진 데이터는 거르고 유용한 정보를 가진 데이터만을 수집하는 효율적인 데이터 수집의 중요성이 대두되었다. 웹 크롤러는 네트워크 대역폭, 시간적인 문제, 하드웨어적인 저장소 등의 제약으로 인해 모든 페이지를 다운로드 할 수 없다. 그렇기 때문에 원하는 내용과 관련 없는 많은 페이지들의 방문은 피하며 가능한 빠른 시간 내에 중요한 페이지만을 다운로드해야한다. 이 논문은 위와 같은 이슈의 해결을 돕고자한다. 먼저 기본적인 웹 크롤링 알고리즘들을 소개한다. 각 알고리즘마다 시간복잡도와 장단점을 설명하며 비교 및 분석한다. 다음으로 기본적인 웹 크롤링 알고리즘의 단점을 개선한 최신 웹 크롤링 알고리즘들을 소개한다. 더불어 최근 연구 흐름을 보면 감성어휘 수집과 같은 특수한 목적을 가진 웹 크롤링 알고리즘의 대한 연구가 활발히 이루어지고 있다. 특수 목적을 가진 웹 크롤링 알고리즘에 대한 연구로써 선제적인 웹 크롤링 기법으로 감성 반응 웹 크롤링(Sentiment-aware Web Crawling) 기법을 소개한다. 실험결과 데이터의 크기가 커질수록 기존방안보다 높은 성능을 보였고 데이터베이스의 저장 공간도 절약되었다.

클라우드 컴퓨팅 서비스의 도입특성이 조직의 성과기대 및 사용의도에 미치는 영향에 관한 연구: 혁신확산 이론 관점 (A Study on the Effect of the Introduction Characteristics of Cloud Computing Services on the Performance Expectancy and the Intention to Use: From the Perspective of the Innovation Diffusion Theory)

  • 임재수;오재인
    • Asia pacific journal of information systems
    • /
    • 제22권3호
    • /
    • pp.99-124
    • /
    • 2012
  • Our society has long been talking about necessity for innovation. Since companies in particular need to carry out business innovation in their overall processes, they have attempted to apply many innovation factors on sites and become to pay more attention to their innovation. In order to achieve this goal, companies has applied various information technologies (IT) on sites as a means of innovation, and consequently IT have been greatly developed. It is natural for the field of IT to have faced another revolution which is called cloud computing, which is expected to result in innovative changes in software application via the Internet, data storing, the use of devices, and their operations. As a vehicle of innovation, cloud computing is expected to lead the changes and advancement of our society and the business world. Although many scholars have researched on a variety of topics regarding the innovation via IT, few studies have dealt with the issue of could computing as IT. Thus, the purpose of this paper is to set the variables of innovation attributes based on the previous articles as the characteristic variables and clarify how these variables affect "Performance Expectancy" of companies and the intention of using cloud computing. The result from the analysis of data collected in this study is as follows. The study utilized a research model developed on the innovation diffusion theory to identify influences on the adaptation and spreading IT for cloud computing services. Second, this study summarized the characteristics of cloud computing services as a new concept that introduces innovation at its early stage of adaptation for companies. Third, a theoretical model is provided that relates to the future innovation by suggesting variables for innovation characteristics to adopt cloud computing services. Finally, this study identified the factors affecting expectation and the intention to use the cloud computing service for the companies that consider adopting the cloud computing service. As the parameter and dependent variable respectively, the study deploys the independent variables that are aligned with the characteristics of the cloud computing services based on the innovation diffusion model, and utilizes the expectation for performance and Intention to Use based on the UTAUT theory. Independent variables for the research model include Relative Advantage, Complexity, Compatibility, Cost Saving, Trialability, and Observability. In addition, 'Acceptance for Adaptation' is applied as an adjustment variable to verify the influences on the expected performances from the cloud computing service. The validity of the research model was secured by performing factor analysis and reliability analysis. After confirmatory factor analysis is conducted using AMOS 7.0, the 20 hypotheses are verified through the analysis of the structural equation model, accepting 12 hypotheses among 20. For example, Relative Advantage turned out to have the positive effect both on Individual Performance and on Strategic Performance from the verification of hypothesis, while it showed meaningful correlation to affect Intention to Use directly. This indicates that many articles on the diffusion related Relative Advantage as the most important factor to predict the rate to accept innovation. From the viewpoint of the influence on Performance Expectancy among Compatibility and Cost Saving, Compatibility has the positive effect on both Individual Performance and on Strategic Performance, while it showed meaningful correlation with Intention to Use. However, the topic of the cloud computing service has become a strategic issue for adoption in companies, Cost Saving turns out to affect Individual Performance without a significant influence on Intention to Use. This indicates that companies expect practical performances such as time and cost saving and financial improvements through the adoption of the cloud computing service in the environment of the budget squeezing from the global economic crisis from 2008. Likewise, this positively affects the strategic performance in companies. In terms of effects, Trialability is proved to give no effects on Performance Expectancy. This indicates that the participants of the survey are willing to afford the risk from the high uncertainty caused by innovation, because they positively pursue information about new ideas as innovators and early adopter. In addition, they believe it is unnecessary to test the cloud computing service before the adoption, because there are various types of the cloud computing service. However, Observability positively affected both Individual Performance and Strategic Performance. It also showed meaningful correlation with Intention to Use. From the analysis of the direct effects on Intention to Use by innovative characteristics for the cloud computing service except the parameters, the innovative characteristics for the cloud computing service showed the positive influence on Relative Advantage, Compatibility and Observability while Complexity, Cost saving and the likelihood for the attempt did not affect Intention to Use. While the practical verification that was believed to be the most important factor on Performance Expectancy by characteristics for cloud computing service, Relative Advantage, Compatibility and Observability showed significant correlation with the various causes and effect analysis. Cost Saving showed a significant relation with Strategic Performance in companies, which indicates that the cost to build and operate IT is the burden of the management. Thus, the cloud computing service reflected the expectation as an alternative to reduce the investment and operational cost for IT infrastructure due to the recent economic crisis. The cloud computing service is not pervasive in the business world, but it is rapidly spreading all over the world, because of its inherited merits and benefits. Moreover, results of this research regarding the diffusion innovation are more or less different from those of the existing articles. This seems to be caused by the fact that the cloud computing service has a strong innovative factor that results in a new paradigm shift while most IT that are based on the theory of innovation diffusion are limited to companies and organizations. In addition, the participants in this study are believed to play an important role as innovators and early adapters to introduce the cloud computing service and to have competency to afford higher uncertainty for innovation. In conclusion, the introduction of the cloud computing service is a critical issue in the business world.

  • PDF

다중 클래스 데이터셋의 메타특징이 판별 알고리즘의 성능에 미치는 영향 연구 (The Effect of Meta-Features of Multiclass Datasets on the Performance of Classification Algorithms)

  • 김정훈;김민용;권오병
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.23-45
    • /
    • 2020
  • 기업의 경쟁력 확보를 위해 판별 알고리즘을 활용한 의사결정 역량제고가 필요하다. 하지만 대부분 특정 문제영역에는 적합한 판별 알고리즘이 어떤 것인지에 대한 지식은 많지 않아 대부분 시행착오 형식으로 최적 알고리즘을 탐색한다. 즉, 데이터셋의 특성에 따라 어떠한 분류알고리즘을 채택하는 것이 적합한지를 판단하는 것은 전문성과 노력이 소요되는 과업이었다. 이는 메타특징(Meta-Feature)으로 불리는 데이터셋의 특성과 판별 알고리즘 성능과의 연관성에 대한 연구가 아직 충분히 이루어지지 않았기 때문이며, 더구나 다중 클래스(Multi-Class)의 특성을 반영하는 메타특징에 대한 연구 또한 거의 이루어진 바 없다. 이에 본 연구의 목적은 다중 클래스 데이터셋의 메타특징이 판별 알고리즘의 성능에 유의한 영향을 미치는지에 대한 실증 분석을 하는 것이다. 이를 위해 본 연구에서는 다중 클래스 데이터셋의 메타특징을 데이터셋의 구조와 데이터셋의 복잡도라는 두 요인으로 분류하고, 그 안에서 총 7가지 대표 메타특징을 선택하였다. 또한, 본 연구에서는 기존 연구에서 사용하던 IR(Imbalanced Ratio) 대신 시장집중도 측정 지표인 허핀달-허쉬만 지수(Herfindahl-Hirschman Index, HHI)를 메타특징에 포함하였으며, 역ReLU 실루엣 점수(Reverse ReLU Silhouette Score)도 새롭게 제안하였다. UCI Machine Learning Repository에서 제공하는 복수의 벤치마크 데이터셋으로 다양한 변환 데이터셋을 생성한 후에 대표적인 여러 판별 알고리즘에 적용하여 성능 비교 및 가설 검증을 수행하였다. 그 결과 대부분의 메타특징과 판별 성능 사이의 유의한 관련성이 확인되었으며, 일부 예외적인 부분에 대한 고찰을 하였다. 본 연구의 실험 결과는 향후 메타특징에 따른 분류알고리즘 추천 시스템에 활용할 것이다.

Efficient Mining of Frequent Subgraph with Connectivity Constraint

  • Moon, Hyun-S.;Lee, Kwang-H.;Lee, Do-Heon
    • 한국생물정보학회:학술대회논문집
    • /
    • 한국생물정보시스템생물학회 2005년도 BIOINFO 2005
    • /
    • pp.267-271
    • /
    • 2005
  • The goal of data mining is to extract new and useful knowledge from large scale datasets. As the amount of available data grows explosively, it became vitally important to develop faster data mining algorithms for various types of data. Recently, an interest in developing data mining algorithms that operate on graphs has been increased. Especially, mining frequent patterns from structured data such as graphs has been concerned by many research groups. A graph is a highly adaptable representation scheme that used in many domains including chemistry, bioinformatics and physics. For example, the chemical structure of a given substance can be modelled by an undirected labelled graph in which each node corresponds to an atom and each edge corresponds to a chemical bond between atoms. Internet can also be modelled as a directed graph in which each node corresponds to an web site and each edge corresponds to a hypertext link between web sites. Notably in bioinformatics area, various kinds of newly discovered data such as gene regulation networks or protein interaction networks could be modelled as graphs. There have been a number of attempts to find useful knowledge from these graph structured data. One of the most powerful analysis tool for graph structured data is frequent subgraph analysis. Recurring patterns in graph data can provide incomparable insights into that graph data. However, to find recurring subgraphs is extremely expensive in computational side. At the core of the problem, there are two computationally challenging problems. 1) Subgraph isomorphism and 2) Enumeration of subgraphs. Problems related to the former are subgraph isomorphism problem (Is graph A contains graph B?) and graph isomorphism problem(Are two graphs A and B the same or not?). Even these simplified versions of the subgraph mining problem are known to be NP-complete or Polymorphism-complete and no polynomial time algorithm has been existed so far. The later is also a difficult problem. We should generate all of 2$^n$ subgraphs if there is no constraint where n is the number of vertices of the input graph. In order to find frequent subgraphs from larger graph database, it is essential to give appropriate constraint to the subgraphs to find. Most of the current approaches are focus on the frequencies of a subgraph: the higher the frequency of a graph is, the more attentions should be given to that graph. Recently, several algorithms which use level by level approaches to find frequent subgraphs have been developed. Some of the recently emerging applications suggest that other constraints such as connectivity also could be useful in mining subgraphs : more strongly connected parts of a graph are more informative. If we restrict the set of subgraphs to mine to more strongly connected parts, its computational complexity could be decreased significantly. In this paper, we present an efficient algorithm to mine frequent subgraphs that are more strongly connected. Experimental study shows that the algorithm is scaling to larger graphs which have more than ten thousand vertices.

  • PDF

사회관계망에서 매개 중심도 추정을 위한 효율적인 알고리즘 (An Efficient Algorithm for Betweenness Centrality Estimation in Social Networks)

  • 신수진;김용환;김찬명;한연희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권1호
    • /
    • pp.37-44
    • /
    • 2015
  • 사회관계망 분석에 있어서 매개 중심도(Betweenness Centrality)는 네트워크를 구성하는 노드들의 상대적인 중요도를 파악하기 위한 척도로서 주로 사용되어 왔다. 그러나 매개 중심도를 측정하기 위한 시간 복잡도가 높기 때문에 대규모의 온라인 사회관계망 서비스에서 각 노드의 매개 중심도를 산출하는 것은 쉽지 않은 문제이다. 그래서 본 연구팀에서는 과거에 네트워크를 구성하는 각각의 노드들마다 자신의 지역 정보를 활용하여 확장 자아 네트워크(Expanded Ego Network)를 정의하고 그 네트워크에서 확장 자아 매개 중심도(Expanded Ego Betweenness)를 산출하여 기존의 매개 중심도를 대체하려는 시도를 하였다. 본 논문에서는 지역정보 기반의 확장 자아 네트워크의 특징을 분석하여 확장 자아 매개 중심도를 빠르게 산출할 수 있는 알고리즘을 제안한다. 그리고 일반적인 사회관계망의 특성을 대표하는 Barab$\acute{a}$si-Albert 네트워크 모델을 사용한 가상 네트워크와 실제 사회관계망을 대표하는 페이스북 친구 관계 네트워크에서의 실험을 통하여 확장 자아 매개 중심도의 중요도 순위가 기존 매개 중심도의 중요도 순위와 거의 일치함을 보인다. 또한 제안하는 알고리즘이 기존 알고리즘에 비해 확장 자아 네트워크에서의 확장 자아 매개 중심도를 더 빠르게 산출함을 보인다.

소프트웨어 유통에 있어 공개소프트웨어 중개자의필요성에 대한 연구 (A Study on the necessity of Open Source Software Intermediaries in the Software Distribution Channel)

  • 이승창;서응교;안성혁;박훈성
    • 유통과학연구
    • /
    • 제11권2호
    • /
    • pp.45-55
    • /
    • 2013
  • Purpose - The development and implementation of OSS (Open Source Software) led to a dramatic change in corporate IT infrastructure, from system server to smart phone, because the performance, reliability, and security functions of OSS are comparable to those of commercial software. Today, OSS has become an indispensable tool to cope with the competitive business environment and the constantly-evolving IT environment. However, the use of OSS is insufficient in small and medium-sized companies and software houses. This study examines the need for OSS Intermediaries in the Software Distribution Channel. It is expected that the role of the OSS Intermediary will be reduced with the improvement of the distribution process. The purpose of this research is to prove that OSS Intermediaries increase the efficiency of the software distribution market. Research design, Data, and Methodology - This study presents the analysis of data gathered online to determine the extent of the impact of the intermediaries on the OSS market. Data was collected using an online survey, conducted by building a personal search robot (web crawler). The survey period lasted 9 days during which a total of 233,021 data points were gathered from sourceforge.net and Apple's App store, the two most popular software intermediaries in the world. The data collected was analyzed using Google's Motion Chart. Results - The study found that, beginning 2006, the production of OSS in the Sourceforge.net increased rapidly across the board, but in the second half of 2009, it dropped sharply. There are many events that can explain this causality; however, we found an appropriate event to explain the effect. It was seen that during the same period of time, the monthly production of OSS in the App store was increasing quickly. The App store showed a contrasting trend to software production. Our follow-up analysis suggests that appropriate intermediaries like App store can enlarge the OSS market. The increase was caused by the appearance of B2C software intermediaries like App store. The results imply that OSS intermediaries can accelerate OSS software distribution, while development of a better online market is critical for corporate users. Conclusion - In this study, we analyzed 233,021 data points on the online software marketplace at Sourceforge.net. It indicates that OSS Intermediaries are needed in the software distribution market for its vitality. It is also critical that OSS intermediaries should satisfy certain qualifications to play a key role as market makers. This study has several interesting implications. One implication of this research is that the OSS intermediary should make an effort to create a complementary relationship between OSS and Proprietary Software. The second implication is that the OSS intermediary must possess a business model that shares the benefits with all the participants (developer, intermediary, and users).The third implication is that the intermediary provides an OSS of high quality like proprietary software with a high level of complexity. Thus, it is worthwhile to examine this study, which proves that the open source software intermediaries are essential in the software distribution channel.

  • PDF

SAN을 이용한 제한된 버퍼 크기를 갖는 출력큐잉 ATM 스위치 성능평가 (Performance Evaluation of Output Queueing ATM Switch with Finite Buffer Using Stochastic Activity Networks)

  • 장경수;신호진;신동렬
    • 한국정보처리학회논문지
    • /
    • 제7권8호
    • /
    • pp.2484-2496
    • /
    • 2000
  • 네트워크 연결을 위한 고속 스위치는 계속해서 발달하여 왔으며, 스위치가 필요한 성능을 내는가를 여러 조건으로 분석하는 것은 중요한 일이다. 하지만, 복잡한 구조를 가진 시스템을 모델링하여 그 성능을 측정하는 것은 쉬운 일이 아니다. 큐잉이론을 이용한 모델링은 큰 상태 공간을 고려해야 됨은 물론이고 성능평가에 있어서도 복잡한 계산과정을 수행해야 하지만, SAN(Stochastic Activity Networks)에 의한 모델링과 성능평가는 그에 비해 간단하다는 장점이 있다. 본 논문의 목적은 출력포트에 큐를 갖는 고속 ATM 스위치를 확장된 SPN(Stochastic Petri Net)인 SAN을 이용해 모델링하고, 셀 도착 과정은 실제 트래픽과 유사한 특징을 가지고 있는 MMPP(Markov Modulated Poisson Process)로 모델링하여 그 성능을 평가하는데 있다. MMPP 모델을 이용한 버스티 트래픽을 고겨한 성능측정과 아울러 SAN의 장점을 이용한 확장이 용이한 스위치 모델을 보이고자 한다. 제한된 버퍼 크기를 갖는 출력 큐잉 ATM 스위치에 도착하은 셀은 포아송 도착 과정에서는 정확히 표현할 수 없는 버스티 특징을 표현할 수 있어 좀더 실제 트래픽에 가까운 MMPP로 모델링한다. SAN 모델은 UltraSAN 소프트웨어 패키지를 이용해 대기행렬의크기, 지연시간 그리고 셀 손실률에 대한 성능을 측정한다.

  • PDF