• 제목/요약/키워드: Algorithm Execution time

검색결과 559건 처리시간 0.024초

이벤트 지향 DEVS 실행 환경의 설계, 구현 및 성능 비교 (Design, Implementation and Performance Analysis of Event-oriented Execution Environment for DEVS)

  • 권세중;김탁곤
    • 한국시뮬레이션학회논문지
    • /
    • 제20권1호
    • /
    • pp.87-96
    • /
    • 2011
  • DEVS는 이산 사건 시스템을 명세하는 집합론에 근거한 수학적인 틀이다. 이러한 DEVS를 통해 시스템을 시뮬레이션할 때는 명세된 DEVS로부터 구현된 모델과 시뮬레이션 엔진으로 이루어진 실행 환경이 필요하다. 시뮬레이션 엔진은 스케줄링 알고리즘을 통해 모델을 해석하고 실행하는데, 주로 DEVS의 계층적이고 모듈러한 특성을 따라 계층적인 스케줄링 방법을 사용한다. 그러나 이 방법은 계층적인 구조로 인해 시간 관리와 메시지 패싱에 있어서 오버헤드가 존재한다. 본 논문에서는 이러한 오버헤드를 해결하기 위해 이벤트 지향 시뮬레이션을 적용한다. 이벤트 지향의 시뮬레이션은 이벤트에 의해서 모델이 실행되며 이벤트 리스트에 의해 이벤트가 관리된다. 이벤트 리스트에 의해서 시간 관리가 되고 메시지 패싱이 이루어지기 때문에 계층적인 오버헤드를 줄이고 성능 향상을 이룰 수 있다. 본 논문은 이벤트 리스트를 이용한 실행 환경을 제안하고 이러한 실행 환경을 위한 모델 구현 방안에 대해 논하며, 각 실행 환경의 성능을 비교, 분석한다.

비주기 태스트의 응답시간을 개선하기 위해 확장한 슬랙 스틸링 알고리즘 (Extended Slack Stealing Algorithm for Improve Response Time of Aperiodic Tasks)

  • 최만억;한대만;구용완
    • 한국정보처리학회논문지
    • /
    • 제7권7호
    • /
    • pp.2229-2237
    • /
    • 2000
  • 본 논문은 고정 우선순위를 가지는 주기 태스크와 동적으로 발생하는 비주기 태스크를 스케줄링하는 슬렉 스틸링(slack stealing) 알고리즘의 문제점을 개선하다. 슬랙 스틸링 알고리즘은 비주기 태스크의 발생에 따라 슬랙 스틸링 서버가 적합한 우선순위를 비주기 태스크에 부어하여 즉시 서비스 가능하도록 함으로써 불필요한 대기시간을 최소화하고 있다. 하지만, 슬랙 스틸링을 수행하기 위해서는 임의의 시점가지 주기적 태스크의 수행 시간을 구해야 한다. 그리고 주기적 태스크의 수행 시간은 슬랙 알고리즘을 적용하는 동안 매 시간 마다 다디 구해지고 이싸다. 이때 사 되는 시간 복잡도는 계산에 적용되는 태스크의 수가 n이라면 O(n)으로 나타난다. 본 논문에서는 스케쥴링된 쥐적 태스크의 슬랙타임과 수행시간을 테이블에 저장하여 비주기 태스크가 사용하는 슬랙을 구함으로서 동적으로 발생하는 비주기적 태스크의 복잡도를 O(log n)으로 감소시키고 응답시간을 향상시킨다. 본 논문에서 제안한 알고리즘을 모의 실험을 통하여 증명한다.여 증명한다.

  • PDF

실시간 감시를 위한 학습기반 수행 예측모델의 검증 (Verifying Execution Prediction Model based on Learning Algorithm for Real-time Monitoring)

  • 정윤석;김태완;장천현
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.243-250
    • /
    • 2004
  • 실시간 시스템은 시스템이 적시성을 보장하는지 파악하기 위해 실시간 감시기법을 이용한다. 일반적으로 실시간 감시는 실시간 시스템의 현재 동작상태를 파악하는데 중점을 두는 기법이다. 그러나 실시간 시스템의 안정적인 수행을 지원하기 위해서는, 현재 상태를 파악하는 것뿐 아니라, 실시간 시스템 및 시스템상에서 동작하는 실시간 프로세스들의 수행도 예측할 수 있어야 한다. 그러나 기존 예측모델을 실시간 감시기법에 적용하기에는 몇 가지 한계가 있다. 첫째, 예측기능은 실시간 프로세스가 종료한 시점에서 정적인 분석을 통해 수행된다. 둘째, 예측을 위해 사전 기초 통계분석이 필요하다. 셋째, 예측을 위한 이전확률 및 클러스터 정보가 현재 시점을 정확하게 반영하지 못한다. 본 논문에서는 이러한 문제점들을 해결하고 실시간 감시기법에 적용할 수 있는 학습 기반의 수행 예측모델을 제안한다. 이 모델은 학습기법을 통해 불필요한 전처리과정을 없애고, 현시점의 데이터를 이용해, 보다 정확한 실시간 프로세스의 수행 예측이 가능하도록 한다. 또한 이 모델은 실시간 프로세스 수행 시간의 증가율 분석을 통해 다단계 예측을 지원하며, 무엇보다 실시간 프로세스가 실행되는 동안 예측이 가능한 동적 예측을 지원하도록 설계하였다. 실험 결과를 통해 훈련집합의 크기가 10 이상이면 80% 이상의 판단 정확도를 보이며, 다단계 예측의 경우, 훈련집합의 크기 이상의 수행 횟수를 넘으면 다단계 예측의 예측 차는 최소화되는 것으로 나타났다. 본 논문에서 제안한 예측모델은 가장 단순한 학습 알고리즘을 적용했다는 점과, CPU, 메모리, 입출력 데이터를 다루는 다차원 자원공간 모델을 고려하지 못한 한계가 있어 향후에 관련 연구가 요구된다. 본 논문에서 제안하는 학습기반 수행 예측모델은 실시간 감시 및 제어를 필요로 하는 분야 및 응용 분야에 적용할 수 있다.

(m, n)중 연속(r, s) : F 시스템의 정비모형에 대한 개미군집 최적화 해법 (Ant Colony Optimization Approach to the Utility Maintenance Model for Connected-(r, s)-out of-(m, n) : F System)

  • 이상헌;신동열
    • 산업공학
    • /
    • 제21권3호
    • /
    • pp.254-261
    • /
    • 2008
  • Connected-(r,s)-out of-(m,n) : F system is an important topic in redundancy design of the complex system reliability and it's maintenance policy. Previous studies applied Monte Carlo simulation and genetic, simulated annealing algorithms to tackle the difficulty of maintenance policy problem. These algorithms suggested most suitable maintenance cycle to optimize maintenance pattern of connected-(r,s)-out of-(m,n) : F system. However, genetic algorithm is required long execution time relatively and simulated annealing has improved computational time but rather poor solutions. In this paper, we propose the ant colony optimization approach for connected-(r,s)-out of-(m,n) : F system that determines maintenance cycle and minimum unit cost. Computational results prove that ant colony optimization algorithm is superior to genetic algorithm, simulated annealing and tabu search in both execution time and quality of solution.

가변 실행 시간 태스크들을 위한 개선된 Pfair 스케줄링 알고리즘 (An Improved Pfair Scheduling Algorithm for Tasks with Variable Execution Times)

  • 박현선;김인국
    • 대한임베디드공학회논문지
    • /
    • 제6권1호
    • /
    • pp.41-47
    • /
    • 2011
  • The Pfair scheduling algorithm, which is an optimal scheduling algorithm in the hard real-time multiprocessor environments, propose the necessary and sufficient condition for the schedulability and is based on the fixed quantum size. Recently, several methods that determine the optimal quantum size dynamically were proposed in the mode change environments. But these methods considered only the case in which the period of a task is increased or decreased. In this paper, we also consider the case in which the execution time of a task is increased or decreased, and propose new methods that determine the optimal quantum size dynamically.

다출력조합회로의 PLA설계를 위한 간소화 알고리즘 (A New Minimizing Algorithm for Design the PLA of Multiple Output Combinational Circuits)

  • 이성우;황호정
    • 대한전자공학회논문지
    • /
    • 제23권3호
    • /
    • pp.357-363
    • /
    • 1986
  • In the design of PLA's of VLSI, as the number of subsets of functions from which common preme implicants must be determined increases, the execution time increases by a factor of O(2\ulcorner. When the number of functions N is a large number, this poses a serious problem in minumization of multiple-output logic functions. In this paper a new algorithm that minimizes multiple-output logic functions is proposed. The algorithm requires less number of Fortran statements, less execution time, and less memory area than existing methods. The bases of this algorithm are explained and verified, and the sequential operation for preparation of the program is discussed.

  • PDF

A Joint Allocation Algorithm of Computing and Communication Resources Based on Reinforcement Learning in MEC System

  • Liu, Qinghua;Li, Qingping
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.721-736
    • /
    • 2021
  • For the mobile edge computing (MEC) system supporting dense network, a joint allocation algorithm of computing and communication resources based on reinforcement learning is proposed. The energy consumption of task execution is defined as the maximum energy consumption of each user's task execution in the system. Considering the constraints of task unloading, power allocation, transmission rate and calculation resource allocation, the problem of joint task unloading and resource allocation is modeled as a problem of maximum task execution energy consumption minimization. As a mixed integer nonlinear programming problem, it is difficult to be directly solve by traditional optimization methods. This paper uses reinforcement learning algorithm to solve this problem. Then, the Markov decision-making process and the theoretical basis of reinforcement learning are introduced to provide a theoretical basis for the algorithm simulation experiment. Based on the algorithm of reinforcement learning and joint allocation of communication resources, the joint optimization of data task unloading and power control strategy is carried out for each terminal device, and the local computing model and task unloading model are built. The simulation results show that the total task computation cost of the proposed algorithm is 5%-10% less than that of the two comparison algorithms under the same task input. At the same time, the total task computation cost of the proposed algorithm is more than 5% less than that of the two new comparison algorithms.

임의 주기를 가지는 실시간 멀티 태스크를 위한 체크포인트 구간 최적화 (Optimizing Checkpoint Intervals for Real-Time Multi-Tasks with Arbitrary Periods)

  • 곽성우;양정민
    • 전기학회논문지
    • /
    • 제60권1호
    • /
    • pp.193-200
    • /
    • 2011
  • This paper presents an optimal checkpoint strategy for fault-tolerance in real-time systems. In our environment, multiple real-time tasks with arbitrary periods are scheduled in the system by Rate Monotonic (RM) algorithm, and checkpoints are inserted at a constant interval in each task while the width of interval is different with respect to the task. We propose a method to determine the optimal checkpoint interval for each task so that the probability of completing all the tasks is maximized. Whenever a fault occurs to a checkpoint interval of a task, the execution time of the task would be prolonged by rollback and re-execution of checkpoints. Our scheme includes the schedulability test to examine whether a task can be completed with an extended execution time. A numerical experiment is conducted to demonstrate the applicability of the proposed scheme.

Hepatitis C Stage Classification with hybridization of GA and Chi2 Feature Selection

  • Umar, Rukayya;Adeshina, Steve;Boukar, Moussa Mahamat
    • International Journal of Computer Science & Network Security
    • /
    • 제22권1호
    • /
    • pp.167-174
    • /
    • 2022
  • In metaheuristic algorithms such as Genetic Algorithm (GA), initial population has a significant impact as it affects the time such algorithm takes to obtain an optimal solution to the given problem. In addition, it may influence the quality of the solution obtained. In the machine learning field, feature selection is an important process to attaining a good performance model; Genetic algorithm has been utilized for this purpose by scientists. However, the characteristics of Genetic algorithm, namely random initial population generation from a vector of feature elements, may influence solution and execution time. In this paper, the use of a statistical algorithm has been introduced (Chi2) for feature relevant checks where p-values of conditional independence were considered. Features with low p-values were discarded and subject relevant subset of features to Genetic Algorithm. This is to gain a level of certainty of the fitness of features randomly selected. An ensembled-based learning model for Hepatitis has been developed for Hepatitis C stage classification. 1385 samples were used using Egyptian-dataset obtained from UCI repository. The comparative evaluation confirms decreased in execution time and an increase in model performance accuracy from 56% to 63%.

Transformation of Continuous Aggregation Join Queries over Data Streams

  • Tran, Tri Minh;Lee, Byung-Suk
    • Journal of Computing Science and Engineering
    • /
    • 제3권1호
    • /
    • pp.27-58
    • /
    • 2009
  • Aggregation join queries are an important class of queries over data streams. These queries involve both join and aggregation operations, with window-based joins followed by an aggregation on the join output. All existing research address join query optimization and aggregation query optimization as separate problems. We observe that, by putting them within the same scope of query optimization, more efficient query execution plans are possible through more versatile query transformations. The enabling idea is to perform aggregation before join so that the join execution time may be reduced. There has been some research done on such query transformations in relational databases, but none has been done in data streams. Doing it in data streams brings new challenges due to the incremental and continuous arrival of tuples. These challenges are addressed in this paper. Specifically, we first present a query processing model geared to facilitate query transformations and propose a query transformation rule specialized to work with streams. The rule is simple and yet covers all possible cases of transformation. Then we present a generic query processing algorithm that works with all alternative query execution plans possible with the transformation, and develop the cost formulas of the query execution plans. Based on the processing algorithm, we validate the rule theoretically by proving the equivalence of query execution plans. Finally, through extensive experiments, we validate the cost formulas and study the performances of alternative query execution plans.