• 제목/요약/키워드: total execution time

검색결과 150건 처리시간 0.024초

데스크탑 그리드에서 자원 사용 경향성을 고려한 효율적인 스케줄링 기법 (An Efficient Scheduling Method Taking into Account Resource Usage Patterns on Desktop Grids)

  • 현주호;이승구;김상철;이민구
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권7호
    • /
    • pp.429-439
    • /
    • 2006
  • 데스크탑 그리드는 컴퓨팅 집약적인 분산 어플리케이션을 수행하는데 있어서 유망한 플랫폼으로 부각되고 있다. 그러나 비 신뢰적이고 예측할 수 없는 자원의 특성 때문에 데스크탑 그리드에서 병렬 어플리케이션의 효율적인 스케줄링은 어려운 문제로 알려져 있다. 이에 따라서 빈약한 스케줄링 능력과 함께 현재 데스크탑 그리드는 고 처리 어플리케이션(high throughput application)의 실행에는 적합하지만 빠른 반환 시간을 요구하는 어플리케이션의 실행을 지원하는데 있어서 어려움을 갖는다. 빠른 반환 시간을 요구하는 어플리케이션의 효율적인 실행은 어플리케이션의 전체 실행 시간(makespan)을 축소함으로써 해결할 수 있는 문제로써 데스크탑 그리드가 이를 지원할 수 있게 하는 것은 매력적인 제안이 될 것이다. 본 논문에서는 데스크탑 그리드에서 효율적인 어플리케이션의 실행을 지원하기 위한 새로운 스케줄링 방법을 제안한다. 7주간의 시간동안 40대의 데스크탑에서 추출된 추적(trace) 데이타의 분석을 통해서 데스크탑 사용 경향성과 비 신뢰적인 데스크탑의 영향이 스케줄링의 성능을 개선하는데 있어서 활용 될 수 있음을 확인하였고 이 요소들을 고려함으로써 데스크탑 그리드의 비 신뢰적이고 예측할 수 없는 자원의 특성을 스케줄링에 적절하게 반영 할 수 있는 스케줄링 기법이 제안되었다. 제안된 스케줄링 기법은 실제 데스크탑들의 행동 패턴을 반영한 추적 기반 시뮬레이션(trace-driven simulation)을 통해서 기존의 스케줄링 방법들과 스케줄링 성능이 비교되었고 시뮬레이션 결과를 통해서 제안된 스케줄링 기법이 기존의 데스크탑 스케줄링 기법들에 비해서 병렬 어플리케이션의 전체 실행 시간을 축소하고 중지(suspension)와 장애(failure)의 발생 빈도를 줄이는 것을 보여준다.

글로벌 큐를 통한 임베디드 멀티코어 프로세서의 멀티 DNN 연산 성능 향상 (Improving Multi-DNN Computational Performance of Embedded Multicore Processors through a Global Queue)

  • 조호진;김명선
    • 한국정보통신학회논문지
    • /
    • 제24권6호
    • /
    • pp.714-721
    • /
    • 2020
  • DNN은 로봇 및 자율주행차 등의 임베디드 시스템에서 활용 분야가 넓어지고 있다. 최근 높은 인식 정확도를 위하여 연산 복잡도가 크게 증가되고 비주기적으로 다수의 DNN을 사용하는 형태가 증가되고 있다. 따라서 임베디드 환경에서 다수의 DNN을 처리할 수 있는 능력은 중요한 이슈가 되었다. 이에 따라 멀티코어 기반 플랫폼들이 출시되고 있다. 하지만 대부분의 DNN 모델들은 배치 프로세스로 운용되어, 여러 DNN이 함께 멀티코어에서 운용될 때 어떻게 코어에 할당되느냐에 따라 각 DNN 간 수행시간 편차가 클 수 있고 시스템 전체적인 DNN 수행 시간이 길어질 수 있다. 본 논문에서는 각 DNN들을 배치 형태가 아닌 레이어별로 재구성한 후 글로벌 큐를 통하여 멀티코어에 분산시킬 수 있는 프레임워크를 제공하여 이러한 문제를 해결한다. 실험 결과 전체 DNN 수행 시간은 31% 감소하였고 다수의 동일 DNN을 운용 시 그 수행시간 편차는 최대 95.1% 감소하였다.

A Joint Allocation Algorithm of Computing and Communication Resources Based on Reinforcement Learning in MEC System

  • Liu, Qinghua;Li, Qingping
    • Journal of Information Processing Systems
    • /
    • 제17권4호
    • /
    • pp.721-736
    • /
    • 2021
  • For the mobile edge computing (MEC) system supporting dense network, a joint allocation algorithm of computing and communication resources based on reinforcement learning is proposed. The energy consumption of task execution is defined as the maximum energy consumption of each user's task execution in the system. Considering the constraints of task unloading, power allocation, transmission rate and calculation resource allocation, the problem of joint task unloading and resource allocation is modeled as a problem of maximum task execution energy consumption minimization. As a mixed integer nonlinear programming problem, it is difficult to be directly solve by traditional optimization methods. This paper uses reinforcement learning algorithm to solve this problem. Then, the Markov decision-making process and the theoretical basis of reinforcement learning are introduced to provide a theoretical basis for the algorithm simulation experiment. Based on the algorithm of reinforcement learning and joint allocation of communication resources, the joint optimization of data task unloading and power control strategy is carried out for each terminal device, and the local computing model and task unloading model are built. The simulation results show that the total task computation cost of the proposed algorithm is 5%-10% less than that of the two comparison algorithms under the same task input. At the same time, the total task computation cost of the proposed algorithm is more than 5% less than that of the two new comparison algorithms.

An Improving Method of Restructuring Parallel Programs for Data Race Detection

  • Ha, Keum-Sook;Lee, Sung woo;Yoo, Kee-Young
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.715-718
    • /
    • 2000
  • Although shared memory parallel programs are designed to be deterministic both in their final results and intermediate states, the races that occur when different processes access a common memory location in an order not guaranteed by synchronization could result in unintended non-deterministic executions of the program. So, Detecting races, particularly first data races, is important for debugging explicit shared memory parallel programs. It is possible that all data races reported by other on-the-fly algorithms would disappear once the first races were removed. To detect races parallel programs with nested loops and inter-thread coordination, it must guarantee the order of synchronization operations in an execution instance. In this paper, we propose an improved restructuring method that guarantee ordering execution instance and preserve the semantics of original program. This method requires O(np) time and (s + up) space, where n is the number of total operations, s is the number of synchronization operations and p is the number of parallelism in the execution. Also, this method makes on-the-fly detection of parallel program with nested loops and inter-thread coordination more easily in space and time complexity.

  • PDF

감소(減少)하는 고장률(故障率)하에서 오류예측 및 테스트 시간(時間)의 최적화(最適化)에 관한 연구(硏究) (Error Forecasting & Optimal Stopping Rule under Decreasing Failure Rate)

  • 최명호;윤덕균
    • 품질경영학회지
    • /
    • 제17권2호
    • /
    • pp.17-26
    • /
    • 1989
  • This paper is concerned with forecasting the existing number of errors in the computer software and optimizing the stopping time of the software test based upon the forecasted number of errors. The most commonly used models have assessed software reliability under the assumption that the software failure late is proportional to the current fault content of the software but invariant to time since software faults are independents of others and equally likely to cause a failure during testing. In practice, it has been observed that in many situations, the failure rate decrease. Hence, this paper proposes a mathematical model to describe testing situations where the failure rate of software limearly decreases proportional to testing time. The least square method is used to estimate parameters of the mathematical model. A cost model to optimize the software testing time is also proposed. In this cost mode two cost factors are considered. The first cost is to test execution cost directly proportional to test time and the second cost is the failure cost incurred after delivery of the software to user. The failure cost is assumed to be proportional to the number of errors remained in the software at the test stopping time. The optimal stopping time is determined to minimize the total cost, which is the sum of test execution cast and the failure cost. A numerical example is solved to illustrate the proposed procedure.

  • PDF

Degree of Overlapping Design Activities in Vehicle Development:A System Dynamics Approach

  • Lee, Sang-Don;Lim, Ik-Sung
    • International Journal of Quality Innovation
    • /
    • 제8권2호
    • /
    • pp.115-131
    • /
    • 2007
  • The vehicle development process (VDP) is iterative in nature with numerous interactions and information flows between design groups and between development phases. The VDP has been changed from a sequential-functional development to a concurrent-team based approach. Concurrent execution of design activities may reduce the development lead-time, but it increases the managerial complexity in the VDP. A system dynamics model was developed to understand the transient behavior of parallel, overlap, and sequential processes in the VDP and to determine the optimal level of overlapping considering the development lead-time and total number of reworks. The simulation results showed that different execution processes should be used, depending upon the intensity of reworks.

인공지능 생성시스템에서의 병렬 매칭 (A Parallel Matching in AI Production Systems)

  • 강승일;윤종민;정규식
    • 전자공학회논문지B
    • /
    • 제32B권3호
    • /
    • pp.89-99
    • /
    • 1995
  • One of the hardest problems that limit real application of production system is its slowness. One way to overcome this problem is to speed up the matching operation which occupies more than 90% of the total execution time. In this paper, we try to speed up the matching operation with parallel execution of a typical pattern matching algorithm, RETE, in a multiprocessor environment, This requires not only to make partitions of the rules but also to allocate the partitioned rules to processors, respectively. A partition strategy is proposed to make groups of similar rules by evaluating the similarity of rules according to the number of common conditions between rules. An allocation strategy is proposed to make the load of each processor even by assigning the different priority to the group of rules according to the expected amount of time required for matching operation. To compare with the existing methods, we perform simulation using OPS5 sample programs. The simulation results show that the proposed methods can improve the performance of production system.

  • PDF

페이지 실행시간 동기화를 이용한 다중 파이프라인 해쉬 결합 (Multiple Pipelined Hash Joins using Synchronization of Page Execution Time)

  • 이규옥;원영선;홍만표
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제27권7호
    • /
    • pp.639-649
    • /
    • 2000
  • 관계형 데이타베이스 시스템에서 결합 연산자는 데이타베이스 질의를 구성하는 연산자들 중 가장 많은 처리시간을 요구한다. 따라서 이러한 결합 연산자를 효율적으로 처리하기 위해 많은 병렬 알고리즘들이 소개되었다. 그 중 다중 해쉬 결합 질의의 처리를 위해 할당 트리를 이용한 방법이 가장 우수한 것으로 알려져 왔다. 그러나 이 방법은 할당 트리의 각 노드에서 필연적인 지연이 발생되는 데 이는 튜플-시험 단계에서 외부 릴레이션을 디스크로부터 페이지 단위로 읽는 비용과 이미 읽는 페이지에 대한 해쉬 결합 비용간의 차이에 의해 발생하게 된다. 본 논문에서는 이 비용 차이로 인해 발생되는 전체 시스템의 성능 저하를 방지하기 위해 페이지 실행시간 동기화 기법을 제안하였고 이 기법을 통해 각 노드에서의 처리시간을 줄이고 나아가 전체 시스템의 성능을 향상시켰다. 또한 분석적 비용 모형을 세우고 기존 방식과의 다양한 성능 분석을 통해 비용 모형의 타당성을 입증하였다.

  • PDF

고장 간격 수명 시간을 이용한 로그 포아송 실행 시간 모형의 소프트웨어 최적방출시간 특성에 관한 연구 (The Property of Software Optimal Release Time Based on Log Poission Execution Time Model Using Interval Failure Times)

  • 신현철;김희철
    • 융합보안논문지
    • /
    • 제10권1호
    • /
    • pp.55-61
    • /
    • 2010
  • 소프트웨어 제품을 개발하여 테스팅을 거친 후 사용자에게 인도하는 시기를 결정하는 일은 아주 실제적이고 흥미 있는 일이 된다. 이러한 문제를 소프트웨어 최적 방출시기라고 한다. 본 연구에서는 소프트웨어의 결함을 제거하거나 수정 작업 중에도 새로운 결함이 발생될 가능성이 있는 무한고장수를 가진 비동질적인 포아송 과정에 기초하고 고장간격 수명 시간의 형태에 따른 방출시간의 비교에 대하여 연구되었다. 소프트웨어 요구 신뢰도를 만족시키고 소프트웨어 개발및 유지 총비용을 최소화시키는 최적 소프트웨어 방출 정책이 된다. 본 논문의 수치적인 예에서는 모의실험 자료 즉, 강도함수가 일정한 경우, 증가하는 경우, 감소하는 경우를 적용하여 최적 방출시기를 추정하고 그 결과를 나열 하였다.

The Designs for Prediction of Future Reliability Using the Stochastic Reliabilit

  • Oh, Chung-Hwan;Kim, Bok-Mahn
    • 품질경영학회지
    • /
    • 제21권2호
    • /
    • pp.131-139
    • /
    • 1993
  • The newly proposed model of the future reliability results in earlier fault-fixes having a greater effect than the fault which make the greatest contribution to the overall failure rate tend to show themselves earlier, and so are fixed earlier. The suggested model allows a variety of reliability measures to be calculated. Predictions of total execution time(debugging time) is to achieve a target reliability. This model could also apply to computer-hardware reliability growth resulting from the elimination of design error and fault.

  • PDF