• 제목/요약/키워드: Distributed and Parallel Computing

검색결과 152건 처리시간 0.026초

병렬컴퓨팅 환경에서의 대용량 퍼지 추론 (Fuzzy Inference of Large Volumes in Parallel Computing Environments)

  • 김진일;이상구
    • 한국지능시스템학회논문지
    • /
    • 제10권4호
    • /
    • pp.293-298
    • /
    • 2000
  • 대단히 많은 수의 퍼지 규칙을 갖거나 대용량의 퍼지 데이터를 갖는 퍼지 전문가 시스템 또는 퍼지 데이터베이스 시스템에서는 많은 추론 시간을 요구한다. 따라서 이러한 추론 시간을 줄이기 위해서는 고성능 병렬 퍼지 컴퓨팅 환경을 필요로 한다. 본 온문에서는 병렬 컴퓨팅 환경에서 병렬 퍼지 추론 기법을 제안한다. 여기에서 퍼지 규칙은 분산되어 있고 동시에 수행된다. ONE_TO_ALL 알고리즘은 모든 노드에 퍼지 입력 백터를 broadcasting하는데 사용한다. MIN/MAX 연산의 결과는 ALL_TO_ONE 알고리즘에 의해 출력 프로세서로 전송된다. 퍼지 규칙 또는 데이터의 병렬 처리로 인해, 병렬 추론 알고리즘은 효과적인 병렬성의 추출 및 속도 향상을 가져온다.

  • PDF

기상 모델 CFD_NIMR의 최적 성능을 위한 혼합형 병렬 프로그램 구현 (Hybrid Parallelization for High Performance of CFD_NIMR Model)

  • 김민욱;최영진;김영태
    • 대기
    • /
    • 제22권1호
    • /
    • pp.109-115
    • /
    • 2012
  • We parallelized the CFD_NIMR model, which is a numerical meteorological model, for best performance on both of distributed and shared memory parallel computers. This hybrid parallelization uses MPI (Message Passing Interface) to apply horizontal 2-dimensional sub-domain out of the 3-dimensional computing domain for distributed memory system, as well as uses OpenMP (Open Multi-Processing) to apply vertical 1-dimensional sub-domain for utilizing advantage of shared memory structure. We validated the parallel model with the original sequential model, and the parallel CFD_NIMR model shows efficient speedup on the distributed and shared memory system.

Service ORiented Computing EnviRonment (SORCER) for deterministic global and stochastic aircraft design optimization: part 1

  • Raghunath, Chaitra;Watson, Layne T.;Jrad, Mohamed;Kapania, Rakesh K.;Kolonay, Raymond M.
    • Advances in aircraft and spacecraft science
    • /
    • 제4권3호
    • /
    • pp.297-316
    • /
    • 2017
  • With rapid growth in the complexity of large scale engineering systems, the application of multidisciplinary analysis and design optimization (MDO) in the engineering design process has garnered much attention. MDO addresses the challenge of integrating several different disciplines into the design process. Primary challenges of MDO include computational expense and poor scalability. The introduction of a distributed, collaborative computational environment results in better utilization of available computational resources, reducing the time to solution, and enhancing scalability. SORCER, a Java-based network-centric computing platform, enables analyses and design studies in a distributed collaborative computing environment. Two different optimization algorithms widely used in multidisciplinary engineering design-VTDIRECT95 and QNSTOP-are implemented on a SORCER grid. VTDIRECT95, a Fortran 95 implementation of D. R. Jones' algorithm DIRECT, is a highly parallelizable derivative-free deterministic global optimization algorithm. QNSTOP is a parallel quasi-Newton algorithm for stochastic optimization problems. The purpose of integrating VTDIRECT95 and QNSTOP into the SORCER framework is to provide load balancing among computational resources, resulting in a dynamically scalable process. Further, the federated computing paradigm implemented by SORCER manages distributed services in real time, thereby significantly speeding up the design process. Part 1 covers SORCER and the algorithms, Part 2 presents results for aircraft panel design with curvilinear stiffeners.

Service ORiented Computing EnviRonment (SORCER) for deterministic global and stochastic aircraft design optimization: part 2

  • Raghunath, Chaitra;Watson, Layne T.;Jrad, Mohamed;Kapania, Rakesh K.;Kolonay, Raymond M.
    • Advances in aircraft and spacecraft science
    • /
    • 제4권3호
    • /
    • pp.317-334
    • /
    • 2017
  • With rapid growth in the complexity of large scale engineering systems, the application of multidisciplinary analysis and design optimization (MDO) in the engineering design process has garnered much attention. MDO addresses the challenge of integrating several different disciplines into the design process. Primary challenges of MDO include computational expense and poor scalability. The introduction of a distributed, collaborative computational environment results in better utilization of available computational resources, reducing the time to solution, and enhancing scalability. SORCER, a Java-based network-centric computing platform, enables analyses and design studies in a distributed collaborative computing environment. Two different optimization algorithms widely used in multidisciplinary engineering design-VTDIRECT95 and QNSTOP-are implemented on a SORCER grid. VTDIRECT95, a Fortran 95 implementation of D. R. Jones' algorithm DIRECT, is a highly parallelizable derivative-free deterministic global optimization algorithm. QNSTOP is a parallel quasi-Newton algorithm for stochastic optimization problems. The purpose of integrating VTDIRECT95 and QNSTOP into the SORCER framework is to provide load balancing among computational resources, resulting in a dynamically scalable process. Further, the federated computing paradigm implemented by SORCER manages distributed services in real time, thereby significantly speeding up the design process. Part 1 covers SORCER and the algorithms, Part 2 presents results for aircraft panel design with curvilinear stiffeners.

분산 컴퓨팅 기술을 이용한 고해상도 강수량 예측 (High Resolution Rainfall Prediction Using Distributed Computing Technology)

  • 윤준원;송의성
    • 디지털콘텐츠학회 논문지
    • /
    • 제17권1호
    • /
    • pp.51-57
    • /
    • 2016
  • 분산컴퓨팅은 네트워크로 연결된 여러 컴퓨터들의 연산 능력을 이용하여 거대 계산 문제를 해결하려는 분산처리 모델이다. 인터넷에 연결된 수많은 컴퓨팅 자원들의 참여를 통해 대규모의 계산이 필요한 기상, 바이오, 천문학, 암호학 등과 같은 다양한 분야의 어플리케이션 들을 병렬로 처리할 수 있다. 본 논문에서는 기상 분야의 고해상도 강수량 예측 어플리케이션 수행을 위해 인터넷 분산컴퓨팅 모델을 구성하여 성능을 분석하였다. 한반도의 강수량 예측을 위해서 중규모 예측 모형인 QPM(Quantitative Precipitation Model)을 적용하였으며 이 모형은 한반도의 지형을 격자 간격 27km로 나누고 각 격자의 특성인 고도, 기온, 강수, 강도 습도 등을 기반으로 강수량을 예측하게 된다. 그러나 QPM의 격자 간격에 따른 분석은 모형 구축에 많은 시간이 소요 되고 한번에 수행되어야 할 계산량이 많아 효율성이 저하된다. 따라서 이 모형을 기반으로 하여 3km 간격의 상세 지형을 반영하는 모형으로 소규모 지형 효과를 표현함으로써 상세 지역에서의 강수량 산출과 지형에 따른 강수량의 분포 파악이 용이해지며 계산 효율성을 개선시킬 수 있다. 이렇게 상세지역으로 세분화 된 모형은 병렬처리가 필요하며 계산노드의 수가 많아질수록 그 효율은 선형적으로 증가된다. 이 모형은 $20{\times}20$의 아격자 도메인의 분산된 단위작업들로 나뉘어 분산되고 네트워크로 연결된 컴퓨팅 자원에서 수행되게 된다.

분산 환경에서 CFD 분석 프로그램 수행을 위한 그리드 시스템 META 설계 및 구현 (Design and Implementation of a Grid System META for Executing CFD Analysis Programs on Distributed Environment)

  • 강경우;우균
    • 정보처리학회논문지A
    • /
    • 제13A권6호
    • /
    • pp.533-540
    • /
    • 2006
  • 본 논문에서는 분산 환경 상에서 CFD(Computational Fluid Dynamics) 분석 프로그램을 편리하게 수행할 수 있도록 하는 그리드 시스템 META(Metacomputing Environment using Test-un of Application)의 설계 및 구현에 관하여 기술한다. 그리드 시스템 META는 CFD 프로그램 개발자들이 네트워크에 분산된 계산 자원들을 단일 시스템처럼 사용할 수 있도록 한다. 그리드 컴퓨팅과 관련하여 연구주제로는 고장허용, 자원 선택, 사용자 인터페이스 설계 등이 있다. 본 논문에서는 MPI(Message Passing Interface)로 작성된 SPMD(Single Program, Multiple Data) 구조의 병렬프로그램을 실행시키기 위한 자동 자원 선택방법을 활용하였다. 본 논문에서 제안한 자원 관리기법은 네트워크상의 전송지연 시간과 시험수행을 통해 얻어진 핵심루프의 경과시간을 이용한다. 전송지연시간은 병렬 프로그램이 복수의 시스템에 분산되어 수행될 때 수행 성능에 큰 영향을 주는 요인이다. CFD 프로그램들의 공통적인 특성 때문에 핵심루프 경과시간은 전체 수행시간을 예측할 수 있는 지표가 된다. 핵심루프는 CFD 프로그램의 전체 수행시간 중 90% 이상을 차지한다.

이동 에이전트를 이용한 병렬 인공신경망 시뮬레이터 (The Parallel ANN(Artificial Neural Network) Simulator using Mobile Agent)

  • 조용만;강태원
    • 정보처리학회논문지B
    • /
    • 제13B권6호
    • /
    • pp.615-624
    • /
    • 2006
  • 이 논문은 이동 에이전트 시스템에 기반을 둔 가상의 병렬분산 컴퓨팅 환경에서 병렬로 수행되는 다층 인공신경망 시뮬레이터를 구현하는 것을 목적으로 한다. 다층 신경망은 학습세션, 학습데이터, 계층, 노드, 가중치 수준에서 병렬화가 이루어진다. 이 논문에서는 네트워크의 통신량이 상대적으로 적은 학습세션 및 학습데이터 수준의 병렬화가 가능한 신경망 시뮬레이터를 개발하고 평가하였다. 평가결과, 학습세션 병렬화와 학습데이터 병렬화 성능분석에서 약 3.3배의 학습 수행 성능 향상을 확인할 수 있었다. 가상의 병렬 컴퓨터에서 신경망을 병렬로 구현하여 기존의 전용병렬컴퓨터에서 수행한 신경망의 병렬처리와 비슷한 성능을 발휘한다는 점에서 이 논문의 의의가 크다고 할 수 있다. 따라서 가상의 병렬 컴퓨터를 이용하여 신경망을 개발하는데 있어서, 비교적 시간이 많이 소요되는 학습시간을 줄임으로서 신경망 개발에 상당한 도움을 줄 수 있다고 본다.

A Study on Distributed System Construction and Numerical Calculation Using Raspberry Pi

  • Ko, Young-ho;Heo, Gyu-Seong;Lee, Sang-Hyun
    • International journal of advanced smart convergence
    • /
    • 제8권4호
    • /
    • pp.194-199
    • /
    • 2019
  • As the performance of the system increases, more parallelized data is being processed than single processing of data. Today's cpu structure has been developed to leverage multicore, and hence data processing methods are being developed to enable parallel processing. In recent years desktop cpu has increased multicore, data is growing exponentially, and there is also a growing need for data processing as artificial intelligence develops. This neural network of artificial intelligence consists of a matrix, making it advantageous for parallel processing. This paper aims to speed up the processing of the system by using raspberrypi to implement the cluster building and parallel processing system against the backdrop of the foregoing discussion. Raspberrypi is a credit card-sized single computer made by the raspberrypi Foundation in England, developed for education in schools and developing countries. It is cheap and easy to get the information you need because many people use it. Distributed processing systems should be supported by programs that connected multiple computers in parallel and operate on a built-in system. RaspberryPi is connected to switchhub, each connected raspberrypi communicates using the internal network, and internally implements parallel processing using the Message Passing Interface (MPI). Parallel processing programs can be programmed in python and can also use C or Fortran. The system was tested for parallel processing as a result of multiplying the two-dimensional arrangement of 10000 size by 0.1. Tests have shown a reduction in computational time and that parallelism can be reduced to the maximum number of cores in the system. The systems in this paper are manufactured on a Linux-based single computer and are thought to require testing on systems in different environments.

On Effective Slack Reclamation in Task Scheduling for Energy Reduction

  • Lee, Young-Choon;Zomaya, Albert Y.
    • Journal of Information Processing Systems
    • /
    • 제5권4호
    • /
    • pp.175-186
    • /
    • 2009
  • Power consumed by modern computer systems, particularly servers in data centers has almost reached an unacceptable level. However, their energy consumption is often not justifiable when their utilization is considered; that is, they tend to consume more energy than needed for their computing related jobs. Task scheduling in distributed computing systems (DCSs) can play a crucial role in increasing utilization; this will lead to the reduction in energy consumption. In this paper, we address the problem of scheduling precedence-constrained parallel applications in DCSs, and present two energy- conscious scheduling algorithms. Our scheduling algorithms adopt dynamic voltage and frequency scaling (DVFS) to minimize energy consumption. DVFS, as an efficient power management technology, has been increasingly integrated into many recent commodity processors. DVFS enables these processors to operate with different voltage supply levels at the expense of sacrificing clock frequencies. In the context of scheduling, this multiple voltage facility implies that there is a trade-off between the quality of schedules and energy consumption. Our algorithms effectively balance these two performance goals using a novel objective function and its variant, which take into account both goals; this claim is verified by the results obtained from our extensive comparative evaluation study.