• 제목/요약/키워드: Message Passing Interface(MPI)

검색결과 115건 처리시간 0.022초

MPI를 이용한 판재성형해석 프로그램의 병렬화 (Parallelization of sheet forming analysis program using MPI)

  • 김의중;서영성
    • 대한기계학회논문집A
    • /
    • 제22권1호
    • /
    • pp.132-141
    • /
    • 1998
  • A parallel version of sheet forming analysis program was developed. This version is compatible with any parallel computers which support MPI that is one of the most recent and popular message passing libraries. For this purpose, SERI-SFA, a vector version which runs on Cray Y-MP C90, a sequential vector computer, was used as a source code. For the sake of the effectiveness of the work, the parallelization was focused on the selected part after checking the rank of CPU consumed from the exemplary calculation on Cray Y-MP C90. The subroutines associated with contact algorithm was selected as targe parts. For this work, MPI was used as a message passing library. For the performance verification, an oil pan and an S-rail forming simulation were carried out. The performance check was carried out by the kernel and total CPU time along with theoretical performance using Amdahl's Law. The results showed some performance improvement within the limit of the selective paralellization.

애플리케이션 공유 및 데이터 접근 최적화를 위한 씬-클라이언트 프레임워크 설계 (Design of Thin-Client Framework for Application Sharing & Optimization of Data Access)

  • 송민규
    • 한국산업정보학회논문지
    • /
    • 제14권5호
    • /
    • pp.19-32
    • /
    • 2009
  • 본 논문에서는 인터넷 상에서 애플리케이션 공유과 데이터 접근을 수행할 수 있는 씬-클라이언트 프레임워크를 설계할 것이며, 관련 기술로 X 윈도우 시스템, 가상 서버, CODA 파일 시스템, MPI(Message Passing Interface)를 활용하고자 한다. 우리는 네트워크 연결이 중단되더라도 서버 상에서 실행되던 애플리케이션을 로컬 상에서 실행할 수 있음은 물론 서버 상의 작업 수행으로 생성된 데이터에 클라이언트가 최적으로 접근할 수 있는 씬-클라이언트 프레임워크를 제안하고자 한다. 또한 네트워크가 복원되었을 때 로컬 상의 작업 내역이 서버에 효과적으로 반영될 수 있어야 할 것이다. 이러한 씬-클라이언트 프레임워크를 설계하기 위하여 본 논문에서는 기존의 시스템에 분산 Pseudo 서버, CODA 파일 시스템 기술을 접목시킬 것이며, 보다 효율적인 작업 수행, 관리를 위해 MPI를 활용할 것이다. 이를 통하여 네트워크 독립적인 씬-클라이언트 작업 환경을 구축할 수 있고 서버의 병목현상을 지양함으로써 다수의 사용자에게 확장성 있는 애플리케이션 서비스를 제공할 수 있다. 본 논문에서는 이를 구현함에 있어 기반이 되는 씬-클라이언트 프레임워크의 설계 방안에 대해 논의하고자 한다.

MPI-GWAS: a supercomputing-aided permutation approach for genome-wide association studies

  • Paik, Hyojung;Cho, Yongseong;Cho, Seong Beom;Kwon, Oh-Kyoung
    • Genomics & Informatics
    • /
    • 제20권1호
    • /
    • pp.14.1-14.4
    • /
    • 2022
  • Permutation testing is a robust and popular approach for significance testing in genomic research that has the advantage of reducing inflated type 1 error rates; however, its computational cost is notorious in genome-wide association studies (GWAS). Here, we developed a supercomputing-aided approach to accelerate the permutation testing for GWAS, based on the message-passing interface (MPI) on parallel computing architecture. Our application, called MPI-GWAS, conducts MPI-based permutation testing using a parallel computing approach with our supercomputing system, Nurion (8,305 compute nodes, and 563,740 central processing units [CPUs]). For 107 permutations of one locus in MPI-GWAS, it was calculated in 600 s using 2,720 CPU cores. For 107 permutations of ~30,000-50,000 loci in over 7,000 subjects, the total elapsed time was ~4 days in the Nurion supercomputer. Thus, MPI-GWAS enables us to feasibly compute the permutation-based GWAS within a reason-able time by harnessing the power of parallel computing resources.

IBM SP2와 SGI Origin 2000에서의 병렬 VHDL 시뮬레이션 (Parallel VHDL Simulation on IBM SP2 and SGI Origin 2000)

  • 정영식
    • 한국시뮬레이션학회논문지
    • /
    • 제7권1호
    • /
    • pp.69-83
    • /
    • 1998
  • In this paper, we present the results of simulation by running parallel VHDL simulation on typical MPP(Massively Parallel Processor) systems such as IBM SP2 and SGI Origin 2000. Parallel simulation uses the synchronous protocol and parallel program is implemented using MPI(Message Passing Interface) based on message passing model, so that it can urn on any parallel programming environment which supports MPI, a standard communication library. And then GVT(Global Virtual Time) computation for parallel simulation is based on the global broadcasting with MPI_Bcast(), which is a standard function in MPI and piggybacking. Our benchmark exhibits that as size of VHDL grows, the parallel simulation has a better performance compared with the sequential simulation. In addition, we also show the results of comparison between IBM SP2 and SGI Origin 2000 by applying the same application to those indirectly.

  • PDF

병렬계산기법을 이용한 선체주위 점성유동장의 LES해석 (Large Eddy Simulation of Turbulent Flow around a Ship Model Using Message Passing Interface)

  • 최희종;윤현식;전호환;강대환;박종천
    • 한국해양공학회지
    • /
    • 제20권4호
    • /
    • pp.76-82
    • /
    • 2006
  • The large-eddy simulation(LES) technique, based an a message passing interface method(MPI), was applied to investigate the turbulent flaw phenomena around a ship. The Smagorinski model was used in the present LES simulation to simulate the turbulent flaw around a ship. The SPMD(sidsngle program multiple data) technique was used for parallelization of the program using MPI. All computations were performed an a 24-node PC cluster parallel machine, composed of 2.6 GHz CPU, which had been installed in the Advanced Ship Engineering Research Center(ASERC). Numerical simulations were performed for the Wigley hull, and the Series 60 hull(CB=0.6) using 1/4-, 1/2-, 1- and 2-million grid systems and the computational results had been compared to the experimental ones.

MPI와 OpenMP기반 하이브리드 모델을 이용한 항공 레이저 스캐닝 자료의 병렬 처리 (Parallel Processing of Airborne Laser Scanning Data Using a Hybrid Model Based on MPI and OpenMP)

  • 한수희;박일석;허준
    • 한국측량학회지
    • /
    • 제30권2호
    • /
    • pp.135-142
    • /
    • 2012
  • 본 연구에서는 대용량 항공 레이저 스캐닝 자료로부터 DSM(Digital Surface Model) 및 DTM(Digital Terrain Model)을 효율적으로 생성하기 위하여 다중 코어 피씨클러스터(PC-Cluster)에 기반한 병렬처리방식을 제안하였다. 이를 위하여 MPI(message passing interface)만을 사용하는 기존 MPI 모델을 변형하여 MPI와 OpenMP를 병용한 하이브리드(hybrid) 모델을 제작하였으며 다중 코어 피씨클러스터에서 그 성능을 평가하였다. 결과적으로, 하이브리드 모델과 기존 모델을 비교하였을 때 DSM을 생성하기 위한 보간에서는 다소 불리하지만 MPI 호출을 줄임으로써 전반적인 성능을 향상시킬 수 있었다. 아울러, 불규칙한 항공 레이저 스캐닝 자료의 분포로부터 발생하는 코어간 부하 불일치를 OpenMP의scheduling 기능을 통해 조절함으로써 하이브리드 모델의 성능을 향상시킬 수 있었다.

병렬알고리즘 이용한 비압축, 비투과성 포화 다공질매체의 혼합유한요소해석 (The Mixed Finite Element Analysis for Nearly Incompressible and Impermeable Porous Media Using Parallel Algorithm)

  • 탁문호;강윤식;박대효
    • 한국전산구조공학회논문집
    • /
    • 제23권4호
    • /
    • pp.361-368
    • /
    • 2010
  • 본 논문에서는 Park and Tak(2010)이 제안한 다공질매체 스태거드 방법의 효율성을 제고하기 위해 MPI(Message- Passing Interface) 라이브러리를 통한 병렬해석이 소개된다. 이를 위해 비압축, 비투과성 포화 다공질매체와 FEM을 통한 스태거드 방법이 간략히 소개된다. 그리고 병렬해석을 위한 MPI 라이브러리를 소개하고 스태거드 방법에 블록킹, 논블록킹 MPI 라이브러리를 접목시킨 병렬해석 알고리즘을 제안한다. 여기서는 변위와 간극수압 계산에서의 CPU 할당방법과 MPI 통신 규약을 통한 효율적인 프로그래밍 방법을 제시하고, 수치효율성을 검증하기 위한 2차원 모델의 순차해석과 병렬 해석 결과 값들을 요소개수에 따라 계산시간이 비교 검증된다.

The Mixed Finite Element Analysis for Saturated Porous Media using FETI Method

  • Lee, Kyung-Jae;Tak, Moon-Ho;Park, Tae-Hyo
    • 한국전산구조공학회논문집
    • /
    • 제23권6호
    • /
    • pp.693-702
    • /
    • 2010
  • In this paper, FETI(Finite Element Tearing and Interconnecting) method is introduced in order to improve numerical efficiency of Staggered method. The porous media theory, the Staggered method and the FETI method are briefly introduced in this paper. In addition, we account for the MPI(Message Passing Interface) library for parallel analysis, and the proposed combined Staggered method with FETI method. Finally Lagrange multipliers and CG(Conjugate Gradient) algorithm to solve decomposed domain are proposed, and then the proposed method is verified to be numerically efficient by MPI library.

리눅스 클러스터에서 MPI 기반 병렬 프로그램의 동적 동시 스케줄링 기법 (A Dynamic Co-scheduling Scheme for MPI-based Parallel Programs on Linux Clusters)

  • 김혁;이윤석
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권1호
    • /
    • pp.29-35
    • /
    • 2008
  • 빈번한 메시지를 주고받는 MPI 기반의 병렬 프로그램에서 효과적으로 통신이 이뤄지기 위해서는 송수신 프로세스들이 각 노드에서 동시에 스케줄되어야 한다. 그러나, 일반적으로 클러스터 컴퓨터를 구성하는 각 노드는 범용시분할 운영체제를 기반으로 하며, 이 경우 병렬 프로그램을 구성하는 프로세스들은 각 스케줄러에 의해 자율적으로 관리되므로 이들을 동시에 함께 실행시키는 것은 쉽지 않다. 본 연구에서는 리눅스 클러스터에서 효과적으로 병렬 MPI 프로그램을 실행시키기 위해, 메시지 교환 정보를 활용하여 통신에 참여하는 프로세스들이 동시에 스케줄 되는 기법을 제안하고 실제 구현을 통해 성능을 살펴보았다. NPB 병렬 벤치마크의 수행을 통해 측정한 결과에 따르면, 통신량이 높은 프로그램에서 33-56%의 실행 시간 감소 효과를 보였다.

  • PDF

표준 MPI 환경에서의 무정지형 선형 시스템 해법 (A Fault-Tolerant Linear System Solver in a Standard MPI Environment)

  • 박필성
    • 인터넷정보학회논문지
    • /
    • 제6권6호
    • /
    • pp.23-34
    • /
    • 2005
  • 대규모 병렬 연산에 있어서, 계산 노드 혹은 통신 네트워크의 장애는 연산 실패로 끝나 계산자원이 낭비된다. 이를 해결하는 무정지형 MPI 라이브러리들이 제안되어 있으나 이들은 MPI 표준을 따르지 않아 이식성의 문제가 있다. 본 논문에서는 응용 프로그램의 수준에서 비동기 연산과 표준 MPI 함수만 사용하여 이식성의 문제를 해결하고 장애 복구 메커니즘을 단순화하며 수렴속도를 높이는 무정지형 선형 시스템의 해법을 제안한다.

  • PDF