• 제목/요약/키워드: infiniband

검색결과 16건 처리시간 0.024초

소규모 SMP 클러스터 시스템을 위한 모니터링 툴의 성능 시험 (Performance Test of Monitoring Tool for Small SMP Cluster System)

  • 성진우;이영주;최윤근;박찬열
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.467-470
    • /
    • 2007
  • 다수의 노드로 구성된 클러스터 시스템을 관리하기 위하여 모니터링 툴(S/W)이 필요하지만, 자신의 시스템에 적합한 툴을 확보한다는 것은 쉽지가 않다. 본 문서는 소규모 SMP 클러스터 시스템을 위하여 개발한 모니터링 툴(my-mon)과 성능 시험 내용을 기술하였다. ganglia와 같이 웹기반의 툴들도 있지만 필요한 기능들로 구성된 my-mon은 다양한 구조의 클러스터 시스템을 관리하는 관리자에게는 ?춤형 클러스터 모니터링 툴이다. infiniband 네트워크를 계산노드간의 스위치로 구성된 소규모 SMP 클러스터 시스템용 모니터링 툴의 개발 내용과 툴의 성능(CPU사용율과 메모리 사용량)을 측정하여 웹기반의 툴들과 비교한 결과를 기술하였다.

  • PDF

GPU 클러스터 시스템의 계산노드 간 인터커넥트 네트워크 통신 성능 비교 분석 연구 (A study on comparison and analysis of interconnect network communication performance between computing nodes in GPU cluster system)

  • 권민우;안도식;홍태영
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.2-4
    • /
    • 2023
  • KISTI의 GPU 클러스터 시스템인 뉴론은 NVIDIA의 A100과 V100 GPU가 총 260개 탑재되어 있는 클러스터 시스템이다. 뉴론의 계산노드들은 고성능의 인터커넥트인 Infiniband(IB) 케이블로 연결되어 있어 멀티 노드 작업 수행 시에 고대역 병렬통신이 가능하다. 본 논문에서는 NVIDIA사에서 제공하는 NCCL의 벤치마크 코드를 이용하여 인터커넥트 네트워크의 통신 성능을 비교분석하는 방안에 대해서 소개한다.

인피니밴드기반 저장장치에서의 iSER(iSCSI Extension for RDMA) 성능평가 (Performance Evaluation of iSER on Storage system using Infiniband fabric)

  • 김영환;손재기;정혜동
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.148-150
    • /
    • 2013
  • 최근 TCP/IP에서 세션을 통하여 노드들 간의 통신을 연결하는 방식에서 현재는 하나의 채널을 통해 고속의 I/O가 가능하도록 하는 인피니밴드 같은 기술이 많이 연구되고 있다. 인피니밴드는 프로세싱 노드와 입출력 장치 사이의 통신, 프로세스간 통신에 대한 산업 표준이 되고 있고 프로세싱 노드와 입출력 장치를 연결하기 위해 스위치 기반의 상호 연결은 전통적인 버스 입출력을 대체하는 새로운 입출력 방식이다. 또한 인피니밴드에서는 현재 이슈가 되고 있는 RDMA 방식을 이용해 원격지 서버들간에 직접 메모리 접근 방식을 통해 CPU와 OS의 로드를 최소화하고 있다. 본 논문에서는 인피니밴드 네트워크를 이용하는 저장장치 접근 프로토콜인 iSER(iSCSI Extension RDMA Protocol)와 기존 이더넷망에서 사용되는 iSCSI(Internet SCSI) 프로토콜을 이용하여 서버와 저장장치 간의 IOPS 와 초당 데이터 전송량에 대한 성능을 평가한다. 우리는 성능평가를 위해 Intel에서 제공하는 저장장치 I/O 성능평가 도구인 IO meter를 이용했다.

인피니밴드 기반 고성능 클러스터를 위한 효율적인 데이터 선반입 기법 (Efficient Data Pre-fetching Scheme for InfiniBand based High Performance Clusters)

  • 김봉재;정진만;민홍;허준영;정혜동
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제23권5호
    • /
    • pp.293-298
    • /
    • 2017
  • 최근 고성능 네트워크 기술을 기반으로 다수의 컴퓨터를 활용하여 클러스터를 구축하고 고성능 컴퓨팅 환경을 제공하기 위한 연구가 활발하게 이루어지고 있다. 이와 같은 고성능 클러스터 환경에서 각 컴퓨팅 노드의 데이터 처리 성능을 향상시키기 위하여 Redis, Memcached와 같은 인-메모리 기반 키-값 데이터 저장소를 활용하고 있다. 이를 통해 인-메모리 기반으로 데이터를 분산 저장하고 각 컴퓨팅 노드에서 필요한 데이터를 고속으로 접근할 수 있다. 인피니밴드는 이와 같은 고성능 클러스터에서 각 컴퓨팅 노드를 연결하기 위한 사실상의 표준 기술이다. 본 논문에서는 키-값 데이터 저장소 기반 고성능 클러스터 컴퓨팅 시스템의 데이터 처리 성능을 향상시키기 위해 인피니밴드 네트워크의 데이터 송수신 지연 특성을 활용한 데이터 선반입 기법을 제안한다. 시뮬레이션을 통해 제안 기법이 기존 기법보다 데이터 송수신 소요시간을 최대 약 28% 줄여 컴퓨팅 성능을 향상 시킬 수 있음을 보인다.

고성능 컴퓨팅을 위한 인터커넥션 네트워크 기술 동향 (The Technology Trend of Interconnection Network for High Performance Computing)

  • 조혜영;전태준;한지용
    • 한국융합학회논문지
    • /
    • 제8권8호
    • /
    • pp.9-15
    • /
    • 2017
  • 반도체 집적 기술의 발전으로 중앙처리장치 및 저장장치가 소형화되고 성능이 빠르게 발전되면서 고성능 컴퓨팅(High Performance Computing) 분야에서 인터커넥션 네트워크가 전체 시스템의 성능을 결정하는데 더욱 중요한 요소가 되고 있다. 본 논문에서는 고성능컴퓨팅 분야에서 사용되는 인터커넥션 네트워크 기술 동향을 분석하였다. 2017년 6월 기준 슈퍼컴퓨터 Top 500에서 가장 많이 사용하고 있는 인터커텍트는 인피니밴드이다. 최근 이더넷은 40/100Gbps 기가비트 이더넷 기술의 등장으로 인피니밴드 다음으로 높은 점유율을 보이고 있다. 지연(latency) 성능이 인피니밴드에 비해 떨어지는 기가비트 이더넷은 비용 대비 효율을 중시하는 중형급 데이터 센터에서 선호하고 있다. 또한 고성능을 요구하는 최상위 HPC 시스템들은 기존의 이더넷, 인피니밴드 기술에서 벗어나, 자체적인 인터커넥트 네트워크를 도입하여 시스템의 성능을 극대화 하는 노력을 하고 있다. 향후 고성능 인터커넥트 분야는 전기 신호기반 데이터 통신에서 한 단계 도약하여, 빛으로 데이터를 주고받는 실리콘 반도체 기반 광송수신 기술이 활용될 것으로 예상된다.

PCI Express 기반 OpenSHMEM 초기 설계 및 구현 (Design and Implementation of Initial OpenSHMEM Based on PCI Express)

  • 주영웅;최민
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제6권3호
    • /
    • pp.105-112
    • /
    • 2017
  • PCI Express는 고속, 저전력 등의 특성으로 인하여 프로세서와 주변 I/O 장치들을 연결하는 업계 표준의 버스 기술이다. PCI Express는 최근 고성능 컴퓨터나 클러스터/클라우드 컴퓨팅 등의 분야에서 시스템 인터커넥션 네트워크로서 그 활용가능성을 검증하고 있는 추세이다. PCI Express가 시스템 인터커넥션 네트워크로서 활용가능하게 된 계기는 PCI Express에 NTB(non-transparent bridge) 기술이 도입되면서부터이다. NTB 기술은 물리적으로 두 PCI Express subsystem을 연결가능하도록 하지만, 필요할 경우 논리적인 격리(isolation)를 제공하는 특징이 있다. 또한, PGAS(partitioned global address space)와 같은 공유 주소 공간(shared address space) 프로그래밍 모델은 최근 멀티코어 프로세서의 보편화로 인하여 병렬컴퓨팅 프레임워크로 각광받고 있다. 따라서, 본 논문에서는 차세대 병렬컴퓨팅 플랫폼을 위하여 PCI Express 환경에서 OpenSHMEM을 구현하기 위한 초기 OpenSHMEM API를 설계 및 구현하였다. 본 연구에서 구현한 15가지 OpenSHMEM API의 정확성을 검증하기 위해서 Github의 openshmem-example 벤치마크의 수행을 통하여 확인하였다. 현재 시중에서는 PCI Express 기반 인터커넥션 네트워크는 가격이 매우 비싸고 아직 일반인이 사용하기 용이하도록 NIC형태로 널리 보급되지 않은 실정이다. 이러한 기술개발 초기단계에서 본 연구는 PCI Express 기반 interconnection network를 RDK(evaluation board) 수준에서 실제로 동작하는 실험환경을 구축하고, 여기에 추가로 최근 각광받는 OpenSHMEM software stack를 자체적으로 구현하였다는 데 의의가 있다.