• Title/Summary/Keyword: 거대강입자충돌실험

Search Result 2, Processing Time 0.026 seconds

Distributed Data Process for LHC(Large Hadron Collider) Experiment (대형 강입자 충돌가속기(LHC) 실험의 자료 분산 처리)

  • Cho Kihyeon;Han Daehee;Kwon Kihwan;Kim Jincheol B.;Son Dongchul
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.1036-1038
    • /
    • 2005
  • 고에너지물리학의 거대강입자충돌실험(LHC)에서 생산되는 데이터양은 연간 $12\~14$PetaByte이므로 이러한 데이터를 분석하기 위해서 기존의 전산개념으로는 자료 처리하기가 불가능하다. 그러므로 새로운 개념의 대용량 자료 처리를 위한 분산 처리 시스템이 필요하며, 이와 관련하여 고에너지 물리 실험분야에서는 계층적 구조의 Tier-0, 1, 2의 지역데이터센터의 개념 및 그리드 개념을 도입하였다. LCG(LHC Computing Grid) 및 OSG(Open Science Grid)등의 그리드 팜을 이용하여 자료를 처리한다.

  • PDF

An Embodiment of High Energy Physics Data Grid System (고에너지물리 데이타 그리드 시스템의 구현)

  • Cho Ki-Hyeon;Han Dae-Hee;Kwon Ki-Hwan;Kim Jin-Cheol;Yang Yu-Chul;Oh Young-Do;Kong Dae-Jung;Suh Jun-Suhk;Kim Dong-Hee;Son Dong-Chul
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.7
    • /
    • pp.390-398
    • /
    • 2006
  • The objective of the High Energy Physics(HEP) is to understand the basic properties of elementary particles and their interactions. The CMS(Compact Muon Solenoid) experiment at CERN which will produce a few PetaByte of data and the size of collaboration is around 2000 physicists. We cannot process the amount of data by current concept of computing. Therefore, an area of High Energy Physics uses a concept of Tier and Data Grid. We also apply Data Grid to current High Energy Physics experiments. In this paper, we report High Energy Physics Data Grid System as an application of Grid.