• Title/Summary/Keyword: NVIDIA

Search Result 164, Processing Time 0.027 seconds

Technique Development of Realtime Movement, Reaction and Photorealistic Rendering of Virtual Objects (ITRC 4th workshop 제 2-1 세부과제 -가상 물체의 실시간 거동 및 반응 시뮬레이션과 시각적 실사렌더링 기술 개발-)

  • Ji, Joong-Hyun;Yun, Dong-Ho;Ko, Kwang-Hee
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.2066-2067
    • /
    • 2009
  • 1차년도에는 햅틱 시나리오의 비주얼 쓰레드로서의 환경을 구축하여 햅틱 렌더링과 그래픽 렌더링의 연동을 위한 연구를 수행하였고 햅틱 장비로부터 오는 다양한 데이터 처리를 위한 데이터 로딩 기법을 연구하고 이를 멀티 코어 CPU를 이용하여 단일 조명상에서 광선 추적하는 알고리즘을 개발하였다. 당해연도에는 1Khz 의 속도를 가진 햅틱 렌더링과의 불연속성을 해결하기 위하여 GPU를 이용한 보다 빠른 고품질의 광선 추적 알고리즘을 개발하고자 한다. 이를 위하여 NVIDIA의 범용 솔루션인 CUDA를 통해 병렬 처리를 통해 실시간으로 다중 광원을 가진 Dynamic한 장면을 갱신할 수 있도록 한다. 또한 심장, 폐, 간과 같은 반투명한 재질을 가진 신체 장기 표현을 위해 각 재질에 맞는 양방향의 표면 내부 산란 분포함수를 간략화하여 차후 년도의 연구에 반영한다.

  • PDF

Benchmark Results of a Radio Spectrometer Based on Graphics Processing Unit

  • Kim, Jongsoo;Wagner, Jan
    • The Bulletin of The Korean Astronomical Society
    • /
    • v.40 no.2
    • /
    • pp.44.1-44.1
    • /
    • 2015
  • We set up a project to make spectrometers for single dish observations of the Korean VLBI Network (KVN), a new future multi-beam receiver of the ASTE (Atacama Submillimeter Telescope Experiment), and the total power (TP) antennas of the Atacama Large Millimeter/submillimeter Array (ALMA). Traditionally, spectrometers based on ASIC (Application-Specific Integrated circuit) and FPGA (Field-Programmable Gate Array) have been used in radio astronomy. It is, however, that a Graphics Processing Unit (GPU) technology is now viable for spectrometers due to the rapid improvement of its performance. A high-resolution spectrometer should have the following functions: poly-phase filter, data-bit conversion, fast Fourier transform, and complex multiplication. We wrote a program based on CUDA (Compute Unified Device Architecture) for a GPU spectrometer. We measured its performance using two GPU cards, Titan X and K40m, from NVIDIA. A non-optimized GPU code can process a data stream of around 2 GHz bandwidth, which is enough for the KVN spectrometer and promising for the ASTE and ALMA TP spectrometers.

  • PDF

Development of high-speed image interpolation method using CUDA (GPU를 이용한 고속 영상 보간법 개발)

  • Cui, Xue-Nan;Park, Eun-Soo;Kim, Jun-Chui;Jung, Young-Han;Kim, Hak-Il
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.300-301
    • /
    • 2008
  • 본 논문에서는 GPU를 이용한 고속 보간법 개발방법에 대해 제안한다. GPU는 흔히 그래픽 연산에 사용되지만 최근에는 GPGPH가 각광을 받고 있다. 특히 NVIDIA에서 발표한 CUDA를 이용하면 GPU를 쉽게 접근하여 프로세싱 할 수 있어 많은 분야에서 GPU를 활용하고 있다. 본 논문에서는 실제 CUDA를 이용하여 여러 가지 보간법에 대한 알고리즘을 구현하여 CUDA의 성능을 확인하였다. CPU에서 구현한 알고리즘과 CUDA를 이용한 알고리즘을 비교했을 때 메모리 할당 및 전송부분을 제외한 수순 프로세싱 시간을 보면 CPU에서 훨씬 좋은 성능을 나타내었고, 메모리 할당 및 전송을 고려했을 때 작은 사이즈 영상에서는 오히려 역효과가 나타났고, 대용량 영상에서는 좋은 성능을 나타냄을 확인하였다.

  • PDF

Performance Comparison of RTOS with Hypervisor usage (하이퍼바이저의 사용 유무에 따른 RTOS의 성능 비교)

  • Sim, Cheol;Choi, Min
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.7-8
    • /
    • 2017
  • 최근 ARM 프로세서의 가상화 확장 기술을 이용하는 임베디드 시스템에서 다종의 OS 작동을 지원하는 하이퍼바이저가 많이 개발되었다. 가상화 기술은 하드웨어 자원을 효과적으로 사용한다는 이점이 있지만, RTOS를 작동시킬 경우 하이퍼바이저의 오버헤드에 의해 RTOS의 성능이 저하될 수 있는 문제가 발생한다. 본 논문에서는 가상화 기술을 지원하는 ARMv7 Cortex-A15 프로세서를 탑재한 NVidia Jetson TK-1 임베디드 보드에서 RTOS가 단독으로 작동했을 때의 성능과 QPlus Hypervisor를 통해 Linux OS와 함께 RTOS가 작동했을 때의 성능을 측정하고 비교 분석 하였다.

The performance of fast view synthesis using GPU (GPU를 이용한 고속 영상 합성 기법의 성능)

  • Kim, Jaehan;Shin, Hong-Chang;Cheong, Won-Sik;Bang, Gun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.22-24
    • /
    • 2011
  • 본 논문에서는 3차원 디스플레이 시스템에서 다수의 중간 시점 영상을 실시간으로 생성할 수 있도록 GPU 기반의 고속 영상 합성기법을 제안하였으며 그에 대한 성능을 알아본다. 카메라의 기하 정보 및 참조 영상들의 깊이 정보를 이용하여 중간 시점 영상을 생성하였으며, 영상 합성 방법을 GPU에서 병렬 처리함으로써 고속화할 수 있었다. GPU를 효율적으로 다루기 위해 NVIDIA사의 CUDA(Compute Unified Device Architecture)$^TM$를 이용하였다. 제안한 기법은 CUDA의 SIMD(Single Instruction MUltiple Data) 구조를 사용하여 중간 영상 합성을 처리할 수 있도록 설계하였다. 본 논문은 고속 영상 합성에 중점을 두었고, 제안한 고속화 기법의 결과를 분석함으로써 다시점 3차원 디스플레이 시스템의 적용 가능성을 알아본다.

  • PDF

Parallel Algorithm for Matrix-Matrix Multiplication on the GPU (GPU 기반 행렬 곱셈 병렬처리 알고리즘)

  • Park, Sangkun
    • Journal of Institute of Convergence Technology
    • /
    • v.9 no.1
    • /
    • pp.1-6
    • /
    • 2019
  • Matrix multiplication is a fundamental mathematical operation that has numerous applications across most scientific fields. In this paper, we presents a parallel GPU computation algorithm for dense matrix-matrix multiplication using OpenGL compute shader, which can play a very important role as a fundamental building block for many high-performance computing applications. Experimental results on NVIDIA Quad 4000 show that the proposed algorithm runs about 208 times faster than previous CPU algorithm and achieves performance of 75 GFLOPS in single precision for dense matrices with matrix size 4,096. Such performance proves that our algorithm is practical for real applications.

Implementing Neural Network and measuring execution speed using CUDA based on Parallel Computing (CUDA를 사용한 병렬 컴퓨팅 기반 신경망 구현 및 수행 속도 측정)

  • Jang, Yong-Seok;Jeon, Woong-Gi;O, Byeong-Jin;Choi, Heung-Kook
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2012.05a
    • /
    • pp.275-278
    • /
    • 2012
  • 신경망 이론은 그 특성상 각각의 뉴런과 신경들 사이의 병렬적인 처리에 의해 Input에 대한 Output을 계산해 낸다. 하지만, 현대 컴퓨터들은 CPU를 통한 순차처리 방식으로 정보를 취급하기에 그 근본 구조가 달라 병렬구조를 모사하기 위해 계산하는 과정에 많은 시간이 소요된다. 본 논문에서는 신경망 학습을 NVIDIA사에서 제공한 CUDA를 사용하여 병렬 컴퓨팅 구조로 수행함으로서 시간을 단축시키는 것을 확인하고자 한다.

  • PDF

Fast Double Random Phase Encoding by Using Graphics Processing Unit (GPU 컴퓨팅에 의한 고속 Double Random Phase Encoding)

  • Saifullah, Saifullah;Moon, In-Kyu
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2012.05a
    • /
    • pp.343-344
    • /
    • 2012
  • With the increase of sensitive data and their secure transmission and storage, the use of encryption techniques has become widespread. The performance of encoding majorly depends on the computational time, so a system with less computational time suits more appropriate as compared to its contrary part. Double Random Phase Encoding (DRPE) is an algorithm with many sub functions which consumes more time when executed serially; the computation time can be significantly reduced by implementing important functions in a parallel fashion on Graphics Processing Unit (GPU). Computing convolution using Fast Fourier transform in DRPE is the most important part of the algorithm and it is shown in the paper that by performing this portion in GPU reduced the execution time of the process by substantial amount and can be compared with MATALB for performance analysis. NVIDIA graphic card GeForce 310 is used with CUDA C as a programming language.

  • PDF

An Echo Processor for Medical Ultrasound Imaging Using a GPU with Massively Parallel Processing Architecture (병렬 처리 구조의 GPU를 이용한 의료 초음파 영상용 에코 신호 처리기)

  • Seo, Sin-Hyeok;Sohn, Hak-Yeol;Song, Tai-Kyong
    • Proceedings of the IEEK Conference
    • /
    • 2008.06a
    • /
    • pp.871-872
    • /
    • 2008
  • The method and results of the software implementation of a echo processor for medical ultrasound imaging using a GPU (NVIDIA G80) is presented. The echo signal processing functions are modified in a SIMD manner suitable for the GPU's massively parallel processing architecture so that the GPU's 128 ALUs are utilized nearly 100%. The preliminary result for a frame of image composed of 128 scan lines, each having 10240 16-bit samples, shows that the echo processor can be inplemented at a high rate of 30 frames per second when implemented in C, which is close to the optimized assembly codes running on the TI's TMS320C6416 DSP.

  • PDF

Object Tracking Based on Gaussian Mixture Model Algorithm by Using Cuda (Cuda를 이용한 가우시언 믹스처 모델 기반 객체 추적 알고리즘)

  • Kim, In-Su;Choi, Hyung-Il
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2011.01a
    • /
    • pp.273-275
    • /
    • 2011
  • 본 논문에서는 효과적인 객체 추적을 위해 가우시언 믹스처 기반의 그림자 제거 알고리즘을 제안하고, GPGPU(General Purpose GPU) 아키텍처인 NVIDIA 사의 CUDA(Compute Unified Device Architecture)를 이용하여 기존의 객체 추적 알고리즘의 컴퓨팅 시간을 개선하는 모델을 제안한다. 이 시스템은 GPU를 이용한 가우시언 믹스처 모델 기반의 객체 추적 알고리즘으로 전경과 배경 분리 시 CPU와 GPU의 프로세스 시간을 적절히 분배하여 소모되는 연산시간을 줄이고, 고 해상도의 이미지에서의 객체 분리 및 추적의 시스템 처리량을 최대화 한다. 객체 추출 후 효과적인 추적을 위해 예측 모델인 칼만 필터를 사용한다.

  • PDF