• 제목/요약/키워드: GPU Parallel Processing

검색결과 226건 처리시간 0.024초

Development of People Counting Algorithm using Stereo Camera on NVIDIA Jetson TX2

  • Lee, Gyucheol;Yoo, Jisang;Kwon, Soonchul
    • International journal of advanced smart convergence
    • /
    • 제7권3호
    • /
    • pp.8-14
    • /
    • 2018
  • In the field of surveillance cameras, it is possible to increase the people detection accuracy by using depth information indicating the distance between the camera and the object. In general, depth information is obtained by calculating the parallax information of the stereo camera. However, this method is difficult to operate in real time in the embedded environment due to the large amount of computation. Jetson TX2, released by NVIDIA in March 2017, is a high-performance embedded board with a GPU that enables parallel processing using the GPU. In this paper, a stereo camera is installed in Jetson TX2 to acquire depth information in real time, and we proposed a people counting method using acquired depth information. Experimental results show that the proposed method had a counting accuracy of 98.6% and operating in real time.

Scalable Prediction Models for Airbnb Listing in Spark Big Data Cluster using GPU-accelerated RAPIDS

  • Muralidharan, Samyuktha;Yadav, Savita;Huh, Jungwoo;Lee, Sanghoon;Woo, Jongwook
    • Journal of information and communication convergence engineering
    • /
    • 제20권2호
    • /
    • pp.96-102
    • /
    • 2022
  • We aim to build predictive models for Airbnb's prices using a GPU-accelerated RAPIDS in a big data cluster. The Airbnb Listings datasets are used for the predictive analysis. Several machine-learning algorithms have been adopted to build models that predict the price of Airbnb listings. We compare the results of traditional and big data approaches to machine learning for price prediction and discuss the performance of the models. We built big data models using Databricks Spark Cluster, a distributed parallel computing system. Furthermore, we implemented models using multiple GPUs using RAPIDS in the spark cluster. The model was developed using the XGBoost algorithm, whereas other models were developed using traditional central processing unit (CPU)-based algorithms. This study compared all models in terms of accuracy metrics and computing time. We observed that the XGBoost model with RAPIDS using GPUs had the highest accuracy and computing time.

구 집합에 대한 컨벡스헐 근사 (Approximating the Convex Hull for a Set of Spheres)

  • 김병주;김구진;김영준
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권1호
    • /
    • pp.1-6
    • /
    • 2014
  • 현재까지 컨벡스헐 (convex hull) 의 계산 알고리즘들은 주로 점 집합 (point set) 에 대해 연구가 수행되어 왔다. 본 논문에서는 이산 공간에서 다양한 반경을 갖는 구 집합에 대한 컨벡스헐을 근사하는 방법을 제시한다. 구 집합에 대한 컨벡스헐 계산은, 특히 단백질 분자의 구조적인 특성을 연구하는 여러 응용분야에서 계산 효율성을 증대시키기 위한 기반 기술이라 할 수 있다. 분자에 대응하는 구의 집합에 대해 복셀 맵 (voxel map) 자료구조를 적용하고 이를 이용하여 컨벡스헐을 계산하는 알고리즘을 제시한다. 제안된 방법은 GPU를 활용한 병렬처리를 수행하여 평균적으로 6,400개 이하의 구가 포함된 집합에 대해 40ms 이내에 컨벡스헐을 계산하는 성능을 보인다.

복셀맵을 기반으로 한 분자 간 상호작용 인터페이스의 계산 (Molecular Interaction Interface Computing Based on Voxel Map)

  • 최지훈;김병주;김구진
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제18권3호
    • /
    • pp.1-7
    • /
    • 2012
  • 본 논문에서는 단백질 분자 간의 인터페이스를 계산하는 알고리즘을 제안한다. 분자가 반데르바스 (van der Waals) 반경을 갖는 구의 집합으로 표현될 때, 공간 상의 한 점 p로부터 분자까지의 거리는 p로부터 가장 가까운 구까지의 거리에 대응한다. 분자 인터페이스는 두 개의 분자에 대해 같은 거리에 있는 점들로 구성된다. 제안된 알고리즘은 공간을 복셀의 집합로 분할한뒤, 각 복셀을 지나는 구의 위치 정보를 저장하여 복셀맵 (voxel map)을 구성하였다. 복셀맵을 이용하여 한 점으로부터 분자까지의 거리를 계산하며, GPU (graphic processor unit)를 이용하여 병렬처리를 수행함으로써 효율적으로 인터페이스를 근사한다.

RANSAC을 이용한 다중 평면 피팅의 효율적인 CUDA 구현 (Efficient CUDA Implementation of Multiple Planes Fitting Using RANSAC)

  • 조태훈
    • 한국정보통신학회논문지
    • /
    • 제23권4호
    • /
    • pp.388-393
    • /
    • 2019
  • 외란(Outlier)이 있는 데이터를 피팅(Fitting)하는 방법으로 RANSAC(RANdom SAmple Consensus)알고리즘이 선, 원, 타원 등 의 피팅에 많이 사용되고 있다. 본 논문은 다수의 평면에 대한 3차원 포인트 데이터가 주어질 때 각 평면에 대해 RANSAC기반 평면 피팅을 최근 딥러닝 등에 많이 사용되는 GPU의 하나인 CUDA를 이용하여 효율적으로 수행하는 알고리즘을 제안한다. 모의 데이터와 실제 데이터를 이용하여 제안된 알고리즘의 성능을 CPU와 비교하여 보인다. 외란이 많고 인라이어(inlier) 비율이 낮을수록 CPU대비 속도가 향상되고 평면의 개수가 많을수록 평면당 데이터개수가 많을수록 병렬처리에 의한 속도가 가속됨을 보인다. 제안된 방법은 다중 평면 피팅외의 다른 피팅에도 쉽게 적용할 수 있다.

Efficient GPU Framework for Adaptive and Continuous Signed Distance Field Construction, and Its Applications

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권3호
    • /
    • pp.63-69
    • /
    • 2022
  • 본 논문에서는 적응형 및 연속적인 부호 거리장을 빠르게 계산하기 위한 새로운 GPU 기반 프레임워크를 제안하고, 이를 활용한 렌더링/충돌처리 관련 사례를 살펴본다. 삼각형 메쉬로부터 구성된 쿼드트리를 GPU 메모리로 전달하고, 이를 활용하여 삼각형에 대한 유클리디안 거리를 각 스레드 별로 병렬 처리함으로써 적응형 격자 공간에서 불연속 없이 연속적인 최단 거리를 찾는다. 이 과정에서 적응형 부호 거리장의 절단면 보기, 특정 위치에서의 거리 값 조회, 실시간 레이트레이싱 및 충돌처리 작업을 빠르고 효율적으로 수행될 수 있는지를 실험을 통해 보여준다. 제안하는 방법을 사용하면 하이폴리곤 메쉬에서도 1초 내외로 빠르게 적응형 부호 거리장을 계산할 수 있기 때문에 강체뿐만 아니라 변형체에서도 충분히 활용될 수 있는 방법이며, 다양한 모델에서도 정확하게 샘플링하고 거리 값을 나타낼 수 있는지 다양한 실험 결과를 통해 알고리즘의 안정성을 보여준다.

편광 기반 주파수 스캐닝 간섭 시스템 및 병렬 프로그래밍 기반 측정 고속화 (A Polarization-based Frequency Scanning Interferometer and the Measurement Processing Acceleration based on Parallel Programing)

  • 이승현;김민영
    • 전자공학회논문지
    • /
    • 제50권8호
    • /
    • pp.253-263
    • /
    • 2013
  • 광학측정기법 중 주파수 스캐닝 간섭계는 기존 3차원 측정기법과 비교하여 광학 하드웨어 구조가 측정과정동안 고정되어 있어, 대물렌즈나 대상물체의 수직 스캐닝 없이 단지 광원의 주파수만 특정한 주파수 밴드내에서 스캐닝 하여 대상물체에 주사되므로, 우수한 광학 측정 성능을 보인다. 광원의 주파수를 변경하여 간섭계를 통해 간섭 영상을 획득한 후, 밝기 영상 데이터를 주파수 영역 데이터로 변환하고, 고속 푸리에 변환을 통한 주파수 분석을 이용하여 대상 물체의 높이 정보를 계측한다. 하지만, 대상물체의 광학적 특성에 기인한 광학노이즈와 주파수 스캐닝동안 획득되는 영상의 수에 따라 증가하는 영상처리시간은 여전히 주파수 스캐닝 간섭계의 문제이다. 이를 위해, 1) 편광기반 주파수 스캐닝 간섭계가 광학 노이즈에 대한 강인성을 확보하기 위해 제안되어진다. 시스템은 주파수 변조 레이저, 참조 거울 앞단의 ${\lambda}/4$ 판, 대상 물체 앞단의 ${\lambda}/4$ 판, 편광 광분배기, 이미지 센서 앞단의 편광기, 광섬유 광원 앞단의 편광기, 편광 광분배기와 광원의 편광기 사이에 위치하는 ${\lambda}/2$ 판으로 구성된다. 제안된 시스템을 이용하여, 편광을 기반으로한 간섭이미지의 대조대비를 조절할 수 있다. 2) 신호처리 고속화 방법이 간섭계 시스템을 위해 제안되며, 이는 그래픽 처리 유닛(GPU)과 같은 병렬처리 하드웨어와 계산 통합 기기 구조(CUDA)와 같은 프로그래밍 언어로 구현된다. 제안된 방법을 통해 신호처리 시간은 실시간 처리가 가능한 작업시간을 얻을 수 있었다. 최종적으로 다양한 실험을 통해 제안된 시스템을 정확도와 신호처리 시간의 관점으로 평가하였고, 실험결과를 통해 제안한 시스템이 광학측정기법의 실적용을 위해 효율적임을 보였다.

GPGPU의 멀티 쓰레드를 활용한 고성능 병렬 LU 분해 프로그램의 구현 (Implementation of high performance parallel LU factorization program for multi-threads on GPGPUs)

  • 신봉희;김영태
    • 인터넷정보학회논문지
    • /
    • 제12권3호
    • /
    • pp.131-137
    • /
    • 2011
  • GPGPU는 원래 그래픽 계산을 위한 프로세서인 GPU를 일반 계산에 활용하여 저전력으로 고성능의 효율을 보이는 신개념의 계산 장치이다. 본 논문에서는 GPGPU에서 계산을 하기 위한 병렬 LU 분해법의 알고리즘을 제안하였다. Nvidia GPGPU에서 프로그램을 실행하기 위한 CUDA 계산 환경에서는 계산하고자 하는 데이터 도메인을 블록으로 나누고 각 블록을 쓰레드들이 동시에 계산을 하는데, 이 때 블록들의 계산 순서는 무작위로 진행이 되기 때문에 블록간의 데이터 의존성을 가지는 LU 분해 프로그램에서는 결과가 정확하지 않게 된다. 본 논문에서는 병렬 LU 분해법에서 블록간의 계산 순서를 인위적으로 정하는 구현 방식을 제안하며 아울러 LU 분해법의 부분 피벗팅을 계산하기 위한 병렬 reduction 알고리즘도 제안한다. 또한 구현된 병렬프로그램의 성능 분석을 통하여 GPGPU의 멀티 쓰레드 기반으로 고성능으로 계산할 수 있는 병렬프로그램의 효율성을 보인다.

처리 속도 향상을 위해 OpenCV CUDA를 활용한 도로 영역 검출 (A Road Region Extraction Using OpenCV CUDA To Advance The Processing Speed)

  • 이태희;황보현;윤종호;최명렬
    • 디지털융복합연구
    • /
    • 제12권6호
    • /
    • pp.231-236
    • /
    • 2014
  • 본 논문은 호스트(PC) 기반의 직렬처리 방식으로 도로영역 추출 방식에 디바이스(Graphic Card) 기반의 병렬 처리 방식을 추가함으로써 보다 향상된 처리 속도를 가지는 도로영역검출을 제안하였다. OpenCV CUDA는 기존의 OpenCV와 CUDA를 연동하여 병렬 처리 방식의 많은 함수들을 지원한다. 또한 OpenCV와 CUDA 연동 시 환경 설정이 완료된 OpenCV CUDA 함수들은 사용자의 디바이스(Graphic Card) 사양에 최적화된다. 따라서 OpenCV CUDA 사용은 알고리즘 검증 및 시뮬레이션 결과 도출의 용이성을 제공한다. 제안된 방법은 OpenCV CUDA 와 NVIDIA GeForce GTX 560 Ti 모델의 그래픽 카드를 사용하여 기존 방식보다 3.09배 빠른 처리 속도를 가짐을 실험을 통해 검증한다.

CUDA를 이용한 Convolutional Neural Network의 효율적인 구현 (Efficient Implementation of Convolutional Neural Network Using CUDA)

  • 기철민;조태훈
    • 한국정보통신학회논문지
    • /
    • 제21권6호
    • /
    • pp.1143-1148
    • /
    • 2017
  • 현재 인공지능과 딥 러닝이 사회적인 이슈로 떠오르고 있는 추세이며, 다양한 분야에 이 기술들을 응용하고 있다. 인공지능 분야의 여러 알고리즘들 중에서 각광받는 방법 중 하나는 Convolutional Neural Network이다. Convolutional Neural Network를 적은 양의 데이터에서 이용하거나, Layer의 구조가 복잡하지 않은 경우에는 학습시간이 길지 않아 속도에 크게 신경 쓰지 않아도 되지만, 학습 데이터의 크기가 크고, Layer의 구조가 복잡할수록 학습시간이 상당히 오래 걸린다. 이로 인해 GPU를 이용하여 병렬처리를 하는 방법을 많이 사용하는데, 본 논문에서는 CUDA를 이용한 Convolutional Neural Network를 구현하였으며, 비교에 사용한 Framework/Program들 보다 학습속도가 빨라지고 큰 데이터를 학습 시키는데 더욱 효율적으로 진행하도록 한다.