• 제목/요약/키워드: Low computational complexity

검색결과 491건 처리시간 0.038초

OpenCL을 이용한 내장형 GPU에서의 의학영상처리 가속화 (Accelerating Medical Image Processing on Integrated GPU Using OpenCL)

  • 김범준;신병석
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권2호
    • /
    • pp.1-10
    • /
    • 2017
  • 잡음이 있거나 해상도가 낮은 의료 영상의 화질을 개선하기 위해 다양한 필터를 적용한다. 이것은 환자의 방사선 피폭량을 줄이고, 기존에 사용하던 영상 촬영기기의 활용도를 높이기 위해 반드시 필요한 작업이다. 기존 방법에서는 PC의 CPU를 이용하여 필터링하는 것이 일반적이었다. 하지만 병원에서 사용하는 PC의 CPU 성능만으로는 해상도가 높은 인체 영상에 각종 연산 및 필터를 적용하여 실시간으로 결과를 만들어 내기는 어렵다. 본 논문에서는 CPU 안에 탑재되어 있는 인텔 내장 GPU의 구조와 성능을 분석하고 이를 기반으로 하여 OpenCL 병렬처리 기능을 적용한 영상 필터링을 수행하는 방법을 제안하였다. 이를 통해 의료 영상에 높은 연산량을 가지는 복잡한 필터를 적용하여 고화질의 결과물을 실시간에 생성할 수 있도록 하였다.

Bluetooth 응용을 위한 MUSIC 알고리즘 기반 DoA 추정기의 설계 (Design of MUSIC-based DoA Estimator for Bluetooth Applications)

  • 김종민;오동재;박상훈;이승혁;정윤호
    • 전기전자학회논문지
    • /
    • 제24권1호
    • /
    • pp.339-346
    • /
    • 2020
  • 본 논문에서는 multiple signal classification(MUSIC) 알고리즘을 바탕으로 Bluetooth 저전력 응용 기술에 적용 가능하도록 설계한 각도 추정기를 제안하고, 이를 FPGA로 구현한 결과를 제시한다. MUSIC 알고리즘은 높은 정확도에 따른 많은 연산량이 요구되므로 이를 하드웨어 고속설계 하였고, 실내 시스템의 다양한 해상도의 요구에 대응하기 위해 snapshot 가변을 가능하게 설계하였다. Xilinx zynq-7000으로 구현한 결과 9,081개의 LUTs로 구현함을 확인하였고, 100MHz의 동작주파수로 동작이 가능하도록 설계하였다.

OFDM 시스템에서 비중복 프리코딩을 이용한 미상 채널 추정 방법 (Non-redundant Precoding Based Blind Channel Estimation Scheme for OFDM Systems)

  • 서방원
    • 한국통신학회논문지
    • /
    • 제37권6A호
    • /
    • pp.450-457
    • /
    • 2012
  • 직교 주파수 분할 다중화 시스템에서 비중복 프리코딩을 이용한 미상 채널 추정 방식을 제안한다. 제안한 방식에서는 수신 신호에 대한 공분산 행렬을 구하고, 그 행렬의 각 원소들을 프리코딩 행렬의 각 원소로 나눔으로써 변형된 공분산 행렬을 구한다. 이 행렬의 최대 고유값에 해당하는 고유벡터를 구함으로써 채널 계수들을 추정하게 된다. 이 때, 고유 벡터를 구하기 위하여 많은 계산량을 필요로 하는 고유치 분해 기법 대신에 간단한 파워 기법을 적용함으로써 계산량을 크게 줄이게 된다. 제안하는 채널 추정 방식의 평균 제곱 오차에 대한 이론적인 값을 유도하고, 모의실험 결과와 비교함으로써 유도한 값이 실험 결과와 일치한다는 것을 확인한다. 또한, 모의실험을 통해서, 제안한 방법이 기존 방법들보다 더 우수한 채널 추정 성능과 비트 오율 성능을 나타낸다는 것을 보인다.

스마트폰 적용을 위한 휴먼 바디 추적 방법에 대한 연구 (A Study on Human Body Tracking Method for Application of Smartphones)

  • 김범영;최유진;장성욱;김윤상
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 추계학술대회
    • /
    • pp.465-469
    • /
    • 2017
  • 본 논문에서는 스마트폰 적용을 위한 휴먼 바디 추적 방법을 제안한다. 기존 휴먼 바디 추적 방법은 크게 센서 기반 방법과 비전 기반 방법으로 구분된다. 센서 기반 방법은 위치 정보의 누적 오차로 인해 추적 성능이 떨어지는 단점이 있다. 비전 기반 방법은 누적 오차가 없지만 스마트폰 적용을 위한 연산량 감소가 요구되고 있다. 본 논문에서는 스마트폰 적용을 위한 휴먼 바디 추적 방법으로 개선된 HOG 알고리즘을 이용한다. 개선된 HOG 알고리즘은 다운샘플링과 프레임 샘플링을 통해 구현된다. 다운샘플링에는 가우시안 피라미드가 적용되고, 프레임 샘플링에는 uniform sampling이 적용된다. 제안한 알고리즘을 2개 기기, 4개 해상도, 4개 프레임에서 측정하였고, 실시간으로 적용이 가능한 다운샘플링과 프레임 샘플링 파라미터 중에서 가장 검출률이 좋은 값을 도출하였다.

  • PDF

CA Joint Resource Allocation Algorithm Based on QoE Weight

  • LIU, Jun-Xia;JIA, Zhen-Hong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권5호
    • /
    • pp.2233-2252
    • /
    • 2018
  • For the problem of cross-layer joint resource allocation (JRA) in the Long-Term Evolution (LTE)-Advanced standard using carrier aggregation (CA) technology, it is difficult to obtain the optimal resource allocation scheme. This paper proposes a joint resource allocation algorithm based on the weights of user's average quality of experience (JRA-WQOE). In contrast to prevalent algorithms, the proposed method can satisfy the carrier aggregation abilities of different users and consider user fairness. An optimization model is established by considering the user quality of experience (QoE) with the aim of maximizing the total user rate. In this model, user QoE is quantified by the mean opinion score (MOS) model, where the average MOS value of users is defined as the weight factor of the optimization model. The JRA-WQOE algorithm consists of the iteration of two algorithms, a component carrier (CC) and resource block (RB) allocation algorithm called DABC-CCRBA and a subgradient power allocation algorithm called SPA. The former is used to dynamically allocate CC and RB for users with different carrier aggregation capacities, and the latter, which is based on the Lagrangian dual method, is used to optimize the power allocation process. Simulation results showed that the proposed JRA-WQOE algorithm has low computational complexity and fast convergence. Compared with existing algorithms, it affords obvious advantages such as improving the average throughput and fairness to users. With varying numbers of users and signal-to-noise ratios (SNRs), the proposed algorithm achieved higher average QoE values than prevalent algorithms.

비트패턴 기반 움직임 추정을 위한 고속의 가변 블록 정합 알고리즘 (Fast Variable-size Block Matching Algorithm for Motion Estimation Based on Bit-patterns)

  • Kwon, Heak-Bong;Song, Young-Jun
    • 한국콘텐츠학회논문지
    • /
    • 제3권2호
    • /
    • pp.11-18
    • /
    • 2003
  • 본 논문에서는 비트패턴을 기반으로 한 고속의 가변 블록 움직임 예측 알고리즘을 제안한다. 제안된 방법은 블록내의 평균값을 기준으로 8bit 화소값을 0과 1의 비트패턴으로 변환한 후 블록의 움직임 예측을 수행한다. 비트변환을 통한 영상의 단순화는 움직임 추정의 계산적 부담을 감소시켜 빠른 탐색을 가능하게 한다. 그리고 블록 내의 움직임 정도를 미리 판별하여 이를 기반으로 한 적응적 탐색이 불필요한 탐색을 제거하고 움직임이 큰 블록에서는 정합(matching) 과정을 심화시켜 보다 빠르고 정확한 움직임 예측을 수행한다. 본 제안된 방식을 가지고 실험한 결과, 한 프레임(frame)당 적은 수의 블록으로 고정된 크기의 블록을 가진 전역탐색 블록 정합 알고리즘(full search block matching algorithm; FS-BMA)보다 예측 에러를 적게 발생시켜 평균적으로 0.5dB 정도의 PSNR 개선을 가져왔다.

  • PDF

Sensitivity analysis based on complex variables in FEM for linear structures

  • Azqandi, Mojtaba Sheikhi;Hassanzadeh, Mahdi;Arjmand, Mohammad
    • Advances in Computational Design
    • /
    • 제4권1호
    • /
    • pp.15-32
    • /
    • 2019
  • One of the efficient and useful tools to achieve the optimal design of structures is employing the sensitivity analysis in the finite element model. In the numerical optimization process, often the semi-analytical method is used for estimation of derivatives of the objective function with respect to design variables. Numerical methods for calculation of sensitivities are susceptible to the step size in design parameters perturbation and this is one of the great disadvantages of these methods. This article uses complex variables method to calculate the sensitivity analysis and combine it with discrete sensitivity analysis. Finally, it provides a new method to obtain the sensitivity analysis for linear structures. The use of complex variables method for sensitivity analysis has several advantages compared to other numerical methods. Implementing the finite element to calculate first derivatives of sensitivity using this method has no complexity and only requires the change in finite element meshing in the imaginary axis. This means that the real value of coordinates does not change. Second, this method has the lower dependency on the step size. In this research, the process of sensitivity analysis calculation using a finite element model based on complex variables is explained for linear problems, and some examples that have known analytical solution are solved. Results obtained by using the presented method in comparison with exact solution and also finite difference method indicate the excellent efficiency of the proposed method, and it can predict the sustainable and accurate results with the several different step sizes, despite low dependence on step size.

효율적인 객체 검출을 위해 Attention Process를 적용한 경량화 모델에 대한 연구 (A Study on Lightweight Model with Attention Process for Efficient Object Detection)

  • 박찬수;이상훈;한현호
    • 디지털융복합연구
    • /
    • 제19권5호
    • /
    • pp.307-313
    • /
    • 2021
  • 본 논문에서는 기존 객체 검출 방법 대비 매개변수를 감소시킨 경량화 네트워크를 제안하였다. 현재 사용되는 검출 모델의 경우 정확도 향상을 위해 네트워크 복잡도를 크게 늘렸다. 따라서, 제안하는 네트워크는 EfficientNet을 특징 추출 네트워크로 사용하였으며, 후속 레이어는 저수준 세부 특징과 고수준의 의미론적 특징을 활용하기 위해 피라미드 구조로 형성하였다. 피라미드 구조 사이에 attention process를 적용하여 예측에 불필요한 노이즈를 억제하였다. 네트워크의 모든 연산 과정은 depth-wise 및 point-wise 컨볼루션으로 대체하여 연산량을 최소화하였다. 제안하는 네트워크는 PASCAL VOC 데이터셋으로 학습 및 평가하였다. 실험을 통해 융합된 특징은 정제 과정을 거쳐 다양한 객체에 대해 견고한 특성을 보였다. CNN 기반 검출 모델과 비교하였을 때 적은 연산량으로 검출 정확도가 향상되었다. 향후 연구로 객체의 크기에 맞게 앵커의 비율을 조절할 필요성이 사료된다.

IVC 코덱을 위한 선택적 암호화 및 복호화 방법 (Selective Encryption and Decryption Method for IVC Codec)

  • 이민구;김규태;장의선
    • 방송공학회논문지
    • /
    • 제25권6호
    • /
    • pp.1013-1016
    • /
    • 2020
  • 본 논문에서는 IVC 비트스트림의 시작 코드(Start Code)를 이용한 선택적 암호화 및 복호화 방식을 제안한다. 비디오를 위한 기존의 암호화 방식은 크게 전역 암호화 알고리즘(Naive Encryption Algorithm, NEA)과 선택적 암호화 알고리즘(Selective Encryption Algorithm, SEA)의 2가지 방식으로 분류한다. NEA 방식은 비트스트림의 모든 데이터를 암호화 하기 때문에 보안성이 높지만 계산 복잡도 역시 높은 문제가 있다. SEA 방식은 비트스트림의 일부를 암호화 하여 암호화 속도를 NEA 방식에 비해 개선하였지만 상대적으로 보안성이 낮아지는 문제가 있다. 제안 방식은 IVC 비트스트림의 시작코드를 이용하여 기존 SEA 방식의 보안성을 높이면서 암호화 속도를 개선하였다. 실험 결과 제안 방식은 NEA 방식에 비하여 평균적으로 암호화 속도는 96%, 복호화 속도는 98% 줄일 수 있었다.

2D-MELPP: A two dimensional matrix exponential based extension of locality preserving projections for dimensional reduction

  • Xiong, Zixun;Wan, Minghua;Xue, Rui;Yang, Guowei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권9호
    • /
    • pp.2991-3007
    • /
    • 2022
  • Two dimensional locality preserving projections (2D-LPP) is an improved algorithm of 2D image to solve the small sample size (SSS) problems which locality preserving projections (LPP) meets. It's able to find the low dimension manifold mapping that not only preserves local information but also detects manifold embedded in original data spaces. However, 2D-LPP is simple and elegant. So, inspired by the comparison experiments between two dimensional linear discriminant analysis (2D-LDA) and linear discriminant analysis (LDA) which indicated that matrix based methods don't always perform better even when training samples are limited, we surmise 2D-LPP may meet the same limitation as 2D-LDA and propose a novel matrix exponential method to enhance the performance of 2D-LPP. 2D-MELPP is equivalent to employing distance diffusion mapping to transform original images into a new space, and margins between labels are broadened, which is beneficial for solving classification problems. Nonetheless, the computational time complexity of 2D-MELPP is extremely high. In this paper, we replace some of matrix multiplications with multiple multiplications to save the memory cost and provide an efficient way for solving 2D-MELPP. We test it on public databases: random 3D data set, ORL, AR face database and Polyu Palmprint database and compare it with other 2D methods like 2D-LDA, 2D-LPP and 1D methods like LPP and exponential locality preserving projections (ELPP), finding it outperforms than others in recognition accuracy. We also compare different dimensions of projection vector and record the cost time on the ORL, AR face database and Polyu Palmprint database. The experiment results above proves that our advanced algorithm has a better performance on 3 independent public databases.