• 제목/요약/키워드: BSPE

검색결과 2건 처리시간 0.015초

딥러닝을 하드웨어 가속기를 위한 저전력 BSPE Core 구현 (Implementation of low power BSPE Core for deep learning hardware accelerators)

  • 조철원;이광엽;남기훈
    • 전기전자학회논문지
    • /
    • 제24권3호
    • /
    • pp.895-900
    • /
    • 2020
  • 본 논문에서 BSPE는 전력이 많이 소모되는 기존의 곱셈 알고리즘을 대체했다. Bit-serial Multiplier를 이용해 하드웨어 자원을 줄였으며, 메모리 사용량을 줄이기 위해 가변적인 정수 형태의 데이터를 사용한다. 또한, 부분 합을 더하는 MOA(Multi Operand Adder)에 LOA(Lower-part OR Approximation)를 적용해서 MOA의 자원 사용량 및 전력사용량을 줄였다. 따라서 기존 MBS(Multiplication by Barrel Shifter)보다 하드웨어 자원과 전력이 각각 44%와 42%가 감소했다. 또한, BSPE Core를 위한 hardware architecture design을 제안한다.

데이터 재사용 기법을 이용한 저 면적 DNN Core (Low-area DNN Core using data reuse technique)

  • 조철원;이광엽;김치용
    • 전기전자학회논문지
    • /
    • 제25권1호
    • /
    • pp.229-233
    • /
    • 2021
  • 임베디드 환경에서의 NPU는 적은 하드웨어 자원으로 딥러닝 알고리즘을 수행한다. 데이터를 재사용하는 기법을 활용하면 적은 자원으로 딥러닝 알고리즘을 효율적으로 연산할 수 있다. 선행연구에서는 데이터 재사용을 위해 ScratchPad에서 shifter를 사용해 데이터를 재사용한다. 하지만 ScratchPad의 Bandwidth가 커짐에 따라 shifter 역시 많은 자원을 소모한다. 따라서 Buffer Round Robin방식을 사용한 데이터 재사용 기법을 제시한다. 본 논문에서 제시하는 Buffer Round Robin 방식을 사용하여 기존의 방식보다 약 4.7%의 Chip Area를 줄일 수 있었다.