• 제목/요약/키워드: Large-memory data processing

검색결과 192건 처리시간 0.029초

AB9: A neural processor for inference acceleration

  • Cho, Yong Cheol Peter;Chung, Jaehoon;Yang, Jeongmin;Lyuh, Chun-Gi;Kim, HyunMi;Kim, Chan;Ham, Je-seok;Choi, Minseok;Shin, Kyoungseon;Han, Jinho;Kwon, Youngsu
    • ETRI Journal
    • /
    • 제42권4호
    • /
    • pp.491-504
    • /
    • 2020
  • We present AB9, a neural processor for inference acceleration. AB9 consists of a systolic tensor core (STC) neural network accelerator designed to accelerate artificial intelligence applications by exploiting the data reuse and parallelism characteristics inherent in neural networks while providing fast access to large on-chip memory. Complementing the hardware is an intuitive and user-friendly development environment that includes a simulator and an implementation flow that provides a high degree of programmability with a short development time. Along with a 40-TFLOP STC that includes 32k arithmetic units and over 36 MB of on-chip SRAM, our baseline implementation of AB9 consists of a 1-GHz quad-core setup with other various industry-standard peripheral intellectual properties. The acceleration performance and power efficiency were evaluated using YOLOv2, and the results show that AB9 has superior performance and power efficiency to that of a general-purpose graphics processing unit implementation. AB9 has been taped out in the TSMC 28-nm process with a chip size of 17 × 23 ㎟. Delivery is expected later this year.

보이스 전보 시스템 구현을 위한 저가형 음성파형 부호화 알고리즘 (On a Speech Coding Algorithm for Low Cost Implementation of Voice Telegram System)

  • 나덕수;민소연;배명진
    • 한국음향학회지
    • /
    • 제19권2호
    • /
    • pp.101-105
    • /
    • 2000
  • 전보는 우리에게 아주 필요한 생활수단으로 긴급한 내용을 전달하거나, 바쁜 생활을 대신하여 애경사를 맞은 상대방에게 뜻을 전달하는 중요한 수단으로 활용되고 있다. 전보를 처리하는 과정이 첨단 정보통신의 발달로 인해 점점 편리해 지고 있는 반면 전보의 내용은 여전히 문자위주의 정보전달에서 벗어나지 못하고 있다. 보이스 전보는 사용자의 목소리를 문자와 함께 전달하는 것이다. 목소리가 함께 전달됨으로써 발신자의 정감과 분위기를 수신자에게 전달하여 보다 다양한 의미의 메시지를 알릴 수 있다. 그러나 목소리 정보는 데이터량이 많아 그대로 사용하게 되면 큰 메모리와 고가의 프로세서가 필요하게 된다. 본 논문에서는 보이스 전보 시스템에 필요한 간단하고 저가인 음성파형 부호화 알고리즘을 새로이 제안한다. 먼저 유성음 부분에서, 파형의 피치 주기별로 유사도를 측정하여 유사도가 높은 파형은 피치와 진폭 값만 저장하여 압축하고 유사도가 낮은 파형은 형태를 저장한다. 실험결과 45%로 압축할 때 MOS 4의 음질을 얻을 수 있었다.

  • PDF

지수적 가중치를 적용한 협력적 상품추천시스템 (A Recommendation System of Exponentially Weighted Collaborative Filtering for Products in Electronic Commerce)

  • 이경희;한정혜;임춘성
    • 정보처리학회논문지B
    • /
    • 제8B권6호
    • /
    • pp.625-632
    • /
    • 2001
  • 전자상점에서 이루어지는 고객의 구매패턴이 온라인 상에서 데이터베이스화되어, 이를 통하여 고객의 취향에 맞는 상품을 제공할 수 있는 많은 알고리즘이 연구되고 있다. 이러한 알고리즘은 전자상점에서 고객의 개별특성을 고려한 상품을 제공하기 위하여, 고객정보 데이터베이스와 거래정보 데이터베이스로부터 연관규칙 등을 추출하여 사용한다. 그러나 시간의 흐름에 민감한 계절상품이나 특선상품과 같이 전자상점의 거래량에 크게 직결될 수 있는 상품에도 기존의 시간을 고려하지 않은 알고리즘을 적용한다면 추천성공률이 떨어질 것이다. 따라서 본 논문에서는 시간의 영향을 많이 받는 상품추천을 위하여, 최근 전자상점 추천시스템으로 효과적인 아이템 기반 협력알고리즘에 지수적 가중치를 적용한 협력적 여과추천(EWCFR) 알고리즘을 제안한다. 또한 이러한 추천시스템이 대용량의 고객데이터와 상품데이터에 대한 연산을 수행하고 다수의 고객에게 실시간으로 서비스를 제공하여야 하므로, XML기반의 MMDB를 활용한 전자상거래 시스템과 알고리즘을 제안한다.

  • PDF

DM-Cache를 이용해 구현한 SSD 캐시의 성능 평가 (Performance Evaluation of SSD Cache Based on DM-Cache)

  • 이재면;강경태
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제3권11호
    • /
    • pp.409-418
    • /
    • 2014
  • 최근 클라우드 서비스와 소셜 네트워크 서비스가 활성화되면서 스토리지 서버에 저장해야 할 데이터의 용량이 급격히 증가하고 있으며, 사용자의 고품질 미디어 데이터에 대한 높은 수요는 이러한 경향을 더더욱 가속화하고 있다. 이와 더불어 데이터의 효율적 참조를 통한 처리시간 감소는 이미 과거로부터 꾸준히 요구되어온 시스템 설계 주 고려사항이다. 이런 이유로 하이브리드 디스크의 효율적인 사용에 대한 많은 기술연구가 진행되고 있다. 그 핵심이라고 할 수 있는 리눅스 기반 SSD 캐시 기법은 내장된 DM-cache를 활용하여 구현하는데, 현재 이에 대한 최적화 관련 정책 연구가 많이 부족한 실정이다. 본 연구에서는, 다양한 환경에서 성능 평가를 통하여 현재 제공되고 있는 DM-cache의 문제점을 파악하였다. 그 결과, 일반 운영체제에서 실험한 DM-cache는 읽기 명령 시 나름대로의 효과를 보고 있지만, 특히 가상 머신이 탑재된 운영체제 환경에서는 DM-cache의 사용으로 인한 성능 개선을 찾을 수 없었으며 오히려 캐시 오버헤드로 성능 저하가 발생함을 확인하였다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.

영역 질의의 효과적인 처리를 위한 궤적 인덱싱 (Trajectory Indexing for Efficient Processing of Range Queries)

  • 차창일;김상욱;원정임
    • 정보처리학회논문지D
    • /
    • 제16D권4호
    • /
    • pp.487-496
    • /
    • 2009
  • 본 연구에서는 대용량 궤적 데이터베이스에서 영역 질의를 효과적으로 처리하기 위한 인덱싱 기법에 대하여 논의한다. 먼저, 기존 인덱싱기법의 문제점을 지적하고, 이러한 문제점을 해결하는 새로운 기법을 제안한다. 제안된 기법에서는 우선 시간 차원을 다수의 시간 구간으로 분할하고, 인덱싱의 대상이 되는 전체 라인 세그먼트들을 시간 구간별로 구분한다. 각 시간 구간에 속하는 라인 세그먼트들에 대하여 별도의 인덱스를 구축한다. 또한, 디스크에서 관리되는 과거 시간 구간에 대한 인덱스들과는 달리 최근 시간 구간에 대한 인덱스는 메인 메모리상에 관리함으로써 삽입과 검색의 성능을 크게 개선할 수 있다. 각 시간 구간에 속하는 라인 세그먼트들은 다음과 같은 방식으로 인덱스를 구축한다. 먼저, 2D-트리를 이용하여 전체 공간 차원을 유사한 수의 라인 세그먼트들이 배정되도록 다수의 셀들로 분할한다. 또한, 분할된 각 셀마다 시공간 차원 (x, y, t)에 대한 별도의 3차원 $R^*$-트리를 두어 보다 상세한 인덱싱을 지원한다. 이와 같은 다양한 전략을 이용함으로써 기존 기법의 문제점들을 해결 할 수 있다. 다양한 실험을 통하여 제안된 기법의 우수성을 정량적으로 검증한다. 실험 결과에 의하면, 기존 기법에 비하여 작은 인덱스 구조를 갖으면서도 검색 성능면에서 3$\sim$10배까지의 성능 향상 효과를 갖는 것으로 나타났다.

효율적인 분산 VOD 서버를 위한 Channel Bonding 기반 M-VIA 및 인터벌 캐쉬의 활용 (Utilizing Channel Bonding-based M-n and Interval Cache on a Distributed VOD Server)

  • 정상화;오수철;윤원주;김현필;최영인
    • 정보처리학회논문지A
    • /
    • 제12A권7호
    • /
    • pp.627-636
    • /
    • 2005
  • 본 논문에서는 분산 VOD 서버의 내부 통신망에 발생하는 부하를 줄이기 위해 channel bonding 기반 M-VIA 및 인터벌 캐쉬를 적용하는 방법을 제안한다. 분산 VOD 서버의 각 노드는 클러스터상에 분산 저장된 비디오 데이터를 서버 내부 통신망을 사용하여 전송받아 사용자에게 제공한다. 이 때, 대량의 비디오 데이터가 서버 내부 통신망을 통하여 전송됨으로 서버 내부 통신망에 부하가 증가한다. 본 논문에서는 서버 내부 통신망의 부하를 감소시키기 위해서 두 가지 기법을 적용하였다. 첫째, channel bonding을 지원하는 M-VIA를 개발하여 Gigabit Ethernet기반 서버 내부 통신망에 적용하였다. M-VIA는 TCP/IP의 통신 오버헤드를 제거한 사용자 수준 통신 프로토콜로 통신에 소요되는 시간을 감소시켜준다. 이러한 M-VIA에 복수개의 네트워크 카드를 사용하여 통신이 가능하게 하는 channel bonding 기법을 적용함으로써 서버 내부 통신망 자체의 대역폭을 증가시켰다. 두번째, 인터벌 캐쉬 기법을 적용하여 원격 서버 노드에서 전송 받은 비디오 데이터를 지역 노드의 메인 메모리에 캐쉬함으로써, 서버 내부 통신망에 발생하는 통신량을 감소시켰다. 실험을 통하여 분산 VOD 서버의 성능을 측정하였으며, TCP/IP에 기반하고 인터벌 캐쉬를 지원하지 않는 기존의 분산 VOD 서버와 성능을 비교하였다. 실험결과, channel bonding 기반 M-VIA의 적용으로 약$20\%$의 성능 향상, 그리고 인터벌 캐쉬 기법을 적용하여 추가로 약 $10\%$의 성능 향상이 생겨 총 $30\%$의 성능 향상을 얻을 수 있었다.

디지털 자동차운행기록계에서 안정적인 데이터 저장을 위한 설계 및 구현 (A Design and Implementation for a Reliable Data Storage in a Digital Tachograph)

  • 백승훈;손명희
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제1권2호
    • /
    • pp.71-78
    • /
    • 2012
  • 디지털 자동차운행기록계는 교통안전법에 따라 자동차의 운행상황과 교통사고 상황과 함께 자동차의 속도, 거리, 브레이크 상황, 가속도, GPS 위치 등을 자동적으로 저장장치에 기록하는 장치이다. 유럽에서는 디지털 자동차운행기록계 장착이 2005년부터 모든 트럭에게 의무화되어 있고, 대한민국은 2011년부터 신규로 등록되는 사업용 차량은 의무적으로 장착해야 하며, 해가 지날수록 의무적으로 장착해야하는 자동차의 범위가 확대되어가고 있다. 이 장치는 운전자의 일일 운행 현황 분석 및 사고 분석을 위하여 사용된다. 자동차 사고는 장치의 안정성을 예측불가능하게 한다. 그래서 불확실한 상황아래에서 최대한 안정적으로 데이터를 저장할 수 있는 기술은 매우 중요하다. 우리는 실제 디지털 자동차 운행기록계를 설계하고 구현하였다. 본 논문은 이 장치의 설계와 구현에 있어서 저비용의 하드웨어 자원으로 안전하게 대용량 데이터를 저장하기 위해서 저용량이지만 안정적인 1차 저장장치와 대용량을 저비용으로 구현한 2차 저장장치로 구성된 계층적 저장 기법을 제안한다. 1차 저장장치는 용량이 SLC 낸드 플래시 메모리를 사용하여 로그 구조 형식으로 데이터를 저장한다. 로그 구조의 단점인 느린 부팅 문제를 해결하기 위해 역방향 부분 검색 기법을 제시한다. 이 방법은 1차 저장장치의 부팅 시간을 50분의 1로 감소시킨다. 추가적으로 사고 순간의 데이터를 신속하게 데이터를 저장하는 기법도 제시한다. 이 방법으로 저비용의 내장형 시스템에서 사고순간의 운행기록 시간을 일반적인 방법의 저장시간의 1/20만큼 단축하였다.

임베디드 시스템상에서 Lightweight TCP/IP를 이용한 TCP/IP Offload Engine의 구현 (Implementation of a TCP/IP Offload Engine Using Lightweight TCP/IP on an Embedded System)

  • 윤인수;정상화;최봉식;전용태
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권7호
    • /
    • pp.413-420
    • /
    • 2006
  • 현재 네트워크 기술이 기가비트급의 속도를 넘어 급속히 발전하고 있다. 그러나 호스트에서 TCP/IP를 처리하는 기존의 방식은 고속 네트워크 환경에서 호스트 CPU에 많은 부하를 야기한다. 이러한 문제를 해결하기 위해 네트워크 어댑터에서 TCP/IP를 처리하는 TCP/IP Offload Engine(TOE)에 대한 연구가 최근 활발히 진행되고 있다. 본 논문에서는 두 가지의 소프트웨어 기반 TOE 를 기가비트 이더넷 환경 하에서 개발하였다. 하나는 임베디드 리눅스를 사용하여 구현한 TOE이고, 다른 하나는 Lightweight TCP/IP(lwIP)를 사용하여 구현한 TOE이다. 임베디드 리눅스를 사용한 TOE는 문맥 전환 (context switch), 프로세스 대기 및 활성화 그리고 운영체제 자체의 부하로 인하여 62Mbps의 낮은 대역폭을 보였다. 본 논문에서는 임베디드 리녹스를 사용한 TOE의 성능을 개선하기 위하여 운영체제 없이 lwIP를 이용하여 TOE를 구현하였다. 그리고 이러한 lwIP를 이용한 TOE 의 성능을 높이기 위하여 lwIP의 메모리 복사를 제거하고, 지연 ACK 기능과 TCP Segmentation Offload(TSO)기능을 추가하였으며, lwIP가 큰 데이타를 전송할 수 있도록 수정하였다. 그 결과, lwIP를 이용한 TOE는 194Mbps의 대역폭을 보였다.

DCT 직류 값을 이용한 움직임 추정기 설계에 관한 연구 (A Study on Motion Estimator Design Using DCT DC Value)

  • 이권철;박종진;조원경
    • 대한전자공학회논문지SP
    • /
    • 제38권3호
    • /
    • pp.258-268
    • /
    • 2001
  • 정보량이 많은 고화질의 동영상을 실시간으로 전송하기 위하여 압축 알고리즘을 필수적으로 사용하고 있으며, 시간적 중복성을 제거하는 동영상의 압축방법은 움직임 추정 알고리즘을 사용한다. 본 연구에서 설계하고자 하는 움직임 추정기는 블록정합 알고리즘이며, MPEG 부호기에서 사용되는 DCT 연산 결과인 DC 값을 이용하여 화면의 밝기를 판단한다. 움직임 추정기는 휘도 신호 8비트 모두를 사용하지 않고, 화면 밝기에 따른 비트 플레인(bit plane)에서 3비트만 선택하는 비교선택기를 이용한다. 본 연구에서 제안한 비교 선택기는 I-Picture만을 계산한다. I-Picture에 의해 계산된 선택 비트는 I, P와 B Picture의 움직임 추정 연산에 사용함으로서 움직임 추정기의 크기를 줄일 수 있는 구조를 제안하였다. 제안된 움직임 추정기의 고찰을 위하여 실험에 사용된 표준 동영상의 해상도는 352×288이며, DCT 연산의 처리 블록은 8×8이며, 탐색 영역은 23×23이다. 제안된 알고리즘은 C언어로 모델링하였으며, 기존 완전탐색방법과 PSNR을 비교한 결과 사람의 시각으로 거의 구별할 수 없는 작은 차이(0~0.83dB)가 나타남을 알 수 있었다. 본 연구에서 제안한 움직임 추정기의 하드웨어 크기는 기존 구조Ⅰ보다 38.3%, 기존 구조Ⅱ보다 30.7% 줄일 수 있었고, 메모리 크기는 기존 구조Ⅰ,Ⅱ보다 31.3% 줄일 수 있었다.

  • PDF