• 제목/요약/키워드: Memory Bandwidth

검색결과 240건 처리시간 0.033초

임베디드 시스템상에서 Lightweight TCP/IP를 이용한 TCP/IP Offload Engine의 구현 (Implementation of a TCP/IP Offload Engine Using Lightweight TCP/IP on an Embedded System)

  • 윤인수;정상화;최봉식;전용태
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권7호
    • /
    • pp.413-420
    • /
    • 2006
  • 현재 네트워크 기술이 기가비트급의 속도를 넘어 급속히 발전하고 있다. 그러나 호스트에서 TCP/IP를 처리하는 기존의 방식은 고속 네트워크 환경에서 호스트 CPU에 많은 부하를 야기한다. 이러한 문제를 해결하기 위해 네트워크 어댑터에서 TCP/IP를 처리하는 TCP/IP Offload Engine(TOE)에 대한 연구가 최근 활발히 진행되고 있다. 본 논문에서는 두 가지의 소프트웨어 기반 TOE 를 기가비트 이더넷 환경 하에서 개발하였다. 하나는 임베디드 리눅스를 사용하여 구현한 TOE이고, 다른 하나는 Lightweight TCP/IP(lwIP)를 사용하여 구현한 TOE이다. 임베디드 리눅스를 사용한 TOE는 문맥 전환 (context switch), 프로세스 대기 및 활성화 그리고 운영체제 자체의 부하로 인하여 62Mbps의 낮은 대역폭을 보였다. 본 논문에서는 임베디드 리녹스를 사용한 TOE의 성능을 개선하기 위하여 운영체제 없이 lwIP를 이용하여 TOE를 구현하였다. 그리고 이러한 lwIP를 이용한 TOE 의 성능을 높이기 위하여 lwIP의 메모리 복사를 제거하고, 지연 ACK 기능과 TCP Segmentation Offload(TSO)기능을 추가하였으며, lwIP가 큰 데이타를 전송할 수 있도록 수정하였다. 그 결과, lwIP를 이용한 TOE는 194Mbps의 대역폭을 보였다.

SPI-4.2 인터페이스 코어의 설계 (A Design of SPI-4.2 Interface Core)

  • 손승일
    • 한국정보통신학회논문지
    • /
    • 제8권6호
    • /
    • pp.1107-1114
    • /
    • 2004
  • 시스템 패킷 인터페이스 4레벨 2단계(System Packet Interface Leve14 Phase 2)는 10Gbps 이더넷응용 뿐만 아니라, OC-192 대역폭의 ATM 및 POS를 통한 패킷 또는 셀 전송을 위한 물리계층과 링크계층 소자간의 인터페이스이다. SPI-4.2 코어는 전송 인터페이스 블록과 수신 인터페이스 블록으로 구성되어 있으며, 전이중 통신을 지원한다. 전송부는 사용자 인터페이스로부터 64비트의 데이터와 14비트의 헤더 정보를 비동기 FIFO에 쓰고, PL4 인터페이스를 통해 DDR 데이터를 전송한다. 그리고 수신부의 동작은 전송부와 역으로 동작한다. 전송부와 수신부는 캘런더 메모리를 컨피규레이션함으로서 최대 256개의 채널 지원이 가능하고, 대역폭 할당을 제어할 수 있도록 설계하였다 DIP-4 및 DIP-2 패리티 생성 및 체크를 자동적으로 수행하도록 구현하였다. 설계된 코어는 자일링스 ISE 5.li 툴을 이용하여 VHDL언어를 사용하여 기술하였으며, Model_SIM 5.6a를 이용하여 시뮬레이션 하였다. 설계된 코어는 라인당 720Mbps의 데이터 율로 동작하였다. 따라서 총 11.52Gbps의 대역폭을 지원할 수 있다. SPI-4.2 인터페이스 코어는 기가비트/테라비트 라우터, 광학 크로스바 스위치 및 SONET/SDH 기반의 전송 시스템에서 라인카드로 사용할 경우 적합할 것으로 사료된다.

HVIA-GE: 기가비트 이더넷에 기반한 Virtual Interface Architecture의 하드웨어 구현 (HVIA-GE: A Hardware Implementation of Virtual Interface Architecture Based On Gigabit Ethernet)

  • 박세진;정상화;윤인수
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권5_6호
    • /
    • pp.371-378
    • /
    • 2004
  • 본 논문에서는 고성능 PC 클러스터 시스템을 위한 사용자 수준 인터페이스인 Virtual Interface Architecture(VIA)를 기가비트 이더넷을 기반으로 하여 하드웨어로 구현하였다. 기가비트 이더넷 상의 하드웨어 VIA (HVIA-GE)는 PCI 33MHz/32bit 버스 기반으로 하고, 물리적인 네트워크로는 고성능 클러스터 시스템 구축을 위해 기가비트 이더넷을 채용하였으며, FPGA를 사용하여 VIA 프로토콜 엔진을 구현하였다. 주소변환 및 Doorbell 메커니즘을 커널의 간섭 없이 하드웨어로 처리하도록 하였으며, 특히 효율적인 주소변환을 위해 ATT를 HVIA-GE 카드상의 SDRAM에 저장하고 VIA 프로토콜 엔진에서 직접 처리하도록 개발하였다. 이러한 구현의 결과로 송수신시에 발생하는 통신 오버헤드를 대폭 줄이게 되었으며, 최소 11.9${\mu}\textrm{s}$의 지연 시간, 최대 93.7MB/s의 대역폭을 얻을 수 있었다 HVIA-GE는 최소 지연시간에 있어서 기가비트 이더넷 상에서 VIA의 소프트웨어 구현 방식인 M-VIA에 비해 약 4.8배, 기가비트 이더넷상에서의 TCP/IP에 비해 약 9.9배 빠른 결과를 나타내었다. 또한, 최대 대역폭에 있어서는 M-VIA에 비해 약 50.4%, TCP/IP에 비해 약 65%의 성능향상을 가져왔다.

주문형 비디오 서버의 버퍼 최소화를 위한 가변적 서비스 모드 변환 (Adaptive Service Mode Conversion to Minimize Buffer Space Requirement in VOD Server)

  • 원유집
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제28권5호
    • /
    • pp.213-217
    • /
    • 2001
  • CPU, 네트웍 대역폭, 디스크 속도등 컴퓨터와 통신 기반을 이루는 기반기술의 급진적인 발달에 따라, 컴퓨터 또는 단말기로 멀티미디어 데이터 서비스를 받는 것이 이제는 우리 생활의 일부분이 되었다. 이러한 급속한 서비스 저변의 확대에도 불구하고 아직도 고화질 멀티미디어 서비스를 제공하는 데 있어서 많은 기술적인 문제가 존재하는 것이 현실이라고 할 수 있겠다. 그 중의 하나로 멀티미디어 정보를 디스크로부터 읽어들여 실시간 상영하는 경우, 과도한 주기억 장치 버퍼의 요구가 문제점으로 등장한다. 주기억 장치 버퍼가 필요한 이유는 디스크는 자료를 비동기적으로 읽는데 반해 멀티미디어 데이터(프레임)를 상영하는 방법은 동기적으로 행해지므로 두 가지 특성이 다른 작업간에 비동기성을 해결하기 위함이다. 사용자에게 스트리밍 데이터를 전송하는 방법에는 두 가지 (디스크에서 읽어들이는 방법 : 디스크 모드와 기존에 메모리에 탑재된 데이터를 재 전송하는 방법 : 메모리 모드)가 있는데, 각 방법에 따라 필요로 하는 주기억 장치 버퍼의 양이 다르다. 본 연구에서는 각 방법에 따른 주기억 장치 요구량을 계산하는 모델을 개발하고, 전체 버퍼양을 최소화하도록 자료 전송방법을 가변적으로 변환시키는 기법을 소개한다. 본 기법의 가장 큰 장점은 각 비디오 세션의 데이터 전송하는 방법이 서버의 상태에 따라서 가변적으로 변환된다는 사실이다. 본 기법은 대용량 비디오 서버에서 다수의 멀티미디어 세션을 상영하는 데 필요한 버퍼 양을 효과적으로 감소 시킬수 있으며, 특히 사용자들의 주문이 소수의 화일들에게 집중되어 있는 경우 더욱 효과적으로 작동하고 있다. 제안된 기법의 근간이 되는 이론들의 구체적인 모델링이 제공되었으며, 본 기법이 항상 최적의 해를 구한다는 사실은 증명을 통해 보여진다. 주창되는 기법의 효율성과 성능을 시뮬레이션을 통해서 검증한다.

  • PDF

형상기억합금과 광케이블을 이용한 터널의 화재감지 시스템 개발에 관한 실험적 연구 (An Experimental Study on the Fire Monitoring System for Tunnel Using SMA and Fiber Optic Cable)

  • 황지현;박기태;이규완
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제18권5호
    • /
    • pp.128-134
    • /
    • 2014
  • 최근 도로터널은 비용절감 및 자연보호를 위하여 설계 및 시공이 증가되고 있는 추세이며, 이 때문에 반밀폐 구조인 터널내의 화재에 대비하여 화재 발생 시 신속히 감지할 수 있는 연구가 활발히 진행 중이다. 그 중에서도 광섬유 센서를 이용한 화재 감지법은 대역폭이 넓기 때문에 전송속도가 빠르고, 빛을 매개체로 하여 전기적인 간섭을 받지 않아 전송 도중에 정보 손실이 거의 없을 뿐만 아니라 노이즈 또한 적은 장점을 가지고 있어 이에 따른 연구와 현장 적용이 이루어지고 있다. 이와 관련하여 본 논문에서는 형상기억합금과 광케이블을 이용하여 실시간으로 화재 발생위치를 정확하게 감지할 수 있는 화재 감지 시스템을 개발하였다. 개발된 방법의 검증을 위하여 실내에서 온도변화에 따른 광 손실량 측정 실험을 수행하였으며, 거리 및 온도 등의 외부환경이 다른 지하공동구에 test bed를 설치하여 화재 모의실험을 수행하였다. 실험 결과 본 연구에서 개발한 화재감지시스템은 실시간으로 장거리 구간의 화재를 감지할 수 있는 것으로 나타났다.

무선 인터넷 프록시 서버 클러스터 성능 개선 (A Performance Improvement Scheme for a Wireless Internet Proxy Server Cluster)

  • 곽후근;정규식
    • 한국정보과학회논문지:정보통신
    • /
    • 제32권3호
    • /
    • pp.415-426
    • /
    • 2005
  • 사회적으로 큰 관심의 대상이 되고 있는 무선 인터넷은 유선 인터넷과 달리 기술 환경과 그 특성상 여러 가지 제약점들을 가지고 있다. 대역폭이 낮고, 접속이 빈번하게 끊기며, 단말기내의 컴퓨팅 파워가 낮고 화면이 작다. 또한 사용자의 이동성 문제와 네트워크 프로토콜, 보안등에서 아직 기술적으로 부족한 부분을 보이고 있다 그리고 급속도로 증가하는 수요에 따라 무선 인터넷 서버는 대용량 트래픽을 처리할 수 있는 확장성이 요구되어지고 있다. 이에 본 논문에서는 무선 인터넷 프록시 서버 클러스터를 사용하여 앞에서 언급된 무선 인터넷의 문제와 요구들을 캐싱(Caching), 압축(Distillation) 및 클러스터 (Clustering)를 통하여 해결하려고 한다. TranSend는 클러스터링 기반의 무선 인터넷 프록시 서버로 제안된 것이나 시스템적인(Systematic) 방법으로 확장성을 보장하지 못하고 불필요한 모듈간의 통신구조로 인해 복잡하다는 단점을 가진다. 기존 연구에서 시스템적인 방법으로 확장성을 보장하는 All-in-one 이라는 구조를 제안하였으나 이 역시 모듈간의 통신 구조가 복잡하고 캐시간 협동성이 없는 단점을 가진다. 이에 본 논문에서는 모듈간의 단순한 통신 구조와 캐시간 헙동성을 가지는 클러스터링 기반의 무선 인터넷 프록시 서버를 제안한다. 16대의 컴퓨터를 사용하여 실험을 수행하였고 실험 결과 TranSend 시스템과 All-in-one 시스템에 비해 각각 54.86$\%$, 4.70$\%$의 성능 향상을 보였다. 캐시서버간 데이타를 공유할 수 있기 때문에 제안된 구조에서는 캐시서버 수에 무관하게 캐시 메모리 전체 크기를 일정하게 할 수 장점을 가진다. 반면에 All-in-one에서는 각 캐시서버가 모든 캐시 데이타를 가져야 하므로 캐시 메모리 전체 크기가 캐시 서버 수에 비례하여 증가한다.

분수공적분을 이용한 KOSPI200지수의 현.선물 장기균형관계검정 (A Study on the Long-Run Equilibrium Between KOSPI 200 Index Spot Market and Futures Market)

  • 김태혁;임순영;박갑제
    • 재무관리연구
    • /
    • 제25권3호
    • /
    • pp.111-130
    • /
    • 2008
  • 이 논문은 분수공적분 개념을 이용하여 KOSPI200지수와 지수선물가격간에 장기균형관계가 있는지를 살펴보고 있다. 이것을 위해 로그변환 현 선물가격 각각의 분수차분계수를 주파수영역 (frequency domain)의 GPH 추정량을 구한 다음, 현 선물 회귀식의 추정을 통해 도출한 균형오차의 차분계수와 비교하였다. 이 방법은 전통적인 공적분방법에서 규명하지 못한 금융시계열자료의 통계적인 특성을 분석할 수 있는 장점이 있다. 분석결과를 요약하면 다음과 같다. 첫째, 정수차원의 차분구조모형에서는 공적분검정을 통한 장기균형관계의 증거를 찾기가 어려웠다. ADF 단위근 검정과 KPSS 정상성 검정에서 상반된 결과가 제시되어 두 시계열을 I(1)으로 확정하기가 불가능하였다. 둘째, GPH 추정량를 이용하여 차분계수를 추정한 결과, 두 시계열 모두 불안정한 장기기억구조를 가지는 것으로 식별되었고 균형오차는 정상적인(stationary) 장기기억구조를 가져 현 선물가격간에 분수공적분관계가 있는 것으로 파악되었다. 이 논문은 선물시장과 현물시장이 장기균형관계를 국내 선행연구에서 이용하지 않았던 분수공적분을 이용하여 분석했다는 점에서 그 의의를 찾을 수 있다.

  • PDF

캐시 메모리 동기화 전력 감소를 위한 이벤트 메커니즘에 대한 연구 (Research on Event Mechanism for Reducing Power Overheads in Cache Memory Synchronization)

  • 박영진;정하영;이용석
    • 전자공학회논문지CI
    • /
    • 제48권3호
    • /
    • pp.69-75
    • /
    • 2011
  • 본 논문에서는 다중 프로세서 구조에서 캐쉬 메모리 동기화 시 생기는 전력 오버헤드를 줄이기 위한 애니캐스트 방식의 이벤트 드리븐(Event Driven) 동기화 방법을 제안한다. 제안하는 동기화 방법은 기본적인 동기화 프로토콜에서 SHI(Snoop Hit Invalidate) 또는 SHR(Snoop Hit Read) 발생 시, 락 권한 획득에 실패 하였을 때 발생하는 불필요한 폴링 동작을 줄여 줌으로서 버스 대역폭이 낭비되는 것을 막아주고, 통신에 의한 전력 오버헤드를 감소시켜준다. 더 나아가 브로드캐스트 방식의 이벤트 드리븐 동기화 방법에 비해 불필요한 절전 상태 변화로 인하여 생기는 트랜지션 전력을 줄여 전력 소모를 더욱 감소시킬 수 있다는 장점이 있다. 시뮬레이션 결과 기존 스핀-락 방식에 비해 15.3% 정도의 에너지 절감효과를 얻을 수 있었고 브로드캐스트 방식에 비해서 4.7%의 에너지 절감 효과를 얻을 수 있었다. 따라서 제안하는 동기화 방법은 저전력 다중 프로세서 시스템에 적합한 방식이라고 할 수 있다.

CUDA 프레임워크 상에서 스카이라인 질의처리 알고리즘 최적화 (Optimizing Skyline Query Processing Algorithms on CUDA Framework)

  • 민준;한환수;이상원
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제37권5호
    • /
    • pp.275-284
    • /
    • 2010
  • GPU는 대용량 데이터 처리를 위해 특화된 멀티 코어 기반의 스트림 프로세서로서 빠른 데이터 처리 속도 및 높은 메모리 대역 동의 장점을 가지며, CPU에 비해 가격이 저렴하다. 최근 이러한 GPU의 특성용 활용하여 범용 컴퓨팅 분야에 활용하고자 하는 시도가 계속되고 있다. 엔비디아에서 발표한 범용 병렬 컴퓨팅 아키텍처인 쿠다(CUDA) 프로그래밍 모델의 경우 프로그래머가 GPU 상에서 동작하는 범용 어플리케이션을 보다 손쉽게 개발할 수 있도록 지원한다. 본 논문에서는 쿠다 프로그래밍 모델을 이용하여 기본적인 중첩-반복 스카이라인 알고리즘을 병렬화시킨다. 그리고 스카이라인 알고리즘의 특성을 고려하여 GPU 자원용 효율적으로 사용할 수 있도록 GPU의 메모리 및 명령어 처리율에 중점을 두고 단계적인 최적화를 진행한다. 최적화 단계에 따라 각각 다른 성능 개선이 나타나는 것을 확인하였으며, 그 결과 기본 병렬 중첩-반복 알고리즘에 비해 평균 80%의 성능이 향상됨을 확인하였다.

확장 버퍼 캐쉬의 설계 및 성능 평가 (Design and Performance Evaluation of Expansion Buffer Cache)

  • 홍원기
    • 정보처리학회논문지A
    • /
    • 제11A권7호
    • /
    • pp.489-498
    • /
    • 2004
  • VLIW 프로세서는 간단한 하드웨어 구조로 인해 저전력 및 고성능을 제공하여 임베디드 시스템에 매우 적합한 프로세서 구조로 인식되고 있다. 그러나 VLIW 프로세서는 동시에 수행 가능한 명령어들의 집합인 명령어 패킷 길이가 일정하지 않기 때문에 메모리 접근 지연 시간이 늘어나는 문제점을 안고 있다. 이는 가변 길이의 명령어 패킷으로 인해 일부 명령어 패킷이 두개의 캐쉬 블록에 걸쳐 있게 되고(스트래들 명령어 패킷), 이러한 명령어 패킷을 읽어 오기 위해 두 번의 캐쉬 접근이 요구되기 때문이다. 본 논문에서는 명령어 인출 대역폭을 높여줄 뿐만 아니라 명령어 캐쉬의 전력 소모를 낮춰주는 확장 버퍼 캐쉬를 제안한다. 확장 버퍼 캐쉬는 메인 캐쉬와 함께 스트래들 명령어 패킷의 일부를 저장하기 위한 소량의 확장 버퍼 캐쉬를 갖고 있으며 스트래들 명령어 패킷으로 인해 추가적으로 발생하는 캐쉬 접근을 줄여준다. 실험 결과 스트래들 명령어 패킷으로 인한 캐쉬 접근을 줄여 줌으로써 확장 버퍼 캐쉬는 기존 명령어 캐쉬에 비해 약 $5{\~}9{\%}$의 성능 전력${\cdot}$비용 향상을 가져옴을 확인할 수 있었다.