• Title/Summary/Keyword: I/O Processing

Search Result 568, Processing Time 0.029 seconds

Fast Processing System for Motion Control of Multi-body Robots (다관절 로봇용 고속 제어보드 개발 및 제어)

  • Sim, Jae-Ik;Kwon, O-Hung;kim, Tae-Sung;Park, Jong-Hyeon
    • Proceedings of the KSME Conference
    • /
    • 2007.05a
    • /
    • pp.951-956
    • /
    • 2007
  • This paper suggests a high-speed control method which is suitable for multi-joint robots using a real-time stand-alone controller for general-purpose. The fast processing controller consists of a PCI Interface Board and 2-axe PWM drivers. The PCI Interface Board consists of 32-channel PWM output ports, 32-channel Encoder Counters, 32-channel A/D Converters and 48-channel Digital I/O ports, and all the I/O data transmissions are completed within 1ms. And The 2-axe PWM driver can be redesigned easily in order to embed in each link. Experimental implementations show that the high-speed control method can be used for the real-time control which is essential to controlling of multi-body robots such as humanoid robots. Especially, it is efficient for realizing the model-based motion control in demand of much calculation time by the high I/O communication speed.

  • PDF

CPC: A File I/O Cache Management Policy for Compute-Bound Workloads

  • Bahn, Hyokyung
    • International journal of advanced smart convergence
    • /
    • v.11 no.2
    • /
    • pp.1-6
    • /
    • 2022
  • With the emergence of the new era of the 4th industrial revolution, compute-bound workloads with large memory footprint like big data processing increase dramatically. Even in such compute-bound workloads, however, we observe bulky I/Os while loading big data from storage to memory. Although file I/O cache plays a role of accelerating the performance of storage I/O, we found out that the cache hit rate in such environments is not improved even though we increase the file I/O cache capacity because of some special I/O references generated by compute-bound workloads. To cope with this situation, we propose a new file I/O cache management policy that improves the cache hit rate for compute-bound workloads significantly. Trace-driven simulations by replaying file I/O reference logs of compute-bound workloads show that the proposed cache management policy improves the cache hit rate compared to the well-acknowledged CLOCK algorithm by a large margin.

Mechanism to Select the Data Source of HDFS with SSD Cache Based on Storage I / O Cost (SSD 캐시를 적용한 HDFS의 I/O 비용 기반 데이터 선택 기법)

  • Kim, Minkyung;Shin, Mincheol;Park, Sanghyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.676-679
    • /
    • 2015
  • 빅데이터 분석을 위한 Hadoop 환경에서 고성능 저장장치인 SSD에 대한 중요성이 증가하면서 일반적으로 사용되는 저장장치인 HDD와 혼합하여 사용하는 연구들이 주목 받고 있다. 특히 SSD를 HDD의 캐시로 사용했을 때 저장장치에 대한 I/O 성능을 향상할 수 있다는 연구 결과들이 있다. 본 연구는 이를 바탕으로 SSD를 HDD의 캐시로 사용한다. HDFS는 저장장치에 접근하여 I/O를 수행하는데 기존에는 로컬 서버에서 캐시 미스가 발생한 경우 로컬 HDD로 접근한다. 이러한 방식은 접근하는 데이터에 따라 SSD의 높은 Bandwidth를 활용하지 못하게 되는 경우를 발생시키고 그 결과 특정 서버의 I/O 지연으로 전체 분산 처리의 성능을 저하시킬 수 있다. 이를 해결하기 위해 본 연구는 HDFS 레벨에서 로컬 서버의 HDD와 데이터 복제본들이 저장된 원격 서버의 SSD에서 I/O를 수행하는 경우에 대해 수식을 통해 비용을 비교한다. 그 결과 항상 기대 성능이 높은 저장 장치를 선택하여 데이터를 읽어오게 함으로써 기존 방식보다 성능이 개선될 수 있음을 입증한다.

Design and Evaluation of an Adaptive Reservation-Based Piggybacking Algorithm for Video Servers (비디오 서버를 위한 적응적 예악기반 피기백킹 알고리즘의 설계 및 평가)

  • Bae, In-Han;Lee, Gyeong-Suk
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.2S
    • /
    • pp.656-665
    • /
    • 2000
  • A critical issue in the performance of a video-on-demand system is the I/O bandwidth required in order to satisfy client requests. Several approaches: batching, bridging, piggybacking are used ot reduce the I/O demand on the video server through sharing. Piggybacking is the policy for altering display rates of requests in progress fro the same object, for the purpose of merging their corresponding I/O streams into a single stream, which can serve the entire group of merged requests. In this paper, we propose a new policy called an adaptive reservation-based piggybacking that dynamically reserves the I/O stream capacity of video server for popular videos according to video server loads to immediately schedule the requests for popular videos. The performance of the proposed policy is evaluated through simulations, and is compared with that of simple piggybacking. As the result, we know that the adaptive reservation-based piggybacking provides better service probability, average waiting time and percentages saving in frames than simple piggybacking.

  • PDF

Analysis on I/O Trace Replayer for SSD performance evaluation (SSD 성능 비교를 위한 I/O 트레이스 리플레이어 분석)

  • Yee, Inhyuk;Lee, Kyuhwna;Kang, Yoonsuk;Jo, Yong-Yeon;Kim, Sang-Wook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.757-758
    • /
    • 2014
  • 본 논문에서는 I/O 트레이스 리플레이어들의 분석을 통해 SSD 성능 평가에 적합한 리플레이어를 찾는다. 또한 저장장치의 성능 비교를 위한 척도로써 적합한 척도를 도출한다. 실험결과, 시간 리플레이어가 I/O 트레이스 리플레이어로써 적합함을 밝히고, Q2C의 합이 성능 평가에 적합한 척도임을 보인다.

An analysis of Network I/O Performance for Effective VM Management under Cloud CDN Environment (클라우드 CDN 환경에서의 효과적인 VM 관리를 위한 네트워크 I/O 성능 분석)

  • Hyeon, Myeongseok;Kim, Heejae;Youn, Chan-Hyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.156-159
    • /
    • 2015
  • 최근 콘텐츠 전송 네트워크(content delivery network, CDN)와 클라우드 컴퓨팅(cloud computing)을 결합하여 효과적으로 콘텐츠를 전달하기 위한 방법이 대두되고 있으며 이와 같이 클라우드 컴퓨팅과 결합하여 서비스되는 CDN을 클라우드 CDN 이라고 칭한다. 본 논문에서는 클라우드 CDN 환경에서의 효과적인 가상 머신 (virtual machine, VM) 관리를 위한 캐시서버(caching server)로써의 VM의 네트워크 I/O 성능 분석을 다룬다. 해당 성능 분석은 엔드 유저(end-user)들과 캐시서버 간 동영상 스트리밍(streaming)을 통하여 이루어졌으며 해당 캐시 서버의 네트워크 I/O 성능에 영향을 주는 다양한 경우에 대하여 진행되었다. 본 논문에서의 성능 분석은 클라우드 CDN 환경에서의 데이터센터(datacenter) 선택 및 요청 라우팅(routing) 등에 적용될 수 있다.

A I/O Request Prediction Mechanism for Virtual Machines (가상 머신을 위한 I/O 요청 예측 기법)

  • Lee, Jaemyoun;Lee, Seunghan;Kang, Kyungtae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.29-30
    • /
    • 2015
  • 클라우스 서비스와 크로스 플랫폼이 확산되는 추세와 맞물려 가상 머신의 File I/O 성능 개선을 위한 노력이 다각도로 모색되고 있다. 본 논문에서는 운영 오버헤드는 줄이면서도 정확도가 높은 File I/O 예측 기법을 유전알고리즘 기반으로 제안한다. 특히, 선택 연산만이 대기 시간에 포함되고, 기타 연산은 후면 처리로 수행함으로써 워크로드에 따라 대기 시간을 크게 줄일 수 있을 것으로 기대한다.

Memory-mapped I/O Implication of Virtual Machine in Cloud System (클라우드 환경에서 가상 머신의 효율적인 호스트 메모리 사용을 위한 메모리 사상 기법)

  • Song, Nae Young;Choe, Chan-Ho;Eom, Hyeonsang;Yeom, Heon Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.264-267
    • /
    • 2012
  • 늘어가는 자원의 사용과 데이터의 양에 따라 클라우드 시스템의 사용이 대두되고 있는 가운데, 클라우드 환경에서 가상 머신을 효율적으로 사용하는 방법에 대한 많은 기법이 제시되고 있다. 이 중 하나가 호스트 머신 메모리 사용의 오버커밋먼트를 방지하는 것인데 가상 머신들끼리 되도록 같은 파일을 메모리 사상해서 사용하자는 것이다. 이 때 사용한 mmap() 함수는 스토리지 스택을 사용하지 않고 I/O를 할 수 있는 등의 장점을 가지고 있지만 확장성이 떨어진다는 단점이 있다. 본 논문에서는 가상머신들이 mmap()을 사용해서 호스트 메모리를 접근할 때 발생하는 문제점을 짚어보고 이것을 해결할 수 있도록 새로운 mmap() I/O path를 제안한다. 개선된 mmap() I/O path는 수행시간을 40% 가량 향상 시켰다.

Virtual Processor for Interrupt Handling to Improve I/O Performance in Virtualization (가상화 I/O 성능 향상을 위한 인터럽트 전용 가상 프로세서 기술)

  • Lee, Dongwoo;Eom, Young Ik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.109-110
    • /
    • 2013
  • 가상화 기술의 발전과 더불어 산업 전반에서 가상화 기술이 널리 사용되고 있지만 여전히 높은 장치 처리량을 요구하는 워크로드의 경우 가상화 환경에서 사용되지 못하고 있다. 가상머신의 I/O는 가상장치를 에뮬레이션 하는 가상화 오버헤드에 의해 장치 성능을 제약받고 있기 때문이다. 최근 가상머신에서 직접접근을 지원하는 장치의 등장으로 I/O 요청 중 발생하는 가상화 비용을 효과적으로 제거 하였지만, 장치 요청이 끝난 후 발생하는 인터럽트를 가상머신이 처리하는 과정에서 발생하는 비용이 여전히 성능을 제약하고 있다. 이에 본 논문에서는 인터럽트 과정의 비용을 줄이기 위한 인터럽트 전용가상 프로세서 기법을 제안한다.

I/O Cost Evaluation of the MapReduce Framework (MapReduce 프레임워크의 I/O 비용 평가)

  • Kim, Hyeon-Gyu;Kang, Woo-Lam
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.1068-1069
    • /
    • 2013
  • 최근 정보 기술과 웹의 발전으로 많은 응용에서 데이터의 양이 급격이 증가하였다. MapReduce는 이러한 대용량 데이터를 처리하기 위해 구글에서 제안한 프레임워크이다. MapReduce 프레임워크는 데이터 전달 패러다임을 기반으로 한다. 이로부터, 데이터 처리 및 질의에 있어 I/O 비용이 전체 처리 비용에서 큰 부분을 차지한다. 본 논문에서는 MapReduce 프레임워크에서 I/O에 소요되는 비용을 확인하기 위해, 실제 데이터를 기반으로 실험을 수행하였다. 이를 통해, MapReduce 기반 시스템의 성능 예측이나 성능 향상을 위해 고려되어야 할 부분을 제시하고자 하였다.