초록
TCP 처리율(throughput) 저하의 가장 큰 원인인 재전송 타임아웃(retransmission timeout)을 사전에 방지하기 위한 많은 노력들이 진행되어 왔다. TCP 손실 복구 알고리듬 자체의 오 동작으로 발생하는 타임아웃의 원인은 크게 세 가지로 분류될 수 있다. 현재 가장 널리 사용되고 있는 TCP Reno의 동일한 윈도우께서 발생한 여러 개의 패킷 손실로 인한 타임아웃은 TCP NewReno 혹은 선택 승인(selective acknowledgement) 옵션을 통해서 방지할 수 있고, 윈도우의 크기가 작은 상황에서 중복 승인 패킷(duplicate acknowledgement)의 부족으로 인해서 발생하는 패킷 손실은 제한 전송(Limited Transmit) 기법에 의해서 방지할 수 있다. 본 논문에서는 TCP 타임아웃이 발생하는 상황과 이를 완화하기 위한 방안들로 인한 개선 정도를 정확한 모델링을 통한 수학적 분석과 시뮬레이션을 통해서 비교 분석한다. 본 논문의 결과를 토대로 앞으로 사용할 TCP의 패킷 손실 정도에 따른 손실 복구(loss recovery)성능을 정량적으로 분석하고 예측하는 것이 가능하다. TCP의 성능은 손실 복구 과정의 성능에 크게 좌우된다는 점을 고려할 때 이는 매우 큰 중요성을 가진다.
There have been several efforts to avoid unnecessary retransmission timeouts (RTOs), which is the main cause for TCP throughput degradation. Unnecessary RTOs can be classified into three groups according to their cause. RTOs due to multiple packet losses in the same window for TCP Reno, the most prevalent TCP version, can be avoided by TCP NewReno or using selective acknowledgement (SACK) option. RTOs occurring when a packet is lost in a window that is not large enough to trigger fast retransmit can be avoided by using the Limited Transmit algorithm. In this Paper, we comparatively analyze these schemes to cope with unnecessary RTOs by numerical analysis and simulations. On the basis of the results in this paper, TCP performance can be quantitatively predicted from the aspect of loss recovery probability. Considering that overall performance of TCP is largely dependent upon the loss recovery performance, the results shown in this paper are of great importance.