一位网络工程师发现了一些数据包丢失,平均每1000包有4个数据包,然后有人试图以此作为导致性能问题的原因。这是否是一个现实的假设,即所寻求的损失可能会导致应用程序性能问题。
发布于 2016-06-23 15:58:13
0.4%的丢包率在内部网络上是相当高的。丢包肯定会影响性能,但影响也取决于RTT。
Mathis方程描述了给定RTT的最大TCP理论吞吐量和丢失率:
MaxRate < (MSS/RTT)*(1 / sqrt(p))
其中p是丢包的概率。
例如,RTT为50 MSS,概率为1E-4,您的速度不能超过230 MSS(假设MSS为1450)。
这是一个简短的解释。
发布于 2016-06-23 15:15:35
(假设TCP通过公共WAN)
是的-当数据包被丢弃时,你的设备会受到性能的影响,因为数据包被丢弃是因为对那些被丢弃的数据包的反应。
然而:
由于某种原因,0.4%的数据包丢失率为零。诚实地说,这对互联网流量并没有坏处,许多专业的网络工程师甚至可能会说,这对于有线内部网络来说是一个可以接受的下降率。我的观点是,如果您能够立即纠正问题,然后在零丢包状态下使用应用程序,那么几乎不可能分辨出不同之处。
https://networkengineering.stackexchange.com/questions/32502
复制相似问题