首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >在1000中丢失4个数据包会导致性能问题吗?

在1000中丢失4个数据包会导致性能问题吗?
EN

Network Engineering用户
提问于 2016-06-23 13:15:48
回答 2查看 435关注 0票数 1

一位网络工程师发现了一些数据包丢失,平均每1000包有4个数据包,然后有人试图以此作为导致性能问题的原因。这是否是一个现实的假设,即所寻求的损失可能会导致应用程序性能问题。

EN

回答 2

Network Engineering用户

回答已采纳

发布于 2016-06-23 15:58:13

0.4%的丢包率在内部网络上是相当高的。丢包肯定会影响性能,但影响也取决于RTT。

Mathis方程描述了给定RTT的最大TCP理论吞吐量和丢失率:

代码语言:javascript
运行
复制
MaxRate < (MSS/RTT)*(1 / sqrt(p))

其中p是丢包的概率。

例如,RTT为50 MSS,概率为1E-4,您的速度不能超过230 MSS(假设MSS为1450)。

这是一个简短的解释。

票数 2
EN

Network Engineering用户

发布于 2016-06-23 15:15:35

(假设TCP通过公共WAN)

是的-当数据包被丢弃时,你的设备会受到性能的影响,因为数据包被丢弃是因为对那些被丢弃的数据包的反应。

然而:

由于某种原因,0.4%的数据包丢失率为零。诚实地说,这对互联网流量并没有坏处,许多专业的网络工程师甚至可能会说,这对于有线内部网络来说是一个可以接受的下降率。我的观点是,如果您能够立即纠正问题,然后在零丢包状态下使用应用程序,那么几乎不可能分辨出不同之处。

票数 2
EN
页面原文内容由Network Engineering提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://networkengineering.stackexchange.com/questions/32502

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档