我正在尝试用tcp开发一个具有不同大小消息的实时数据流应用程序。在故障注入测试中,发现当网络延迟小于150 ms时,100字节的消息比500字节的消息更容易丢失。然而,在高网络延迟的情况下,大消息(超过500个字节)的丢失率增加到0.3%以上,而较小消息的丢失率仍然保持在%0.1。有人能说出为什么会发生这种事吗?提前谢谢你。
发布于 2020-05-02 13:21:47
观察到,当网络延迟小于150 ms时,100字节的消息比500字节的消息更容易丢失。
那是你模拟的艺术品。
一般情况下,延迟与损耗率没有关系。分组丢失有两个主要原因:传输故障和拥塞。
对于较大的分组,传输故障的概率(通常)更高,因为它们在传输过程中花费的时间更长。同样的原因,对于延迟较长的连接,它也可能更高。
拥塞造成的损失取决于实际使用的设备及其排队逻辑,并且在很大程度上取决于延迟。然而,较长的延迟往往意味着更多的跳数(主动处理步骤),因此更有可能陷入拥塞。
https://networkengineering.stackexchange.com/questions/67637
复制相似问题