我得模仿广域网。我的安装程序包含两个带有MT27500家族ConnectX-3无限带卡的服务器。两个节点之间的默认延迟为0.4ms,iperf测试显示每个iperf连接的吞吐量为4 4Gbps。通过使用15个并行的iperf连接,我能够获得最大33 33Gbps。为了模拟两个节点之间50 of的RRT,我使用以下命令。
sudo tc qdisc add dev ib0 root netem delay 25ms
然而,iperf吞吐量跨流下降到154 drops。我有另一个相同的设置,它有以太网适配器,而不是Infiniband。在这个设置上,iperf显示每个iperf连接大约480 more,这比我从IPoIB获得的多3倍。是否预期IPoIB的行为在很大的延迟上比以太网差?如果是这样的话,这种行为背后的原因是什么?
发布于 2018-08-01 15:50:11
在使用netem仿真网络延迟时,最常见的错误是不增加数据包限制。没有。因此,您拖掉了大量数据包,tcp无法建立足够长的队列来模拟路径。
尝试限制1000000或更多。监视您的netem统计数据,以查看您是否丢弃任何数据包。
插件:我们经常使用flent.org的测试工具(bufferbloat项目)。它封装了netperf和irtt,使可复制的测试更容易。
https://networkengineering.stackexchange.com/questions/52083
复制相似问题