我在运行RHEL6的服务器上使用英特尔82599EB 10GNIC。我运行了一个以高速率生成数据包的程序。NIC以前安装在另一台PC上,在那里我能够同时在每个端口上生成8-9 9Gbps的通信量。在这台服务器上,只有在使用一个端口的情况下,我才能以8-9 9Gbps的速度生成。如果我同时在两个端口上生成,那么我的总传输速率下降到大约12 6Gbps(每个端口上~6 6Gbps)。
我的相关"lspci -vvv“输出显示如下:
0b:00.0 Ethernet controller: ...
Capabilities: [a0] Express (v2) Endpoint, MSI 00
LnkCap: Port #1, Speed 5GT/s, Width x8
LnkSta: Speed 5GT/s, Width x4
LnkCtl2: Target Link Speed: 5GT/s
0b:00.1 Ethernet controller: ...
Capabilities: [a0] Express (v2) Endpoint, MSI 00
LnkCap: Port #1, Speed 5GT/s, Width x8
LnkSta: Speed 5GT/s, Width x4
LnkCtl2: Target Link Speed: 2.5GT/s
我的传输速率是否受到LnkSta中两个端口的“LnkSta”的限制?在一个端口上设置“目标链路速度: 5GT/s”,在另一个端口上设置“目标链路速度: 2.5GT/s”是什么意思?这是否也导致了利率的下降?
另外,我还看到了一些比NIC的PCIE连接器更长的PCIE插槽。我能把我的网卡安装在这些较长的插槽上吗?
发布于 2012-06-04 07:54:07
另外,我还看到了一些比NIC的PCIE连接器更长的PCIE插槽。我能把我的网卡安装在这些较长的插槽上吗?
基本上是的。在理论上是的,在实践中不确定--一个坏的BIOS可能会把它搞砸。在过去的FIor例子中,带有RAI卡的图形端口( ncice pCIEx16)可能会导致启动失败,原因是BIOS不能很好地处理.虽然这些年过去了,但这些日子不应该发生这样的问题。我经常这样做,从Graphics插槽运行RAID控制器,并在服务器场景中使用车载图形。
尝试并查看waht哈彭斯是这里唯一的解决方案- PCIe是兼容的,因为它可以把一个更小的连接器从标准的一个更大的插槽。更大的连接器,甚至不能连接所有的引脚-你可以有一个PCIex1链接在一个PCIex16连接器,优点是所有的卡适合,但只适用于PCIEx1.我这里有一些转换,可以在PCIEx1插槽上运行图形卡,以便进行数字运算。
我的传输速率是否受到LnkSta中两个端口的“LnkSta”的限制?
嗯,港口的物理限制显然限制了线路的速度,还是?是的,这是一个物理上的限制-没有什么你可以编程的。
在一个端口上设置“目标链路速度: 5GT/s”,在另一个端口上设置“目标链路速度: 2.5GT/s”是什么意思?这是否也导致了利率的下降?
其他人将不得不回答什么,但我在google上发现了这个:
http://www.xilinx.com/support/answers/37497.htm
如果正如我所读到的那样,那就是配置的uppe限制--所以是的,这是一个原因,但问题是为什么,所以它可能是其他东西的症状。
https://serverfault.com/questions/395264
复制相似问题