为这个冗长的职位道歉.
尝试在全新的iSCSI部署(仍在测试中)上排除一些vSphere迟缓。
布局如下:
3台VSphere主机,每台都有2x10GB的NIC,插入一对Nexus5020,两者之间有10G的背靠背。NIC是以主动/主动冗余方式(对熟悉N1KV的用户使用vPC-mac固定)进行端口通道的,NIC都携带服务控制台、vmotion、iSCSI和访客流量。iSCSI位于不通过IP网络路由的单个子网/单个VLAN上(严格地说是layer2)
如果这是1G部署,我们可能会将iSCSI流量分割到不同的NIC中,但是当您开始将4+ NIC扔到10gigabit基础结构中的服务器上时,价格/端口变得相当荒谬,而且我并不认为这是必要的。开放的对话/技术的事实是:尽管如此。
此时,即使是单个VM客户也将缓慢地引导到iSCSI存储(相同Nexus502010G交换机上的EMC CX4 ),从iSCSI恢复VM所需的时间大约是我们预期的两倍。我们的服务器人员提到,如果我们将iSCSI分离到自己的NIC,性能似乎要好得多。从网络的角度来看,我已经运行了我可以想到的变量(端口配置错误、MTU问题、拥塞等)。我要干涸了。除了当时正在执行的非常具体的测试之外,在这些主机上确实没有其他通信量。重要的是客人的交通状况很好.看来储存是唯一受绿丝素存在影响的东西。
结论是,我们没有“过度利用”网络基础设施,因为我们几乎什么都不做,我只是在寻找一些有用的提示/想法,我们可以用来解决这个问题。最好不要抛出额外的10 NICs,这些NIC的利用率将在10%左右,而我们还剩下70+%了。
发布于 2010-03-15 12:51:51
假设您的CX4中有一个或多个双端口10 10Gbps适配器?如果是这样的话,您是否尝试过在其中一个端口和一个服务器之间建立一个点对点链接以进行基线性能测试?如果不是那样的话,我会考虑把它串起来,切断连接,看看你是怎么得到的--结果应该是有趣的。
哦,顺便说一句,你的设计对我来说似乎不错;)
https://serverfault.com/questions/122561
复制相似问题