我试图弄清楚如何建立一个简单的存储系统,使用SRP或iSER在Infiniband上导出块存储。
我还处在这个过程的早期阶段,目前我基本上只是在寻找一个关于以下级别的教程:“您的织物上有两个服务器:下面是如何将块存储设备从一个导出到另一个服务器的方法。”最好在RHEL或其变体上。有什么指示吗?
发布于 2011-11-17 18:15:08
坦白地说,我走了一条简单的路线,愉快地使用了IP over IB上的iSCSI,它工作起来很容易,并且执行得很好:
首先..。
性能设置:
YMMV与IB控制器模型,驱动等。
IP设置:
net.ipv4.tcp_timestamps=0
net.ipv4.tcp_sack=0
net.core.netdev_max_backlog=250000
net.core.rmem_max=16777216
net.core.wmem_max=16777216
net.core.rmem_default=16777216
net.core.wmem_default=16777216
net.core.optmem_max=16777216
net.ipv4.tcp_mem="16777216 16777216 16777216"
net.ipv4.tcp_rmem="4096 87380 16777216"
net.ipv4.tcp_wmem="4096 65536 16777216"
一些文件:
http://support.systemfabricworks.com/lxr/#ofed+OFED-1.5/ofed-docs-1.5/ipoib_发布_notes.txt
http://www.mjmwired.net/kernel/Documentation/infiniband/ipoib.txt
iperf,4个线程:
[ 3] local 192.168.1.2 port 50585 connected with 192.168.1.3 port 5003
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 2.75 GBytes 2.36 Gbits/sec
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 2.79 GBytes 2.40 Gbits/sec
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 3.31 GBytes 2.84 Gbits/sec
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 3.51 GBytes 3.02 Gbits/sec
总总带宽1.3GB/S,绝对优于10 GigE。
发布于 2013-07-22 14:31:05
稳定是不同的。Mellanox在销售硬件时主要考虑性能。当他们收购伏尔泰时,由于他们的IB网络网关,他们正在推动iSER。
我们在ProfitBricks使用iSER和Solaris 11作为IaaS 2.0云的目标。但是,当我们遇到主要的ZFS性能以及IPoIB和open稳定性问题时,我们转而使用带有SCST和SRP的Linux存储。我们帮助改进linux邮件列表上的这项技术,并使用我们自己的ib_srp修补程序。对我们来说,稳定需要简单。因此,我们将进行SRP,因为我们有InfiniBand。RDMA是InfiniBand的本机,SRP是RDMA专用的。
今年,我就这个主题做了一次关于LinuxTag的介绍: InfiniBand/RDMA for Storage - SRP vs. http://www.slideshare.net/SebastianRiemer/infini-band-rdmaforstoragesrpvsiser-21791250
它还展示了如何建立SRP连接。
https://serverfault.com/questions/327947
复制相似问题