我正在寻找支持动态基于云的NVIDIA GPU虚拟化的选项,类似于亚马逊网络服务为Cluster GPU Instances分配GPU的方式。
我的项目是建立一个内部云。其中一个要求是能够将GPU分配给虚拟机/实例以进行服务器端CUDA处理。
南加州大学似乎正在开发OpenStack enhancements来支持这一点,但它还没有准备好。这正是我正在寻找的,如果它在OpenStack中具有完整的功能。
NVIDIA VGX似乎只支持将GPU分配给USMs,这是严格意义上的远程桌面GPU虚拟化。如果我错了,VGX确实从虚拟机/实例启用了服务器端CUDA计算,请让我知道。
发布于 2013-05-07 08:48:07
“基于云的动态NVIDIA GPU虚拟化,类似于亚马逊网络服务为集群GPU实例分配GPU的方式。”
AWS并不是真正动态分配GPU :每个GPU集群计算都有2个固定的GPU。所有其他服务器(包括常规集群计算)都没有任何GPU。也就是说,他们没有一个API,你可以说"GPU与否“,它是固定的盒子类型,使用固定的硬件。
Xen上的直通模式是专门为您的用例而设计的:将硬件从主机传递到来宾。默认情况下,它不是“动态”的,但您可以编写一些代码来选择一个来宾来获取主机上的每一张卡。
发布于 2014-09-30 23:05:57
有一个名为GPUBox的解决方案,它在CUDA中虚拟化设备。它既可以在Amazon上使用,也可以在您自己的基础设施上使用。
引述自网站(http://renegatt.com/solutions.php):
GPUBox软件
通过将应用程序和操作系统从底层图形处理器设备中分离出来,简化了图形处理器管理。这是一种允许许多用户动态共享同一池中的GPU设备的解决方案。(...)GPUBox支持将GPU设备按需配置到具有Linux或Windows操作系统的物理机或虚拟机。GPU设备池在用户之间共享,从而降低了总功耗和空闲运行的硬件。
https://stackoverflow.com/questions/14505941
复制相似问题