什么是医学成像应用的计算瓶颈算法?我们正在尝试弄清楚在常规云服务器实例或GPU加速服务器实例上运行这些算法是否有好处。
发布于 2011-12-28 08:22:27
除非软件是专门为GPU处理能力而设计的,否则GPU加速实例的性能将与普通商用服务器实例大致相同,只是价格更高。
我敢打赌,任何算法的瓶颈,无论是医学上的还是非医学上的,成像与否,都是你可以在CPU上丢弃数据的速率,内核的数量,以及时钟频率。
获得一些快速的CPU、超快的RAM、超快的条带化/镜像存储,然后这样做。
我认为你最好拥有自己的专用硬件,这样你就可以花更多的时间和金钱来有效地调整硬件堆栈以匹配您的软件堆栈。任何云服务提供商(包括Amazon)都会给你一些折衷和妥协。
哦,不要忘了不要把你所有的eggs in one basket.放在亚马逊离线时发生的事情上,没有人可以检查任何X射线,或者在亚马逊云实例上放置heart monitoring application的可怜的笨蛋,亚马逊在一次大规模停机中离线。
除了云托管的折衷,冗余和对提供商停机的弹性问题,没有将关键基础设施放在云上,还有围绕应用程序本身的架构的其他问题。它会线性扩展吗?
我敢打赌它不会。
发布于 2018-11-09 22:48:10
通过对云服务器实例进行类似于GPU的实现,您可以看到用于大型(例如CR)图像操作的巨大FPS differences 1,2。然而,另一方面,GPU可能会占用大量内存,因此会延迟并不断地丢失数据。因此,云服务器解决方案可能会更稳定,不会有那么多人辍学,感觉更流畅,但FPS更低。
1 Zhang,Lequan,et al.一种用于小动物成像的高频、高帧率双工超声线阵成像系统。IEEE超声、铁电和频率控制学报57.7 (2010)。
2 Miguez,D.等人。“关于可变帧间间隔作为超声中非生理性实验伪影的原因的技术说明。”皇家学会开放科学4.5 (2017年):170245。
https://stackoverflow.com/questions/8649649
复制相似问题