大数据文摘出品
来源:lambdalabs
编译:张秋玥
深度学习模型越来越强大的同时,也占用了更多的内存空间,但是许多GPU却并没有足够的VRAM来训练它们。
那么如果你准备进入深度学习,什么样的GPU才是最合适的呢?下面列出了一些适合进行深度学习模型训练的GPU,并将它们进行了横向比较,一起来看看吧!
太长不看版
截至2020年2月,以下GPU可以训练所有当今语言和图像模型:
以下GPU可以训练大多数(但不是全部)模型:
以下GPU不适合用于训练现在模型:
在这个GPU上进行训练需要相对较小的batch size,模型的分布近似会受到影响,从而模型精度可能会较低。
图像模型
内存不足之前的最大批处理大小:
*表示GPU没有足够的内存来运行模型。
性能(以每秒处理的图像为单位):
*表示GPU没有足够的内存来运行模型。
语言模型
内存不足之前的最大批处理大小:
*表示GPU没有足够的内存来运行模型。
性能:
* GPU没有足够的内存来运行模型。
使用Quadro RTX 8000结果进行标准化后的表现
图像模型
语言模型
结论
GPU购买建议
附注
图像模型:
语言模型:
相关报道:
https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/