我有一点使用GPU来训练模型的知识。我正在使用scikit-learn中的K-means来训练我的模型。由于我的数据非常大,是否可以使用GPU训练此模型以减少计算时间?或者你能推荐一些使用GPU能力的方法吗?
另一个问题是,如果我使用TensorFlow构建K-means,如本文所示。
https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html
它会不会使用GPU?
提前谢谢你。
发布于 2017-03-29 15:17:03
检查您的图形处理器是否支持CUDA:https://developer.nvidia.com/cuda-gpus
Scikit-learn到目前为止还不支持CUDA。您可能希望使用TensorFlow:https://www.tensorflow.org/install/install_linux
我希望这能帮到你。
发布于 2017-06-29 20:05:29
如果您的GPU支持CUDA并具有3.0或更高的计算能力,并安装支持GPU的Tensorflow版本,那么它肯定会使用GPU进行培训。
有关运行支持图形处理器的TensorFlow的NVIDIA要求的更多信息,请查看以下链接:
https://stackoverflow.com/questions/41974081
复制相似问题