首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >使用GPU训练模型

使用GPU训练模型
EN

Stack Overflow用户
提问于 2017-02-01 15:22:21
回答 2查看 2.1K关注 0票数 0

我有一点使用GPU来训练模型的知识。我正在使用scikit-learn中的K-means来训练我的模型。由于我的数据非常大,是否可以使用GPU训练此模型以减少计算时间?或者你能推荐一些使用GPU能力的方法吗?

另一个问题是,如果我使用TensorFlow构建K-means,如本文所示。

https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html

它会不会使用GPU?

提前谢谢你。

EN

回答 2

Stack Overflow用户

发布于 2017-03-29 15:17:03

检查您的图形处理器是否支持CUDA:https://developer.nvidia.com/cuda-gpus

Scikit-learn到目前为止还不支持CUDA。您可能希望使用TensorFlow:https://www.tensorflow.org/install/install_linux

我希望这能帮到你。

票数 0
EN

Stack Overflow用户

发布于 2017-06-29 20:05:29

如果您的GPU支持CUDA并具有3.0或更高的计算能力,并安装支持GPU的Tensorflow版本,那么它肯定会使用GPU进行培训。

有关运行支持图形处理器的TensorFlow的NVIDIA要求的更多信息,请查看以下链接:

https://www.tensorflow.org/install/install_linux#nvidia_requirements_to_run_tensorflow_with_gpu_support

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41974081

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档