不同版本的tensorflow-gpu与CUDA对应关系如下表所示(图片有点旧了,python版本是2.7和3.3-3.8):
问题描述:为了把之前的CPU版本的tensorflow卸载,换成GPU版本的tensorflow,经历了一番折腾。
要搭建TensorFlow的GPU版本,首先需要的必备条件就是一块能够支持CUDA的NVIDIA显卡,因为在搭建TensorFlow的GPU版本时,首先需要做的一件事就是安装其基础支持平台CUDA和其机器学习库cuDNN,然后在此基础上搭建TensorFlow GPU版本。
全网最详细 | Windows 安装 TensorFlow2.0 GPU 详细教程
看好版本后,就照着下就完了~ Python(3.7)我使用Anaconda,具体参照以下:
最近把tensorflow跟pytorch都重新安装了,发现我以前安装的CUDA10.0的版本无法跟tensorflow2.x适配了,于是我又重新卸载安装了CUDA10.1 +cuDNN8.0.x的版本,然后发现我的Win10上又跟以前一样可以运行tensorflow或者pytorch了。下面就说一下我是如何在Windows 10系统下完成这些配置的。首先看一下软件版本信息:
本文记录在Linux服务器更换Nvidia驱动的流程。 需求 Linux 服务器上的 1080Ti 显卡驱动为387, CUDA 9,比较老旧,需要更换成可以运行pytorch 1.6的环境。 确定当前显卡型号\操作系统版本\目标环境 查看显卡信息,确定自己的显卡型号: $ nvidia-smi 或 $ lspci | grep -i vga 输出的设备信息并不是我们熟悉的型号,比如我的输出为: 02:00.0 VGA compatible controller: NVIDIA Corpo
最近学校给了一个服务器账号用来训练神经网络使用,服务器本身配置是十路titan V,然后在上面装了tensorflow2.2,对应的python版本是3.6.2,装好之后用tf.test.is_gpu_available()查看是否能调用gpu,结果返回结果是false,具体如下:
我用的是实验室的服务器,服务器安装了cuda10.1,而根据报错,程序在寻找cuda10.0的库。解决方法是可以用anaconda安装cuda10.0:
TI-ONE平台安装cuda指引:https://cloud.tencent.com/developer/article/1845781
tensorboard --logdir=/tmp/tensorflow/mnist/logs/mnist_with_summaries/
目前Python最新release版本为3.9.0,配合TensorFlow2版本使用目前常见的以Python3.6和3.7,大家根据自己的开发平台选择合适的版本下载即可
修正:Ubuntu 18.04+RTX2080Ti建议安装cuda10.0,cudnn7.5.1,pytorch1.4.0+cu100 / torchvision0.5.0+cu100,tensorflow-gpu1.14.0 修正日期:20200611
安装tensorflow-gpu,需特别注意tensorflow-gpu、Python、CUDA、cuDNN版本的适配信息,版本不适配会导致tensorflow-gpu安装失败,该安装教程选择的软件版本信息为:ubuntu18.04 + Anaconda3.5.3.1 + Python3.6.12 + tensorflow-gpu2.2.0 + CUDA10.1 + cuDNN7.6.5
有不少比赛在赛后代码复现的环节需要以Docker的形式提交代码,甚至有些比赛每次提交都需要提交Docker这样做的好处则是使得测试集不可见,从而杜绝手工标注等违规操作,与此同时增加了提交的复杂度。
准备尝试升级TensorFlow 1.14 到2.2,需要同时升级本地和服务器的环境,本文记录主要过程。 环境需求 当前TensorFlow最高版本 2.2.+ ,需要CUDA 10.1,cudnn 7.6 官网下载 :https://developer.nvidia.com/ 显卡驱动需要满足CUDA版本要求 CUDA与显卡驱动:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html TensorFlow-GPU
本篇概览 本篇记录了自己在Ubuntu 16.04.7 LTS系统上搭建TensorFlow2开发环境的过程,用于将来重装时的参考 硬件是2018年购买的惠普暗隐精灵3代,显卡GTX1060,已经安装了Ubuntu16 LTS桌面版 执行本篇操作前需要安装Nvidia的驱动,详情请参考《Ubuntu16安装Nvidia驱动(GTX1060显卡)》 查看驱动信息,如下图,可见CUDA版本是10.1 📷 版本匹配 去tensorflow官网查看版本匹配关系,地址:https://tensorflow.googl
前两天,Google在TensorFlow开发者峰会上发布了TensorFlow 2.0 alpha版,TensorFlow官网也全新改版上线。其实早在去年上半年,Google就放出口风,准备发布TensorFlow 2.0,一个重要的里程碑版本。然而直到今天,2.0仍然处于alpha版,这在快速迭代的人工智能领域,着实少见。随着alpha的发布,这几天网上关于TensorFlow的新闻和文章铺天盖地,我也看了一下文章,不过作为一名实战派,还是决定先上手尝鲜一下。
很巧的是编译安装tensorflow-gpu版成功了。 tensorflow已经更新到1.13版,官方的linux安装文件采用的是glibc2.23, 而centos只支持到glibc2.17,所以在使用pip install tensorflow-gpu安装后的使用过程中会报错:
PyTorch是一个开源的Python机器学习库,其前身是著名的机器学习库Torch。2017年1月,由Facebook人工智能研究院(FAIR)基于Torch推出了PyTorch,它是一个面向Python语言的深度学习框架,不仅能够实现强大的GPU加速,同时还支持动态神经网络,这是很多主流深度学习框架比如Tensorflow等都不支持的。PyTorch既可以看作加入了GPU支持的numpy,同时也可以看成一个拥有自动求导功能的强大的深度神经网络。除了Facebook外,它已经被Twitter、CMU和Salesforce等机构采用。作为经典机器学习库Torch的端口,PyTorch 为 Python 语言使用者提供了舒适的深度学习开发选择。
在测试TensorFlow可用性时(tf.test.is_gpu_available())出现错误Could not load dynamic library'libnvinfer.so.6',本文记录解决方法。 错误原因 没有安装 TensorRT 关于NVIDIA TensorRT: NVIDIA TensorRT是一种高性能神经网络推理(Inference)引擎,用于在生产环境中部署深度学习应用程序,应用有图像分类、分割和目标检测等,可提供最大的推理吞吐量和效率。TensorRT是第一款
(1)GPU加速型实例安装NVIDIA GPU驱动及CUDA工具包:https://support.huaweicloud.com/usermanual-ecs/zh-cn_topic_0149470468.html#ZH-CN_TOPIC_0149470468__section1034245773916
博主研究生生涯准备用大一的旧电脑在撑两年,于是乎在虚拟机centos环境中安装python环境和pycharm工作时特别卡。于是想尝试在windows下安装anaconda和PyCharm,这样软件运行或许能流畅些。本文基于2019年发行的anaconda3版本和PyCharm对安装过程中的问题进行记录。
CUDA的主要用途是深度学习,而目前主流的深度学习框架Tensorflow2最高支持CUDA 10.1,因此本文讲解在Ubuntu 20.04系统上安装CUDA 10.1的主要过程。
本篇文章就带领大家用最简单地方式安装TF2.0正式版本(CPU与GPU),由我来踩坑,方便大家体验正式版本的TF2.0。
NVIDIA TensorRT是一个高性能深度学习推理平台。它包括深度学习推理优化器和运行时,可为深度学习推理应用程序提供低延迟和高吞吐量。推理时,基于TensorRT的应用程序比仅CPU平台的执行速度快40倍。使用TensorRT,您可以优化所有主流框架中训练出的神经网络模型。
其实TensorFlow有一个别人提供的服务器在用着,不过最近访问不了了,估计给收回去了吧。另外自己的MacBook Pro也其实有TensorFlow,但是这个MacBook Pro是二手的,3000块钱收的,而这个本子在前任主人那里也得呆了2年左右了,虽然不长但也有点小卡,尤其是硬盘容量实在是……随便放点东西就基本满了,像我除了写代码还有一些多媒体制作的小事会有,这玩意一两个就占硬盘好几个G……于是,综上原因,因为要学习深度学习,对硬件有一定的要求,因此就萌生了配一台PC主机的想法了。
这篇是对上一篇的补充, 主要是macOS和Ubuntu下的cpu版的TensorFlow安装, 整体都比较简单.
导语:TensorRT立项之初的名字叫做GPU Inference Engine(简称GIE),是NVIDIA 推出的一款基于CUDA和cudnn的神经网络推断加速引擎,TensorRT现已支持TensorFlow、Caffe、Mxnet、Pytorch等几乎所有的深度学习框架,将TensorRT和NVIDIA的GPU结合起来,能在几乎所有的框架中进行快速和高效的部署推理。
(1)NVIDIA的显卡驱动程序和CUDA完全是两个不同的概念哦!CUDA是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行,而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。
FaceFusion是一款可以直接换脸的项目,支持图片换脸和视频换脸,且不需要进行模型训练,是roop项目的迭代项目。
这几天,我花了一些时间,装系统,装软件,进行系统设置,搭建了一套令我比较满意的深度学习环境。下面就介绍一下我的深度学习软件配置。
之前⼀直使⽤ Tensorflow 训练模型,第⼀次训练Pytorch模型的时候,发现速度很慢,仔细观察,发现GPU 内存占⽤为0,基本没有使⽤GPU。
如果是深度学习的重度用户,首选的操作系统是Linux,虽然操作门槛高一些(如命令行操作),但Linux的开发环境很友好,可以减少很多依赖包不兼容的问题,可以大大提高效率。Linux的发行版很多,比较常用的的可以安装个包含图形界面及命令行的Ubuntu。
支持Linux和Windows平台CPU和GPU运算,对mac和手机终端也有相应支持。
在安装TensorFlow时,必须要注意与CUDA、cuDNN版本之间的搭配,否则有可能安装失败。下图是windows系统下版本对应关系:
1. 章节一:初探AI(《带你学AI与TensorFlow2实战一之深度学习初探》):(已完成)
目前我看官网主要推荐docker 方式了,那我们就用docker 方式试试。而且网上的安装教程也是docker 的居多【官方给出了一个教程】,我们也要与时俱进。
在tensorflow的学习中,想使用tensorflow-gpu版的学习,充分利用计算机。但是跟网上很多博主的方法安装gpu,cuda是安装成功了,但是却一直报以下一个错误。
$ lspci | grep -i nvidia 我的显示为Tesla P800
由于课题的原因,笔者主要通过 Pytorch 框架进行深度学习相关的学习和实验。在运行和学习网络上的 Pytorch 应用代码的过程中,不少项目会标注作者在运行和实验时所使用的 Pytorch 和 cuda 版本信息。由于 Pytorch 和 cuda 版本的更新较快,可能出现程序的编译和运行需要之前版本的 Pytorch 和 cuda 进行运行环境支持的情况。比如笔者遇到的某个项目中编写了 CUDAExtension 拓展,而其中使用的 cuda 接口函数在新版本的 cuda 中做了修改,使得直接使用系统上已有的新版本 cuda 时会无法编译使用。
【磐创AI导读】:本系列文章介绍了与tensorflow的相关知识,包括其介绍、安装及使用等。本篇文章是本系列文章的最后一篇。查看上篇:一文上手Tensorflow2.0之tf.keras|三。在文末作者给出了答疑群的二维码,有疑问的读者可以进群提问。想要获取更多的机器学习、深度学习资源,欢迎大家点击上方蓝字关注我们的公众号:磐创AI。
本文将介绍在 Windows 计算机上配置深度学习环境的全过程,其中涉及安装所需的工具和驱动软件。出人意料的是,即便只是配置深度学习环境,任务也不轻松。你很有可能在这个过程中犯错。我个人已经很多次从头开始配置深度学习环境了,但是通常是在对程序员更友好的操作系统 Linux 中。
虽然大多数深度学习模型都是在 Linux 系统上训练的,但 Windows 也是一个非常重要的系统,也可能是很多机器学习初学者更为熟悉的系统。要在 Windows 上开发模型,首先当然是配置开发环境。Kaggle Master 及机器学习实践者 Abhinand 立足于自己的实践,给出了一种简单易行的 Windows 深度学习环境配置流程。
不同ubuntu版本的ISO File: https://cn.ubuntu.com/download 注意: windows虚拟机中的显卡是物理CPU模拟出来的,没有调用物理GPU,所以虚拟机装ubuntu是无法进行深度学习训练。
前言 之前写过cuda环境的搭建文章, 这次干脆补全整个深度学习环境的搭建. ---- 开发环境一览 CPU: Intel core i7 4700MQ GPU: NVIDIA GT 750M
领取专属 10元无门槛券
手把手带您无忧上云