最近,TensorFlow 提供了中文版的教程(Tutorials)和指南(Guide)。
其实运行pip list 可以查看安装情况。正常情况是,1 个tensorflow,1个tensorboard,1个tensorflow-estimator,保证这样就行。
环境里安装了多个版本的tensorboard和tensorflow,按照提示卸载并重新安装:
本文介绍了如何使用 TensorFlow Datasets 和 Estimators 在 Python 中处理图像数据。首先介绍了如何使用 TensorFlow Datasets 构建数据集,然后介绍了如何使用 Estimators 在 TensorFlow 中实现自定义模型。通过这些技术,可以快速构建出用于图像分类、物体检测等任务的模型。
TensorFlow 最近提供了官方中文版教程(Tutorials)和中文版指南(Guide)。其中教程主要介绍了 TensorFlow 的基本概念,以及各种基础模型的简单实现方法,这些模型基本上都是用 Keras 等易于理解的高阶 API 完成。而指南则深入介绍了 TensorFlow 的工作原理,包括高阶 API、Estimator、低阶 API 和 TensorBoard 等。
现在 TensorFlow 有官方中文版教程啦,以前的英文版 Tutorials 有了对应的中文翻译。各位还在 TensorFlow 门前徘徊的开发者们,现在可以对着中文教程学习各种流行模型啦。
摘要: 在这篇文章中,我们将看到一个使用了最新高级构件的例子,包括Estimator(估算器)、Experiment(实验)和Dataset(数据集)。值得注意的是,你可以独立地使用Experiment和Dataset。不妨进来看看作者是如何玩转这些高级API的。 TensorFlow拥有很多库,比如Keras、TFLearn和Sonnet,对于模型训练来说,使用这些库比使用低级功能更简单。尽管Keras的API目前正在添加到TensorFlow中去,但TensorFlow本身就提供了一些高级构件,而且
本文将初步向码农和程序媛们介绍如何使用TensorFlow进行编程。在阅读之前请先 安装TensorFlow,此外为了能够更好的理解本文的内容,阅读之前需要了解一点以下知识:
对于开发者来说,在移动设备上运行预先训练好的模型的能力意味着向边界计算(edge computing)迈进了一大步。[译注:所谓的边界计算,从字面意思理解,就是与现实世界的边界。数据中心是网络的中心,PC、手机、监控照相机处在边界。]数据能够直接在用户手机上处理,私人数据仍然掌握在他们手中。没有蜂窝网络的延迟,应用程序可以运行得更顺畅,并且可大幅减少公司的云服务账单。快速响应式应用现在可以运行复杂的机器学习模型,这种技术转变将赋予产品工程师跳出条条框框思考的力量,迎来应用程序开发的新潮流。
Tensorflow 2.x 关于 MKL 验证的方法移到了其他 Module 下,所以原来检验的方法换掉了。按照 Intel 官网的提示 Tensorflow 1.x 的检验语法是 python -c"import tensorflow; print(tensorflow.pywrap_tensorflow.IsMklEnabled())",这在 Tensorflow 2.x 里会报错,需要改成 python -c "from tensorflow.python.framework import test_util;print(test_util.IsMklEnabled())"。前后两种方法的日志如下。
https://sites.google.com/view/actionablerepresentations
TensorFlow、Keras和PyTorch是目前深度学习的主要框架,也是入门深度学习必须掌握的三大框架,但是官方文档相对内容较多,初学者往往无从下手。本人从github里搜到三个非常不错的学习资源,并对资源目录进行翻译,强烈建议初学者下载学习,这些资源包含了大量的代码示例(含数据集),个人认为,只要把以上资源运行一次,不懂的地方查官方文档,很快就能理解和运用这三大框架。
今天,谷歌宣布开源AdaNet,这是一个轻量级的基于TensorFlow的框架,可以在最少的专家干预下自动学习高质量的模型。
【一】tensorflow安装、常用python镜像源、tensorflow 深度学习强化学习教学
windows系统anaconda安装tensorflow时报错解决办法。 报错: Traceback (most recent call last): File “E:\Anaconda3\lib\site-packages\pip_vendor\urllib3\response.py”, line 360, in _error_catcher yield File “E:\Anaconda3\lib\site-packages\pip_vendor\urllib3\response.py”, line 442, in read data = self._fp.read(amt) File “E:\Anaconda3\lib\site-packages\pip_vendor\cachecontrol\filewrapper.py”, line 62, in read data = self.__fp.read(amt) File “E:\Anaconda3\lib\http\client.py”, line 447, in read n = self.readinto(b) File “E:\Anaconda3\lib\http\client.py”, line 491, in readinto n = self.fp.readinto(b) File “E:\Anaconda3\lib\socket.py”, line 589, in readinto return self._sock.recv_into(b) File “E:\Anaconda3\lib\ssl.py”, line 1052, in recv_into return self.read(nbytes, buffer) File “E:\Anaconda3\lib\ssl.py”, line 911, in read return self._sslobj.read(len, buffer) socket.timeout: The read operation timed out
本文介绍基于TensorBoard工具,对tensorflow库构建的神经网络模型加以可视化,并对其训练过程中的损失函数(Loss)、精度指标(Metric)等的变化情况加以可视化的方法。
选自ruder.io 作者:Sebastian Ruder 机器之心编译 参与:Geek AI、张倩 本文探讨了如何使用自定义的 TensorFlow Estimator、嵌入技术及 tf.layers 模块来处理文本分类任务,使用的数据集为 IMDB 评论数据集。通过本文你将学到如何使用 word2vec 词嵌入和迁移学习技术,在有标签数据稀缺时获得更好的模型性能。 本文主要内容如下: 使用 Datasets 装载数据 使用预封装好的评估器(estimator)构建基线 使用词嵌入技术 通过卷积层和 LS
本文选自介绍 TensorFlow 的 Datasets 和 Estimators 模块系列博文的第四部分。读者无需阅读所有之前的内容,如果想重温某些概念,可以查看以下链接:
昨晚睡了12小时,早上起来神清气爽,索性把之前提的一个Issue:Is there any plan to port TensorframeOnSpark(From yahoo) 给尝试着集成进来。 前两天已经添加了一个 TFTextEstimator:为Spark Deep Learning 添加NLP处理实现,不过只能做hyper parameter tuning,做不了真正的分布式训练,所以正好把这个特性加到了这个Estimator里。
选自Medium 作者:Peter Roelants 机器之心编译 参与:李泽南、黄小天 近日,背景调查公司 Onfido 研究主管 Peter Roelants 在 Medium 上发表了一篇题为《Higher-Level APIs in TensorFlow》的文章,通过实例详细介绍了如何使用 TensorFlow 中的高级 API(Estimator、Experiment 和 Dataset)训练模型。值得一提的是 Experiment 和 Dataset 可以独立使用。这些高级 API 已被最新发布
TensorFlow 模型还可用于在移动和嵌入式平台上运行的应用。 TensorFlow Lite 和 TensorFlow Mobile 是资源受限移动设备的两种 TensorFlow。与 TensorFlow Mobile 相比,TensorFlow Lite 支持功能的子集。由于较小的二进制大小和较少的依赖项,TensorFlow Lite 可以获得更好的表现。
结合不同机器学习模型预测的集成学习在神经网络中得到广泛使用以获得最优性能,它从其悠久历史和理论保证中受益良多,从而在 Netflix Prize 和多项 Kaggle 竞赛等挑战赛中取得胜利。但是,因其训练时间长、机器学习模型的选择要求领域专业知识,它们在实践中并不那么常用。而随着算力、深度学习专用硬件(如 TPU)的发展,机器学习模型将越来越大,集成技术也将越发重要。现在,想象一个工具,它能够自动搜索神经架构,学习将最好的神经架构集成起来构建高质量模型。
本文介绍了如何使用Google Cloud Platform进行深度学习训练和部署。作者首先介绍了Google Cloud Platform的特点和优势,然后详细讲解了如何利用TensorFlow和Keras在Google Cloud Platform上部署和训练深度学习模型。作者还通过一个实际的案例演示了如何使用Google Cloud Platform进行训练和部署深度学习模型,并分享了在使用过程中需要注意的一些重要细节。
本文介绍了如何使用Google Cloud Platform进行深度学习训练和部署,包括TensorFlow、Keras、PyTorch等框架的使用。作者通过在Google Cloud Platform中创建项目、配置训练环境、使用Cloud Storage上传数据集、使用TensorFlow训练模型、将模型部署到Cloud Machine Learning Engine中等一系列操作,展示了如何使用Google Cloud Platform进行高效的深度学习训练和部署。
AI 科技评论编者按:近期,Google 开源了轻量级 AutoML 框架—— AdaNet,该框架基于 TensorFlow,只需要少量的专家干预便能自动学习高质量模型,在提供学习保证(learning guarantee)的同时也能保持快速、灵活。值得一提的是,AdaNet 提供了一种通用框架,不仅能够学习神经网络架构,还能学习集成从而获得更佳的模型。AI 科技评论根据 Google AI 在博客上发布 AutoML 的文章进行编译如下。
编译 | AI科技大本营 参与 | 张建军 TensorFlow 1.7.0 近日正式发布,新版本主要有以下改进内容,AI科技大本营对其进行了编译。 主要特征和改进 从 contrib 中移除 Eager 模式,现在请用 tf.enable_eager_execution() Graph 重写了仿真定点量化器,现在与TensorFlow Lite 兼容,由新的tf.contrib.quantize 包支持 利用 tf.custom_gradient可以简单定制梯度的计算 TensorBoard 调试
TensorFlow 1.3 引入了两个重要功能,您应当尝试一下: 数据集:一种创建输入管道(即,将数据读入您的程序)的全新方式。 估算器:一种创建 TensorFlow 模型的高级方式。估算器包括
排序是机器学习场景中最常见的问题之一。从搜索到推荐系统,排名模型是许多主流机器学习体系结构的重要组成部分。在机器学习理论中,排序方法通常使用像learning-to-rank(LTR)或machine learning ranking机器学习排序(LTR)这样的术语。尽管具有相关性,但是在大多数机器学习框架中,大规模开发LTR模型仍然是一个挑战。最近,来自谷歌的人工智能(AI)工程师引入了TF-Ranking,这是一个基于TensorFlow的框架,用于构建高度可伸缩的LTR模型。几周前发表的一篇研究论文详细阐述了TF-Ranking背后的原则。
选自GitHub 机器之心编译 参与:路雪 这套资源可以通过示例让你轻松学习 TensorFlow。至于可读性,它可以作为包括笔记本和注释的源代码教程,适合想寻找清晰准确的 TensorFlow 示例的初学者。除了传统的「原始」TensorFlow 实现之外,你还可以找到最新的 TensorFlow API 实践(如层、估计器、数据集等)。 链接:https://github.com/aymericdamien/TensorFlow-Examples 最近一次更新(2017.08.27):本教程推荐使用 T
TensorFlow 1.3 引入了两个重要功能,您应当尝试一下: 数据集:一种创建输入管道(即,将数据读入您的程序)的全新方式。 估算器:一种创建 TensorFlow 模型的高级方式。估算器包括适用于常见机器学习任务的预制模型,不过,您也可以使用它们创建自己的自定义模型。 下面是它们在 TensorFlow 架构内的装配方式。结合使用这些估算器,可以轻松地创建 TensorFlow 模型和向模型提供数据: 我们的示例模型 为了探索这些功能,我们将构建一个模型并向您显示相关的代码段。完整
苹果为M1芯片的Mac提供了TensorFlow的支持,可以使用M1芯片进行硬件加速,以下是如何给使用M1芯片的macOS安装TensorFlow的环境。
TensorFlow 1.9.0正式版发布了,下面是更新和改进的细节,更详细的信息请到网站查阅:github.com/tensorflow/tensorflow/releases/tag/v1.9.0
eXtreme Deep Factorization Machine (xDeepFM)
TensorFlow 估算器提供了一套中阶 API 用于编写、训练与使用机器学习模型,尤其是深度学习模型。在这篇博文中,我们描述了如何通过使用异步执行来避免每次调用预测方法时都需重载模型,从而让 TF 估算器的推断提速超过百倍。
整理 | 费棋 天体物理学家使用 TensorFlow 分析开普勒任务中的大量数据,以发现新的行星; 医学研究人员利用 TensorFlow 机器学习技术来评估一个人心脏病发作和中风的几率; 科学家在非洲用 TensorFlow 检测木薯植物疾病,从而提高产量并帮助更好地满足非洲大陆的粮食需求; …… 这是 TensorFlow 团队对过去一年来的总结,他们在诸多领域取得了进步。 北京时间 3 月 31 日凌晨,第二届 TensorFlow 开发者峰会开幕, TensorFlow 团队发布了多款新产品,
天体物理学家使用 TensorFlow 分析开普勒任务中的大量数据,以发现新的行星; 医学研究人员利用 TensorFlow 机器学习技术来评估一个人心脏病发作和中风的几率; 科学家在非洲用 TensorFlow 检测木薯植物疾病,从而提高产量并帮助更好地满足非洲大陆的粮食需求; …… 这是 TensorFlow 团队对过去一年来的总结,他们在诸多领域取得了进步。 北京时间 3 月 31 日凌晨,第二届 TensorFlow 开发者峰会开幕, TensorFlow 团队发布了多款新产品,旨在使开发者更易使用,以及让数据科学家使用多种方式构建 AI 模型。
上一篇 第一个机器学习问题 其实是一个线性回归问题(line regression),呈现了用数据来训练模型的具体方式。本篇从平行世界返回,利用TensorFlow,重新解决一遍该问题。 TensorFlow的API有低级和高级之分。 底层的API基于TensorFlow内核,它主要用于研究或需要对模型进行完全控制的场合。如果你想使用TF来辅助实现某个特定算法、呈现和控制算法的每个细节,那么就该使用低级的API。 高级API基于TensorFlow内核构建,屏蔽了繁杂的细节,适合大多数场景下使用。如果你有一
【导读】本文是谷歌机器学习工程师 Chris Rawles 撰写的一篇技术博文,探讨了如何在 TensorFlow 和 tf.keras 上利用 Batch Normalization 加快深度神经网络的训练。我们知道,深度神经网络一般非常复杂,即使是在当前高性能GPU的加持下,要想快速训练深度神经网络依然不容易。Batch Normalization 也许是一个不错的加速方法,本文介绍了它如何帮助解决梯度消失和梯度爆炸问题,并讨论了ReLu激活以及其他激活函数对于抵消梯度消失问题的作用。最后,本文使用Te
最近,谷歌在GitHub上发布了用TensorFlow实现的AutoML框架——AdaNet,它改进了集成学习的方法,能以最少的专家干预实现自动习得高质量模型。
本文属于介绍性文章,其中会介绍许多TensorFlow的新feature和summit上介绍的一些有意思的案例,文章比较长,可能会花费30分钟到一个小时
Ensemble learning结合不同机器学习模型预测,被广泛用于神经网络以实现最先进的性能,得益于丰富的历史和理论保证,成功的挑战,如Netflix奖和各种Kaggle竞赛。然而,由于训练时间长,它们在实践中使用不多,机器学习模型候选者选择需要其自己的领域专业知识。但随着计算能力和专用深度学习硬件(如TPU)变得越来越容易获得,机器学习模型将变得更大,整体效果将变得更加突出。现在,想象一个工具可以自动搜索神经架构,并学会将最好的架构组合成一个高质量的模型。
大数据文摘作品,转载要求见文末 作者 | av8ramit 编译|钱天培 TensorFlow在今天最新发布了1.2.0版本。在这一新版本中,TensorFlow新增Intel MKL优化深度学习基元,实现了对Windows系统上对Python 3.6的支持,发布了开源版的TensorBoard,并进行了大量的命名修改,以实习同一模块内命名的一致性。下面,大数据文摘将为你带来完整版的TensorFlow 1.2.0 改进介绍。 ◆ 在Windows上提供Python 3.6支持 ◆为spatio tempo
專 欄 ❈那只猫,Python中文社区专栏作者,Python中文社区新Logo设计人,纯种非CS科班数据分析人,沉迷Keras。在Cambridge做了点小事,深度学习的小学生。❈— 目录: Tensorflow在Windows10的安装 Tensorflow,那么什么是Tensor? 为什么Tensorflow那么受欢迎? CNTK分析。 Reference Tensorflow在Windows10的安装 在Windows玩了很久的Tensorflow,但由于某些不可抗因素,硬是格式化了Windows。
今年三月,谷歌在TensorFlow 开发者大会上发布了TensorFlow 2.0 Alpha版。开发者们喜忧参半,可喜的是这次TensorFlow团队听去了开发者的反馈,新版本着重突出简单、强大、可拓展三大特点。
因为使用conda下载数据有时候因为网络问题下载非常慢,因此我把conda的环境备份好,到时可以直接使用conda的conda create -n 新环境名字 –clone 环境的路径 , 直接把路径下原有的环境克隆到新环境中。
引言 TensorFlow从15年10月开源至今,可谓是发展迅猛,从v0.5到如今的v2.0.0-alpha,经历了无数个功能特性的升级,性能、可用性、易用性等都在稳步提升。相对来说,对于我们工业界,大家可能更关注分布式TensorFlow的发展,本文尝试梳理下分布式TensorFlow从问世到现在经历过的变迁。 分布式TensorFlow运行时基本组件 用户基于TensorFlow-API编写好代码提交运行,整体架构如下图所示。 [ dist-tf ] Client 可以把它看成是TensorFlo
TensorFlow涉及到的运算,往往是在训练庞大的神经网络过程中出现的复杂且难以理解的运算,为了方便对程序进行理解、调试和优化,tensorflow提供了一个叫做tensorboard的可视化工具来对模型以及训练过程进行可视化描述。你可以使用它来展示模型结构,绘制出关键参数的变化过程图,观察训练过程并根据图形适当调整模型参数。 以下是一个使用tensorboard进行可视化的一个实例,该例构建了一个两层深度网络模型,并在训练的过程中对一些参数及准确度做了记录,并可以在tensorboard中以图表方式展现,图片见代码部分后面。
如果你从事软件开发,你就会知道 Bug 是生活的一部分。当你开始你的项目时,Bug 就可能存在,当你把你的产品交付给客户时,Bug 也可能存在。在过去的几十年中,软件开发社区已经开发了许多的技术工具、IDE、代码库等来帮助开发者尽早地发现 Bug,以避免在产品交付的时候仍旧存在 Bug。
领取专属 10元无门槛券
手把手带您无忧上云