首页
学习
活动
专区
工具
TVP
发布

TensorFlow从0到N + Rust

专栏作者
55
文章
59109
阅读量
35
订阅数
TensorFlow从0到1 - 9 “驱魔”之反向传播大法
创世纪 2:7: “耶和华神用地上的尘土造人,将生气吹在他鼻孔里,他就成了有灵的活人。” 上一篇8 万能函数的形态:人工神经网络解封了人工神经网络,如果用非常简短的语言来概括它,我更喜欢维基百科的诠释: 人工神经网络是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。 就这样,人类照着上帝创造生灵万物的手法,居然也徒
袁承兴
2018-04-11
7950
TensorFlow从0到1 - 10 - NN基本功:反向传播的推导
上一篇 9 “驱魔”之反向传播大法引出了反向传播算法——神经网络的引擎,并在最后窥探了它的全貌。本篇将详细的讨论反向传播各方面的细节。尽管它被TensorFlow封装的很好,但仍强烈建议把它作为人工神经网络的基本功,理解并掌握它,回报巨大。 《Neural Network and Deep Learning》的作者Nielsen写道: It actually gives us detailed insights into how changing the weights and biases chang
袁承兴
2018-04-11
1.1K0
TensorFlow从0到1 - 8 - 万能函数的形态:人工神经网络
之前花了不小的篇幅来解释线性回归,尽管线性模型本身十分简单,但是确定模型参数的过程,却是一种数据驱动的、自学习的通用方式。准确的说,这个过程,是基于数据的、运用梯度下降算法来优化模型(减小损失)的算法框架。无论模型变得多复杂(多维、高阶),理论上我们都可以利用这个算法过程拟合模型。 似乎当有了数据就有了一切,但是这其中隐藏着一个假设:要事先知道模型的函数形式。 在复杂的现实问题面前,这个假设注定是毫无用处的。如果要对手写体数字进行分类,那么这个模型是几元的?几次的?包含多少项?不知道。这个时候,仅有大量的
袁承兴
2018-04-11
7240
TensorFlow从0到1 - 19 - 回顾
see you soon 《TensorFlow从0到1》就要结束了。 3条主线 这个部分共包含18篇文章,4万余字(简书的严格统计不到4万)。总的来说,它无外乎两方面内容:人工神经网络,及其TensorFlow实现。稍细分的话,有3条主线。 主线1:神经网络理论基础: 3 人类学习的启示 4 第一个机器学习问题 6 解锁梯度下降算法 8 万能函数的形态 9 “驱魔”之反向传播大法 10 NN基本功:反向传播的推导 主线2:TensorFlow入门: 1 Hello,TensorFlow! 2 Tens
袁承兴
2018-04-11
6840
TensorFlow从0到1 - 16 - L2正则化对抗“过拟合”
前面的14 交叉熵损失函数——防止学习缓慢和15 重新思考神经网络初始化从学习缓慢问题入手,尝试改进神经网络的学习。本篇讨论过拟合问题,并引入与之相对的L2正则化(Regularization)方法。
袁承兴
2018-04-11
1.3K0
TensorFlow从0到1 - 15 - 重新思考神经网络初始化
上一篇14 交叉熵损失函数——克服学习缓慢从最优化算法层面入手,将二次的均方误差(MSE)更换为交叉熵作为损失函数,避免了当出现“严重错误”时导致的学习缓慢。 本篇引入1/sqrt(nin)权重初始化方法,从另一个层面——参数初始化(神经网络调教的5个层面归纳在13 AI驯兽师:神经网络调教综述)入手改善网络的学习速度。 相比之前采用的标准正态分布初始化,1/sqrt(nin)权重初始化不仅明显的加快了学习速度,而且单纯性(其他任何参数不变)的提升了测试集识别精度1~2个百分点。 理解了1/sqrt(ni
袁承兴
2018-04-11
1.1K0
TensorFlow从0到1 - 13 - AI驯兽师:神经网络调教综述
在未来的AI时代,“手工程序”将变得越发稀有,而基于通用AI程序,通过大数据“习得”而生的程序,会无所不在。到那时,程序员将光荣卸任,取而代之的是一个新职业物种:他们无需像程序员那样了解所有细节,而是
袁承兴
2018-04-11
1.2K0
TensorFlow从0到1 - 14 - 交叉熵损失函数——防止学习缓慢
通过上一篇 13 驯兽师:神经网络调教综述,对神经网络的调教有了一个整体印象,本篇从学习缓慢这一常见问题入手,引入交叉熵损失函数,并分析它是如何克服学习缓慢问题。 学习缓慢 “严重错误”导致学习缓慢
袁承兴
2018-04-11
8140
TensorFlow从1到2 - 1 - 深度神经网络
上一主题《TensorFlow从0到1》介绍人工神经网络的基本概念与其TensorFlow实现,主要基于浅层网络架构,即只包含一个隐藏层的全连接(FC,Full Connected)网络。 新主题《T
袁承兴
2018-04-11
8940
TensorFlow从1到2 - 3 - 深度学习革命的开端:卷积神经网络
关于全连接神经网络(Full Connected Neural Network,FC)的讨论已经说的不少了,本篇将要介绍的是,从2006年至今的神经网络第三次浪潮中,取得巨大成功、处于最核心位置的技术
袁承兴
2018-04-11
7940
TensorFlow从1到2 - 2 - 消失的梯度
上一篇1 深度神经网络我们知道,通过追加隐藏层来构建更加“智能”的深度神经网络,并不奏效。 真正的问题不在“深度”本身,而是由梯度下降算法所指导的训练过程,容易遭遇梯度消失问题(Vanishing G
袁承兴
2018-04-11
1.2K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档