首页
学习
活动
专区
工具
TVP
发布

TensorFlow从0到N + Rust

专栏成员
55
文章
61557
阅读量
35
订阅数
【译文】Rust异步生态系统
Rust目前仅提供编写异步代码最基础的能力。重要的是,标准库尚未提供执行器,任务,反应器,组合器以及底层I/O futures和特质。同时,社区提供的异步生态系统填补了这些空白。
袁承兴
2021-01-05
1.1K0
回撸Rust China Conf 2020 之《浅谈Rust在算法题和竞赛中的应用》
刚刚结束的首届Rust China Conf 2020就是一种交流学习的方式。Rust中文社区采用直播并提供视频回放,为所有Rustacean提供了绝佳的、宝贵的学习资料。
袁承兴
2021-01-04
7210
【译文】Rust futures: async fn中的thread::sleep和阻塞调用
近来,关于Rust的futures和async/await如何工作(“blockers”,哈哈),我看到存在一些普遍的误解。很多新用户为async/await带来的重大改进而感到兴奋,但是却被一些基本问题所困扰。即使有了async/await,并发依然很难。文档还在进一步充实,阻塞/非阻塞之间的交互很棘手。希望本文对你有所帮助。
袁承兴
2020-10-10
2.9K0
Rust闭包的虫洞穿梭
闭包(Closure)的概念由来已久。无论哪种语言,闭包的概念都被以下几个特征共同约束:
袁承兴
2020-09-19
1.3K0
Rust所有权,可转可借
我们看到了Rust的不凡身手:只要跳出具有所有权的变量作用域,那么该变量所拥有的堆上内存,就会进行确定性的释放。
袁承兴
2020-07-15
1.2K0
讨厌算法的程序员 1 - 插入排序
什么是算法 在说插入排序之前,我们了解下《算法导论》对算法的从两种不同角度的定义。 一般性解释: 算法是定义良好的计算过程,它取一个或一组值作为输入,并产生出一个或一组值作为输出。 基于应用的解释: 算法是一种工具,用来解决一个具有良好规格说明的计算问题。该问题的描述可以用通用的语言,来规定所需的输入/输出关系。与之对应的算法则描述了一个特定的计算过程,用于实现这一输入/输出关系。 后一种解释在告诉我们,我们不必对于每个问题都去重新设计、证明和实现算法,而是有能力将实际问题转换成已知算法问题,
袁承兴
2018-04-11
6390
讨厌算法的程序员 0 - 前言
这个主题是写给自己的,假如你刚好也和我一样讨厌算法,那也是写给你的。我的主要参考书目是《算法导论》第3版中文版,自己先琢磨明白一个算法,然后再按我的理解写出来。 算法导论第三版 既然讨厌为什么还学?主
袁承兴
2018-04-11
8440
讨厌算法的程序员 2 - 证明算法的正确性
第1篇介绍了插入排序算法,这里要提出一个问题:学习算法仅仅是积累一个又一个的算法实现吗? 当然不是。比算法本身更重要也更基础的,是对算法的分析:能够证明其正确性,能够理解其效率。这也是自行设计新算法的
袁承兴
2018-04-11
1.5K0
讨厌算法的程序员 7 - 归并排序的时间复杂度分析
递归树 上一篇归并排序基于分治思想通过递归的调用自身完成了排序,本篇是关于归并排序的最后一部分——分析其时间复杂度。 这个过程中会解释清楚在各种时间复杂度中经常看到的一个记号——“lgn”(以2为底的
袁承兴
2018-04-11
6990
讨厌算法的程序员 4 - 时间复杂度
增长量级 函数的增长量级 上一篇算法分析基础中,我们分析了插入排序,知道了其最好情况下的运行时间为T(n) = an + b,最差情况下的运行时间为T(n) = an2 + bn + c。表达式中的常
袁承兴
2018-04-11
1.1K0
讨厌算法的程序员 6 - 归并排序
分而治之 分而治之 从算法设计的分类上来说,插入排序属于增量方法。在排序好子数组A[1 ‥ j-1]后,再将单个元素A[j]插入子数组的适当位置,产生排序好的子数组A[1 ‥ j]。整个算法就是不断以
袁承兴
2018-04-11
6330
讨厌算法的程序员 5 - 合并算法
本篇介绍的“合并”算法,是为后面学习“归并排序”的一个准备。合并算法是归并排序中的一个子算法,请注意两者之间的关系和差异。 之所以把它独立成一篇,一方面是一旦了解了它再理解归并排序就会简单很多,另一方
袁承兴
2018-04-11
7810
讨厌算法的程序员 3 - 算法分析基础
时间资源 上一篇,我们知道了如何用循环不变式来证明算法的正确性,本篇来看另一个重要方面:算法分析。分析算法的目的,是预测算法所需要的资源。资源不仅是指内存、CPU等硬件资源,人们更关注的是计算时间(时
袁承兴
2018-04-11
6610
TensorFlow从0到1 - 6 - 解锁梯度下降算法
上一篇 5 TF轻松搞定线性回归,我们知道了模型参数训练的方向是由梯度下降算法指导的,并使用TF的封装tf.train.GradientDescentOptimizer(0.01)(学习率为0.01)
袁承兴
2018-04-11
9720
TensorFlow从0到1 - 9 “驱魔”之反向传播大法
创世纪 2:7: “耶和华神用地上的尘土造人,将生气吹在他鼻孔里,他就成了有灵的活人。” 上一篇8 万能函数的形态:人工神经网络解封了人工神经网络,如果用非常简短的语言来概括它,我更喜欢维基百科的诠释: 人工神经网络是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。 就这样,人类照着上帝创造生灵万物的手法,居然也徒
袁承兴
2018-04-11
8200
TensorFlow从0到1 - 8 - 万能函数的形态:人工神经网络
之前花了不小的篇幅来解释线性回归,尽管线性模型本身十分简单,但是确定模型参数的过程,却是一种数据驱动的、自学习的通用方式。准确的说,这个过程,是基于数据的、运用梯度下降算法来优化模型(减小损失)的算法框架。无论模型变得多复杂(多维、高阶),理论上我们都可以利用这个算法过程拟合模型。 似乎当有了数据就有了一切,但是这其中隐藏着一个假设:要事先知道模型的函数形式。 在复杂的现实问题面前,这个假设注定是毫无用处的。如果要对手写体数字进行分类,那么这个模型是几元的?几次的?包含多少项?不知道。这个时候,仅有大量的
袁承兴
2018-04-11
7580
TensorFlow从0到1 - 4 - 第一个机器学习问题
上一篇 3 机器人类学习的启示借鉴人类学习的模式,描绘了数据驱动的机器学习方法论:通过大量数据来确定模型,从而让模型具有预测价值。本篇提出第一个机器学习问题,进一步看清楚机器学习的具体形式。 平行世界 在宇宙的一个平行世界中,天空是平面的,人们只能看到位于第一象限的星星。他们发现天上最亮的那颗星在缓慢的移动,于是收集了近千年以来所有天文学家的观测数据,共得到4次观测记载: 2200年,(22, 18) 2500年,(25, 15) 2800年,(28, 12) 3000年,(30, 10) 由于这颗星的意
袁承兴
2018-04-11
8930
TensorFlow从0到1 - 7 - TensorFlow线性回归的参数溢出之坑
上一篇 6 解锁梯度下降算法解释清楚了学习率(learning rate)。本篇基于对梯度下降算法和学习率的理解,去填下之前在线性回归中发现的一个坑。 在5 TF轻松搞定线性回归中提到,只要把TF官方
袁承兴
2018-04-11
7070
TensorFlow从1到2 - 2 - 消失的梯度
上一篇1 深度神经网络我们知道,通过追加隐藏层来构建更加“智能”的深度神经网络,并不奏效。 真正的问题不在“深度”本身,而是由梯度下降算法所指导的训练过程,容易遭遇梯度消失问题(Vanishing G
袁承兴
2018-04-11
1.2K0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档