首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

数据挖掘从入门到放弃(七):TensorFlow和keras实现线性回归LinearRegression

从实践出发学习TensorFlow和teras机器学习框架,分别用tf和keras实现线性模型,两者区别在于前者相当于手推了线性回归模型,后者使用单层的感知机,很便捷。...相同内容更新在:https://blog.csdn.net/yezonggang 使用TensorFlow(2.0) 需要自定义优化器、拟合函数等,如下: from __future__ import...absolute_import, division, print_function import tensorflow as tf import numpy as np rng = np.random...with tf.GradientTape() as g: pred = linear_regression(X) loss = mean_square(pred, Y)...中,梯度下降法GradientTape的使用: #举个例子:计算y=x^2在x = 3时的导数: x = tf.constant(3.0) with tf.GradientTape() as g:

90530

TensorFlow 2.0 Alpha 版发布啦!

我们在 TensorFlow 开发者峰会 上宣布了 TensorFlow 2.0 Alpha 版,用户现在可以抢先体验。...注:TensorFlow 开发者峰 链接 https://www.tensorflow.org/dev-summit 入门指南 要快速上手 TensorFlow 2.0 Alpha 版,最佳途径是前往...资深人士示例 展示如何命令式地编写正向传递、如何使用 GradientTape 编写自定义训练循环,以及如何使用 tf.function 自动编译代码(仅需一行代码!)...我们来看一下 此示例 中以 TensorFlow 2.0 风格编写的自定义训练循环: def train_one_step(model, optimizer, x, y): with tf.GradientTape.../docs/blob/master/site/en/r2/guide/autograph.ipynb 此示例采用 Autograd 风格的 GradientTape,并通过优化器手动应用您的梯度。

1.1K30
领券