首页
学习
活动
专区
工具
TVP
发布

Drafts

专栏成员
3
文章
733
阅读量
3
订阅数
L2参数正则化
只有在显著减小目标函数方向上的参数会保留得相对完好。在无助于目标函数减小的方向(对应 Hessian 矩阵较小的特征值)上改变参数不会显著增加梯度。这种不重要方向对应的分量会在训练过程中因正则化而衰减掉。通过权重衰减对优化一个抽象通用的二次代价函数的影响为例,我们会思考这些影响具体是怎么和机器学习关联的呢?我们可以研究线性回归,它的真实代价函数是二次的,因此我们可以使用相同的方法分析。再次应用分析,我们会在这种情况下得到相同的结果,但这次我们使用训练数据的术语表述。线性回归的代价函数是平方误差之和:
用户10360156
2023-03-02
3050
近似推断难题
许多概率模型很难训练的原因是很难进行推断。在深度学习中,通常我们有一系列可见变量 v 和一系列潜变量 h。推断困难通常是指难以计算 p(h | v) 或其期望。而这样的操作在一些诸如最大似然学习的任务中往往是必需的。许多仅含一个隐藏层的简单图模型会定义成易于计算 p(h | v) 或其期望的形式,例如受限玻尔兹曼机和概率 PCA。不幸的是,大多数具有多层隐藏变量的图模型的后验分布都很难处理。对于这些模型而言,精确推断算法需要指数量级的运行时间。即使一些只有单层的模型,如稀疏编码,也存在着这样的问题。我们可以参考几个用来解决这些难以处理的推断问题的技巧,其描述了如何将这些技巧应用到训练其他方法难以奏效的概率模型中,如深度信念网络、深度玻尔兹曼机。
用户10360156
2023-03-02
2530
直面配分函数
我们看到许多概率模型(通常是无向图模型)由一个未归一化的概率分布 ˜p(x, θ) 定义。我们必须通过除以配分函数 Z(θ) 来归一化 ˜p,以获得一个有效的概率分布:
用户10360156
2023-03-02
1750
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档