首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【机器学习基础】一文搞懂机器学习里的L1与L2正则化

范数有很多种,我们常见的有L1-norm和L2-norm,其实还有L3-norm、L4-norm等等,所以抽象来表示,我们会写作Lp-norm,一般表示为 : 对于上面这个抽象的公式,如果我们代入p值..., 若p为1,则就是我们常说的L1-norm: 若p为2,则是我们常说的L2-norm: 我们引用文章里的图片,L2-norm的距离就是两个黑点之间的绿线,而另外的3条线,都是L1-norm的大小。...首先,我们从上面那张二维的图可以看出,对于L2-norm,其解是唯一的,也就是绿色的那条;而对于L1-norm,其解不唯一,因此L1正则化项,其计算难度通常会高于L2的。...若使用L1-norm来衡量距离,那就是我们的LAD(Least Absolute Deviation,最小绝对偏差),其优化的目标函数如下: 实际意义上的解释就是预测值与真实值之间的绝对值。

2K20
您找到你想要的搜索结果了吗?
是的
没有找到

特征锦囊:今天一起搞懂机器学习里的L1与L2正则化

范数有很多种,我们常见的有L1-norm和L2-norm,其实还有L3-norm、L4-norm等等,所以抽象来表示,我们会写作Lp-norm,一般表示为 : 对于上面这个抽象的公式,如果我们代入p值..., 若p为1,则就是我们常说的L1-norm: 若p为2,则是我们常说的L2-norm: 我们引用文章里的图片,L2-norm的距离就是两个黑点之间的绿线,而另外的3条线,都是L1-norm的大小。...首先,我们从上面那张二维的图可以看出,对于L2-norm,其解是唯一的,也就是绿色的那条;而对于L1-norm,其解不唯一,因此L1正则化项,其计算难度通常会高于L2的。...若使用L1-norm来衡量距离,那就是我们的LAD(Least Absolute Deviation,最小绝对偏差),其优化的目标函数如下: 实际意义上的解释就是预测值与真实值之间的绝对值。

1.3K40

CVPR 提前看:视觉常识的最新研究进展

在这篇文章中,作者提出了一种加法器网络(AdderNet),在放弃卷积运算的同时最大限度地利用加法,即,给定一系列小模板作为「神经网络中的滤波器」,使用 L1-norm 距离计算输入信号和模板之间的差异...CNN 是通过角度来区分不同类别的特征,而使用 L1-norm 距离的 AdderNet 则是通过向不同类别的类中心聚集来区分别不同类别的特征。...由于减法可以通过其补码通过加法实现,因此 L1-norm 距离可以是一种硬件友好的仅具有加法的度量,作者认为,它可以成为构造神经网络的卷积的有效替代方法。 ? 图 1....L1-norm 距离计算的是两个矢量表示的绝对差之和,它不包含乘法运算。此时,相似性计算公式为: ?

45010
领券