作者:massquantity
原文:https://www.cnblogs.com/massquantity/p/12693314.html 点击阅读原文可以前往
整理:秋枫学习笔记
note:公式太长可以左右滑动
本文主要和大家介绍在线学习中应用非常广泛也非常经典的算法FTRL。
在线学习想要解决的问题
在线学习 ( OnlineLearning ) 代表了一系列机器学习算法,特点是每来一个样本就能训练,能够根据线上反馈数据,实时快速地进行模型调整,使得模型及时反映线上的变化,提高线上预测的准确率。相比之下,传统的批处理方式需要一次性收集所有数据,新数据到来时重新训练的代价也很大,因而更新周期较长,可扩展性不高。一般对于在线学习来说,我们致力于解决两个问题:降低 regret 和提高 sparsity 。其中 regret 的定义为:
\text { Regret }=\sum_{t=1}^{T} \ell_{t}\left(\mathbf{w}_{t}\right)-\min _{\mathbf{w}} \sum_{t=1}^{T} \ell_{t}(\mathbf{w})
其中t表示总共T轮中的第轮迭代,
l_t 表示损失函数,w表示要学习的参数。第二项
\min _{\mathbf{w}} \sum_{t=1}^{T} \ell_{t}(\mathbf{w}) 表示得到了所有样本后损失函数的最优解,因为在线学习一次只能根据少数几个样本更新参数,随机性较大,所以需要一种稳健的优化方式,而 regret 字面意思是 “后悔度”,意即更新完不后悔。在理论上可以证明,如果一个在线学习算法可以保证其 regret 是t的次线性函数,则:
\lim _{t \rightarrow \infty} \frac{\operatorname{Regret}(t)}{t}=0
那么随着训练样本的增多,在线学习出来的模型无限接近于最优模型。而毫不意外的,FTRL 正是满足这一特性。另一方面,现实中对于 sparsity,也就是模型的稀疏性也很看中。上亿的特征并不鲜见,模型越复杂,需要的存储、时间资源也随之升高,而稀疏的模型会大大减少预测时的内存和复杂度。另外稀疏的模型相对可解释性也较好,这也正是通常所说的 L1 正则化的优点。后文主要考察 FTRL 是如何实现降低 regret 和提高 sparsity 这两个目标的。
FTRL原理
网上很多资料都是从 FTRL 的几个前辈,FOBOS、RDA 等一步步讲起,本篇就不绕那么大的圈子了,直接从最基本的 OGD 开路到 FTRL 。OGD ( onlinegradientdescent ) 是传统梯度下降的 online 版本,参数更新公式为:
\mathbf{w}_{t+1}=\mathbf{w}_{t}-\eta_{t} \mathbf{g}_{t} (1.1)
t表示第t轮迭代,注意上式中的学习率
\eta_t 每轮都会变,一般设为
\eta_t=\frac{1}{\sqrt{t}} 。OGD 在准确率上表现不错,即 regret 低,但在上文的另一个考量因素 sparsity 上则表现不佳,即使加上了 L1 正则也很难使大量的参数变零。一个原因是浮点运算很难让最后的参数出现绝对零值;另一个原因是不同于批处理模式,online 场景下每次w的更新并不是沿着全局梯度进行下降,而是沿着某个样本的产生的梯度方向进行下降,整个寻优过程变得像是一个“随机” 查找的过程,这样 online 最优化求解即使采用 L1 正则化的方式, 也很难产生稀疏解。正因为 OGD 存在这样的问题,FTRL 才致力于在准确率不降低的前提下提高稀疏性。相信大部分人对于(1.1)式都不陌生,然而其实际等价于下式:
\mathbf{w}_{t+1}=\underset{\mathbf{w}}{\operatorname{argmin}}\left(\mathbf{g}_{t} \cdot \mathbf{w}+\frac{1}{2 \eta_{t}}\left\|\mathbf{w}-\mathbf{w}_{t}\right\|_{2}^{2}\right) (1.2)
对(1.2) 式直接求导即可,
\mathbf{g}_{t}+\frac{1}{\eta_{t}}\left(\mathbf{w}-\mathbf{w}_{t}\right)=0 \quad \Longrightarrow \quad \mathbf{w}=\mathbf{w}_{t}-\eta_{t} \mathbf{g}_{t} 。有了(1.2) 式的基础后,后面 FTRL 的那些奇奇怪怪的变换就能明了了,目的无非也是降低 regret 和提高 sparsity 。首先,为了降低 regret,FTRL 用
g_{1:t} 代替
g_t ,
g_{1:t} 为前 1 到 t 轮损失函数的累计梯度,即
\mathbf{g}_{1: t}=\sum_{s=1}^{t} \mathbf{g}_{s}=\sum_{s=1}^{t} \nabla \ell_{s}\left(\mathbf{w}_{s}\right) 。由于在线学习随机性大的特点,累计梯度可避免由于某些维度样本局部抖动太大导致错误判断。这是从 FTL ( FollowtheLeader ) 那借鉴而来的,而 FTRL 的全称为 Follow the Regularized Leader ,从名字上看其实就是在 FTL 的基础上加上了正则化项,即(1.2) 式中的
||w-w_t||_2^2 项。这意味着每次更新时我们不希望新的w离之前的
w_t 太远 (这也是有时其被称为 FTRL-proximal 的原因),这同样是为了降低 regret,在线学习噪音大,若一次更新错得太远后面难以收回来,没法轻易“后悔”。其次,为提高 sparsity ,最直接的方法就是无脑加 L1 正则。但这里的问题是上文中 OGD 加了 L1 正则不能产生很好的稀疏性,那么 FTRL 为什么就能呢?这在后文的具体推导中会逐一显现,耐心看下去就是。另外 FTRL 2013 年的工程论文中也加上了 L2 正则,所以综合上述几点,FTRL 的更新公式变为:
\mathbf{w}_{t+1}=\underset{\mathbf{w}}{\operatorname{argmin}}\left(\mathbf{g}_{1: t} \cdot \mathbf{w}+\frac{1}{2} \sum_{s=1}^{t} \sigma_{s}\left\|\mathbf{w}-\mathbf{w}_{s}\right\|_{2}^{2}+\lambda_{1}\|\mathbf{w}\|_{1}+\frac{1}{2} \lambda_{2}\|\mathbf{w}\|_{2}^{2}\right) (1.3)
其中,
\sigma_s=\frac{1}{\eta_s}-\frac{1}{\eta_{s-1}} ,
\sigma_{1: t}=\sum_{s=1}^{t} \sigma_{s}=\frac{1}{\eta_{s}} ,主要是为了后面推导和实现方便而这么设置,后文再述。下面可以推导 FTRL 的算法流程,将(1.3) 式中的
||w-w_s||^2_2 展开:
\mathbf{w}_{t+1}=\underset{\mathbf{w}}{\operatorname{argmin}}\left\{\left(\mathbf{g}_{1: t}-\sum_{s=1}^{t} \sigma_{s} \mathbf{w}_{s}\right) \cdot \mathbf{w}+\lambda_{1}\|\mathbf{w}\|_{1}+\frac{1}{2}\left(\lambda_{2}+\sum_{s=1}^{t} \sigma_{s}\right) \cdot\|\mathbf{w}\|_{2}^{2}+\frac{1}{2} \sum_{s=1}^{t} \sigma_{s}\left\|\mathbf{w}_{s}\right\|_{2}^{2}\right\}(1.4)
由于
\frac{1}{2} \sum_{s=1}^{t} \sigma_{s}\left\|\mathbf{w}_{s}\right\|_{2}^{2} 相对于要优化的w是一个常数,可以消去,并令
\mathbf{z}_t=\mathbf{g}_{1: t}-\sum_{s=1}^{t} \sigma_{s} \mathbf{w}_{s} ,于是式(1.4)可以改写为:
\mathbf{w}_{t+1}=\underset{\mathbf{w}}{\operatorname{argmin}}\left\{\mathbf{z}_{t} \cdot \mathbf{w}+\lambda_{1}\|\mathbf{w}\|_{1}+\frac{1}{2}\left(\lambda_{2}+\sum_{s=1}^{t} \sigma_{s}\right) \cdot\|\mathbf{w}\|_{2}^{2}\right\}(1.5)
将特征的各个维度拆开成独立的标量最小化问题,i 为 第 i 个特征:
w_{t+1, i}=\underset{w_{i} \in \mathbb{R}}{\operatorname{argmin}}\left\{z_{t, i} w+\lambda_{1}\left|w_{i}\right|+\frac{1}{2}\left(\lambda_{2}+\sum_{s=1}^{t} \sigma_{s}\right) \cdot w_{i}^{2}\right\}(1.6)
(1.6) 式是一个无约束的非平滑参数优化问题,其中第二项
\lambda_1|w_i| 在
w_i 处不可导,因而常用的方法是使用次导数 (详见附录1 ),这里直接上结论:定义
\phi \in \partial\left|w_{i}^{*}\right| 为
|w_i| 在
w_i^* 处的次导数,于是有:
\partial\left|w_{i}^{*}\right|=\left\{\begin{array}{cc}
\{1\} & \text { if } w_{i}^{*}>0 \\
-1<\phi<1 & \text { if } w_{i}^{*}=0 \\
\{-1\} & \text { if } w_{i}^{*}<0
\end{array}\right.(1.7) 有了|wi| 的次导数定义后,对(1.6) 式求导并令其为零:
z_{t, i}+\lambda_{1} \phi+\left(\lambda_{2}+\sum_{s=1}^{t} \sigma_{s}\right) \cdot w_{i}=0(1.8)
上式中
\lambda_{1}>0, \quad\left(\lambda_{2}+\sum_{s=1}^{t} \sigma_{s}\right)>0 ,下面对
z_{t,i} 的取值分类讨论:
|z_{t,i}|<\lambda_1 ,那么
w_i=0 。因为若
w_i>0 ,根据(1.7) 式ϕ=1 ,则(1.8) 式左侧>0 ,该式不成立;同样若w1<0,则(1.8) 式左侧<0,不成立。
z_{t,i}>\lambda_1 ,则
\phi=-1 \Longrightarrow w_{i}=-\frac{1}{\lambda_{2}+\sum_{s=-1}^{t} \sigma_{s}}\left(z_{t, i}-\lambda_{1}\right)<0 。因为若 wi>0,ϕ=1,(1.8) 式左侧>0,不成立;若 wi=0,由(1.8) 式
\phi=-\frac{z_{t,i}}{\lambda_1}<-1 ,与(1.7) 式矛盾。
z_{t,i}>-\lambda_1 ,则
\phi=1 \Longrightarrow w_{i}=-\frac{1}{\lambda_{2}+\sum_{s=-1}^{t} \sigma_{s}}\left(z_{t, i}+\lambda_{1}\right)>0 。因为若 wi<0,ϕ=−1,(1.8) 式左侧<0,不成立;若wi=0,由(1.8) 式
\phi=-\frac{z_{t,i}}{\lambda_1}>1 ,与 (1.7)(1.7) 式矛盾。
综合这几类情况,由 (1.8) 式得到 wt,i 的更新公式:
w_{t+1, i}=\left\{\begin{array}{cl}
0 & \text { if }\left|z_{t, i}\right|<\lambda_{1} \\
-\frac{1}{\lambda_{2}+\sum_{s=1}^{t} \sigma_{s}}\left(z_{t, i}-\operatorname{sgn}\left(z_{t, i}\right) \cdot \lambda_{1}\right) & \text { otherwise }
\end{array}\right.(1.9) 可以看到当
z_{t,i}=\left(g_{1:t,i}-\sum_{s=1}^{t}{\sigma_sw_{s,i}}\right)<\lambda_1 时,参数置为零,这就是 FTRL 稀疏性的由来。另外加入 L2 正则并没有影响模型的稀疏性,从 (1.9) 式看只是使得分母变大,进而 wi 更趋于零了,这在直觉上是符合正则化本身的定义的。观察 (1.9) 式还遗留一个问题,σ 的值是什么呢?这牵涉到 FTRL 的学习率设置。当然严格意义上的学习率是
\eta_t ,而
\sigma_t=\frac{1}{\eta_t}-\frac{1}{\eta_{t-1}} ,论文中这样定义可能是为了推导和实现的方便。前文 (1.1) 式中 OGD 使用的是一个全局学习率
\eta_t=\frac{1}{\sqrt{t}} ,会随着迭代轮数的增加而递减,但该方法的问题是所有特征维度都使用了一样的学习率。FTRL 采用的是 Per-Coordinate Learning Rate,即每个特征采用不同的学习率,这种方法考虑了训练样本本身在不同特征上分布的不均匀性。如果一个特征变化快,则对应的学习率也会下降得快,反之亦然。其实近年来随着深度学习的流行这种操作已经是很常见了,常用的 AdaGrad、Adam 等梯度下降的变种都蕴含着这类思想。FTRL 中第 t 轮第 i 个特征的学习率为:
\eta_{t,i}=\frac{\alpha}{\beta+\sqrt{\sum_{s=1}^t}{g_{s,i}^2}} (1.10)
这样(1.9) 式中的
\sum_{s=1}^t{\sigma_s} 为:
\begin{aligned}
\sum_{s=1}^{t} \sigma_{s} &=\left(\frac{1}{\eta_{t}}-\frac{1}{\eta_{t-1}}\right)+\left(\frac{1}{\eta_{t-1}}-\frac{1}{\eta_{t-2}}\right)+\cdots+\left(\frac{1}{\eta_{1}}-\frac{1}{\eta_{0}}\right) \\
&=\frac{1}{\eta_{t}}=\frac{\beta+\sqrt{\sum_{s=1}^{t} g_{s, i}^{2}}}{\alpha}
\end{aligned}(1.11) 其中α,β 为超参数,论文中建议 β 设为 1,而 α 则根据情况选择。
g_{s,i} 为第 s 轮第 i 个特征的偏导数,于是 (1.9) 式变为:
w_{t+1, i}=\left\{\begin{array}{cl}
0 & \text { if }\left|z_{t, i}\right|<\lambda_{1} \\
-\left(\lambda_{2}+\frac{\beta+\sqrt{\sum_{s=1}^{t} g_{s, i}^{2}}}{\alpha}\right)^{-1}\left(z_{t, i}-\operatorname{sgn}\left(z_{t, i}\right) \cdot \lambda_{1}\right) & \text { otherwise }
\end{array}\right.(1.12) 综合(1.10) 式和(1.12) 式可以看出,学习率
\eta_{t,i} 越大,则参数 w 更新幅度越大,这与学习率的直觉定义相符。
FTRL实现
完整代码见 ( https://github.com/massquantity/Ftrl-LR ) ,实现了多线程版本 FTRL 训练 Logistic Regression 。对于算法的实现来说,首先需要得到完整的算法流程。仔细审视 (1.12) 式,要在t+1 轮更新
w_{t+1,i} 需要哪些值?需要
\{z_{t,i},g_{t,i},\alpha,\beta,\lambda_1,\lambda_2\} ,后四个为预先指定的超参数,对于
z_{t,i} ,注意其定义有可以累加的特性 :
\begin{aligned}
z_{t, i} &=g_{1: t, i}-\sum_{s=1}^{t} \sigma_{s, i} w_{s, i} \\
&=\sum_{s=1}^{t} g_{s, i}-\sum_{s=1}^{t} \sigma_{s, i} w_{s, i} \\
&=z_{t-1, i}+g_{t, i}-\sigma_{t, i} w_{t, i} \\
&=z_{t-1, i}+g_{t, i}-\left(\frac{1}{\eta_{t, i}}-\frac{1}{\eta_{t-1, i}}\right) w_{t, i} \\
&=z_{t-1, i}+g_{t, i}-\frac{\sqrt{\sum_{s=1}^{t} g_{s, i}^{2}}-\sqrt{\sum_{s=1}^{t-1} g_{s, i}^{2}}}{\alpha} w_{t, i}
\end{aligned} 所以我们只需存储上一轮迭代得到的三个量 :
z_{t-1, i}, w_{t, i}, \sqrt{\sum_{s=1}^{t} g_{s, i}^{2}} ,并在本轮迭代中计算
g_{t,i} ,就能不断更新参数了。
g_{t,i} 为损失函数对第 i 个特征的偏导数,Logistic Regression 的损失函数是Log Loss,这里直接给出结论,具体推导见_附录 2_:
g_{t, i}=y_{t}\left(S\left(y_{t} f\left(\mathbf{x}_{t}\right)\right)-1\right) x_{i}=y_{t}\left(\frac{1}{1+e^{-y_{t}} f\left(\mathbf{x}_{t}\right)}-1\right) x_{i}
其中S(⋅) 为 Sigmoid函数,xi 为第 i 个特征值,y∈{−1,+1} 为标签,
f(x_t)=\sum_{i=1}^I{w_ix_i} 。下面就可以给出完整的算法流程了,其中为方便表示定义了
n_i=\sum_{s=1}^t{g_{s,i}^2} :
Appendix 1: 次导数
(1.7) 式中使用了 f(x)=|x| 的次导数,这里做一下具体推导。首先次导数的定义 —— 凸函数f:I→R 在开区间
I 内的点 x0 的次导数 c 满足:
f(x)-f(x_0)>=c(x-x_0)
其物理含义是通过 x0 下方的直线的斜率,如下图,f(x) 在 x0 处不可导,则经过 x0 画一条红线,总是位于 f(x) 下方,其斜率就是次导数 c 。可以看出很多时候次导数并不唯一。
对于 f(x)=|x| 来说,x<0 时,次导数为单元素集合{−1} ,x>0 时为 {1} 。而在 x=0 处则不连续,根据次导数的定义,f(x)−f(0)⩾c(x−0),f(x)⩾cx ,则满足该式的c∈[−1,1] ,因而f(x)=|x| 的次导数为 (如下图所示):
\partial f(x)=\left\{\begin{array}{cc}
\{1\} & \text { if } x>0 \\
{[-1,1]} & \text { if } x=0 \\
\{-1\} & \text { if } x<0
\end{array}\right. image.png
Appendix 2: Log Loss
FTRL 的算法流程中每一轮更新都要计算损失函数对每个特征分量的偏导数, 论文 中写的是使用梯度,但实际上是梯度的一个分量,即偏导数,这里就不作区分了。Log Loss 即Logistic Loss ,其具体由来可参阅前文 《常见回归和分类损失函数比较》。仅考虑一个特征的参数 wi ,y∈{−1,+1} 为标签,Log Loss 的形式为:
\mathcal{L}(y,w)=log(1+e^{-yf(x)})=log(1+e^{-y\sum_{i=1}^I{w_ix_i}})(3.1)
其中
f(x_t)=\sum_{i=1}^I{w_ix_i} ,对 wi 的偏导数为:
\begin{aligned}
\frac{\partial \mathcal{L}}{\partial w_{i}} &=\frac{e^{-y f(\mathbf{x})}}{1+e^{-y f(\mathbf{x})}}\left(-y x_{i}\right) \\
&=y\left(\frac{1}{1+e^{-y f(\mathbf{x})}}-1\right) x_{i} \\
&=y(S(y f(\mathbf{x}))-1) x_{i}
\end{aligned} FTRL 论文 中采用的标签形式是 y∈{0,1} ,因而损失函数的形式稍有不同:
\mathcal{L}(y,w)=-ylog(p(w^Tx))-(1-y)log(1-p(w^Tx))(3.2)
其中
p(w^Tx)=\frac{1}{1+e^{-w^Tx}} 为 Sigmoid 函数,其导数为(具体可以自己推到一下):
p'(z)=p(z)(1-p(z))(3.3)
因而利用这个性质我们可以求出 (3.2) 式关于wi 的偏导数:
\begin{aligned}
\frac{\partial \mathcal{L}}{\partial w_{i}} &=\left(-y \frac{1}{p\left(\mathbf{w}^{T} \mathbf{x}\right)}+(1-y) \frac{1}{1-p\left(\mathbf{w}^{T} \mathbf{x}\right)}\right) \frac{\partial p\left(\mathbf{w}^{T} \mathbf{x}\right)}{\partial w_{i}} \\
&=\left(-y \frac{1}{p\left(\mathbf{w}^{T} \mathbf{x}\right)}+(1-y) \frac{1}{1-p\left(\mathbf{w}^{T} \mathbf{x}\right)}\right) p\left(\mathbf{w}^{T} \mathbf{x}\right)\left(1-p\left(\mathbf{w}^{T} \mathbf{x}\right)\right) x_{i} \\
&=\left(-y\left(1-p\left(\mathbf{w}^{T} \mathbf{x}\right)+(1-y) p\left(\mathbf{w}^{T} \mathbf{x}\right)\right) x_{i}\right.\\
&=\left(p\left(\mathbf{w}^{T} \mathbf{x}\right)-y\right) x_{i}
\end{aligned}