前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >AIOps质量#Series#检测:基于AutoML的异常检测

AIOps质量#Series#检测:基于AutoML的异常检测

作者头像
慎笃
发布2022-11-28 20:45:58
3240
发布2022-11-28 20:45:58
举报
文章被收录于专栏:深度学习进阶

内容简介

本文主要介绍两篇用AutoML来做异常检测的文章,《PyODDS: An End-to-end Outlier Detection System with Automated Machine Learning》、《AutoOD: Automated Outlier Detection via Curiosity-guided Search and Self-imitation Learning》,第一篇关于模型和超参搜索,第二篇是神经网络结构搜索。

一、PyODDS

预设好算法空间和超参空间,应用时寻找最优的模型和超参。

算法空间:

\mathcal{A} = \{A_1, \cdots,A_N\}
\mathcal{A} = \{A_1, \cdots,A_N\}

超参空间:

\mathcal{\lambda} = \{\lambda_1,\cdots, \lambda_N\}
\mathcal{\lambda} = \{\lambda_1,\cdots, \lambda_N\}

目标,找到最优的模型和超参:

A^*,\lambda^*=\mathop{argmax}_{A_s\in \mathcal{A}, \lambda_s\in \lambda} M(A_s,\lambda_s,D^{train}, D^{val})
A^*,\lambda^*=\mathop{argmax}_{A_s\in \mathcal{A}, \lambda_s\in \lambda} M(A_s,\lambda_s,D^{train}, D^{val})

实际采用Expected Improvement来刻画

M(A_s,\lambda_s,D^{train}, D^{val})
M(A_s,\lambda_s,D^{train}, D^{val})

EI_{y^*}(x)=\int_{-\infty}^{y^*} (y^*-y)p(y|x)dy=\int_{-\infty}^{y^*}(y^*-y) \frac{p(x|y)p(y)}{p(x)} dy
EI_{y^*}(x)=\int_{-\infty}^{y^*} (y^*-y)p(y|x)dy=\int_{-\infty}^{y^*}(y^*-y) \frac{p(x|y)p(y)}{p(x)} dy

模型列表

优化过程

二、AutoOD

1. 搜索空间

除网络结构外,AutoOD还新增了异常定义空间和损失函数空间。

搜索空间:

(\mathcal{A}, \mathcal{H}, \mathcal{L})
(\mathcal{A}, \mathcal{H}, \mathcal{L})
\mathcal{A}
\mathcal{A}

:网络结构空间

\mathcal{H}
\mathcal{H}

:异常定义空间

\mathcal{L}
\mathcal{L}

:损失函数空间

网络结构空间

f(\cdot),\ g(\cdot)
f(\cdot),\ g(\cdot)

编码网络和解码网络,

N
N

是神经网络层数

DIST(\cdot)
DIST(\cdot)

衡量原始输入和重构输出的距离

DEFINEREG(\cdot)
DEFINEREG(\cdot)

由异常定义空间生成,异常定义空间如下所示 更详细的超参: 卷积核:

1 \times 1
1 \times 1

,

3\times3
3\times3

,

5\times 5
5\times 5

以及

7 \times 7
7 \times 7

池化类型:mean、max 标准化类型:batch normalization, instance normalization, no normalization 激活函数:sigmoid, tanh, ReLU, Linear, Softplus, LeakyReLU, ...

异常定义空间

2. 搜索策略:Curiosity-guided Search

通过Bayesian LSTM来进行神经网络结构的搜索。搜索过程可以理解为强化学习,action:

a_{1:T}
a_{1:T}

, reward:

r
r

,整个过程包含神经网络的参数

\omega
\omega

和 LSTM的参数

\theta
\theta

LSTM的不确定性

贝叶斯强化学习通过不确定性表征来选取下一步的行为。LSTM的不确定性如下,KL散度可以理解为新模型所带来的信息增益。

action

a_t
a_t

所带来的reward如下,除去外显的准确率提升,还有内隐的信息增益

贝叶斯变分推演

action

a_t
a_t

的后验概率分布如下,其中

p(\theta)
p(\theta)

为LSTM参数的先验分布:

我们很难估计LSTM参数的先验分布,因此通过最小化

\theta
\theta

的后验分布

q(\theta)
q(\theta)

与先验分布的KL散度,来估计其先验分布。后验分布

q(\theta)
q(\theta)

如下

明确

\theta
\theta

的后验分布,最终LSTM的参数可以通过如下公式进行训练:

由于高维数据的局限性,本文在这里还做了进一步的优化。使用hierarchical posterior替代上述提到的后验分布

最终模型训练的损失函数如下:

模仿学习

将之前训练好的结果应用到当前模型上,来提升整体的训练效果。模型训练过程中有如下buffer,action与reward相对应的buffer。

我们希望下一步的action有更高的reward,至少比之前Buffer中的baseline要高。最终优化目标如下:

3. 算法详情

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021-08-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 内容简介
  • 一、PyODDS
    • 模型列表
      • 优化过程
      • 二、AutoOD
        • 1. 搜索空间
          • 异常定义空间
          • 2. 搜索策略:Curiosity-guided Search
            • LSTM的不确定性
              • 贝叶斯变分推演
                • 模仿学习
                • 3. 算法详情
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档