前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用机器学习玩转恶意URL检测

用机器学习玩转恶意URL检测

作者头像
FB客服
发布2018-02-23 18:08:17
6K0
发布2018-02-23 18:08:17
举报
文章被收录于专栏:FreeBuf

前段时间漏洞之王Struts2日常新爆了一批漏洞,安全厂商们忙着配合甲方公司做资产扫描,漏洞排查,规则大牛迅速的给出”专杀”规则强化自家产品的规则库。这种基于规则库的安全防御总是处于被动的,所以趁着小假期对机器学习应用于威胁检测的这块做了些研究整理了下笔记,以方便大家日后交流学习。

本文参考了国外的一篇博文,英语好的可以直接看下原文,在这里记录了下研究检测模型实现的过程,因为也是最近才接触机器学习这块,有啥问题请大牛们指出。

先说重点,这篇文章使用逻辑回归的方式建立检测模型,对未知的 URL 进行恶意检测。

模型建立的整体思路如下:

1. 分别拿到正常请求和恶意请求的数据集。 2. 对无规律的数据集进行处理得到特征矩阵。 3. 使用机器逻辑回归方式使用特征矩阵训练检测模型。 4. 最后计算模型的准确度,并使用检测模型判断未知 URL 请求是恶意的还是正常的。

1、收集数据集

我们需要分别拿到恶意的数据集和正常的数据集用来后期处理,在这里恶意的数据集来自 https://github.com/foospidy/payloads 中的一些 XSS SQL注入等攻击的payload,结合github上一些知名仓库的payload,一共整理出 50000 条恶意请求作为恶意的数据集;正常请求的数据集来自于 http://secrepo.com/ , 攻击1000000条日志请求(资源有限,假定认为这些数据全部都是正常的请求,有精力可以进行降噪处理,去除异常的标签数据)。

恶意请求部分样如下:

正常请求部分样本:

2、计算特征矩阵

无论是恶意请求数据集还是正常请求数据集,都是不定长的字符串列表,很难直接用逻辑回归算法对这些不规律的数据进行处理,所以,需要找到这些文本的数字特征,用来训练我们的检测模型。

在这里,我们使用 TD-IDF 来作为文本的特征,并以数字矩阵的形式进行输出。

TD-IDF 是一种用于资讯检索与文本挖掘的常用加权技术,被经常用于描述文本特征。

实际上是:TF * IDF,TF 词频(Term Frequency),IDF 逆向文件频率(Inverse Document Frequency)。

这里简单说下他们的概念,感兴趣的可以搜搜资料:

TF表示词条在某文档中出现的频率。

IDF的主要思想是:如果包含词条的文档越少,则 IDF越大,说明该词条具有很好的类别区分能力。

TF-IDF 倾向于过滤掉常见的词语,保留重要的词语。

要计算 TD-IDF 之前首先需要对 每个文档(URL请求)的内容进行分词处理,也就是需要定义文档的词条长度,这里我们选择长度为3,可以根据模型的准确度对这个参数进行调整。

比如:

// URL 请求

www.foo.com/1

// 经过分词后

['www','ww.','w.f','.fo','foo','oo.','o.c','.co','com','om/','m/1']

下面对所有 URL 请求计算出 TD-IDF 特征矩阵,输出格式基本上是下面的样子:

可以看出特征矩阵的元素由[(i,j) weight] 三个元素组成,

在矩阵中:

i 对应于集合中的文档编号,j对应于term编号(或者说是词片编号)

矩阵元素[(i,j) weight] 表示编号 为 j 的词片 在编号为 i 的文档下的 fd-idf 值(weight)。

比如: (0, 31445) 0.0739022819816 表示词片编号31445的在第0号文档的权值是 0.0739022819816

3、 训练检测模型

现在有了特征矩阵作为训练的数据集,可以先从中取出一少部分数据(大约占总数据的5%,可以自行指定)用来测试已经训练好的模型的准确率。至于如何取出测试数据,可以直接使用scikit-learn提供的 train_test_split 方法对原始数据集进行分割。

有了训练数据,可以直接使用逻辑回归的方法来训练我们的模型,这一步需要电脑花点时间对数据进行处理,但是我们只需要调用 scikit-learn 定义一个逻辑模型实例,然后调用训练方法,传值训练数据即可,代码如下:

lgs = LogisticRegression() lgs.fit(x_train, y_train)

4、测试模型效果

经过训练之后使用 lgs 实例的 score 方法 选择一批测试数据来计算模型的准确度,至于测试数据(x_test,y_test)我们已经在上一步中分割得到

lgs.score(x_test, y_test)

检测模型的准确度:

同时,可以调用 lgs.predict 的方法对 新的 URL 是否是恶意的进行判定。

x_predict = ['待预测URL列表']

x_predict = vectorizer.transform(x_predict)

res = lgs.predict(x_predict)

在这里随机选取一些 URL 进行预测,判断的结果如下:

5、总结

本文的目的是希望从代码的角度上分析如何机器学习算法来训练URL恶意检测模型,当然训练检测模型的方式有许多种,比如 SVM 或是其他机器学习算法,想了解 SVM 的可以看兜哥先前发的文章

基于逻辑回归的恶意 URL 检测很依赖于训练数据集,有必要保证原始数据集尽可能的减少噪点(异常数据),以及每条数据之间尽可能的减少关联性。

若能拿到自身业务中确定正常或者威胁的请求数据作为训练数据集训练出的模型应该也更加适用于当前环境的检测。

同时作为监督式学习,可以定期把检测出确定威胁的请求放入原始数据集中,对检测模型进行优化,效果会更好。

源码地址:

https://github.com/exp-db/AI-Driven-WAF

参考:

1. http://www.freebuf.com/articles/web/126543.html

2. http://fsecurify.com/fwaf-machine-learning-driven-web-application-firewall/

3. http://scikit-learn.org/stable/modules/feature_extraction.html#text-feature-extraction

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-04-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 FreeBuf 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、收集数据集
  • 2、计算特征矩阵
  • 3、 训练检测模型
  • 4、测试模型效果
  • 5、总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档