专栏首页量化投资与机器学习真假美猴王!基于XGBoost的『金融时序』 VS 『合成时序』

真假美猴王!基于XGBoost的『金融时序』 VS 『合成时序』

标星★置顶公众号 爱你们♥

作者:Matthew 编译:方的馒头

0

前言

今天,公众号要给大家介绍,区分真实的金融时间序列和合成的时间序列。数据是匿名的,我们不知道哪个时间序列来自什么资产。

在最后,我们获得了67%的样本内测试准确度和65%的样本外测试准确度。

我们有12,000个真实时间序列和12,000个综合创建的时间序列,总共24,000个观测值。

全文总共三部分,让我们开始吧,十分有意思!

1

准备工作

导入相关库文件:

注意:我们有两个数据集,train_Val.csv是训练和验证数据集以及test.csv数据集。直到第3部分的最后,我才接触到test.csv数据集。所有分析和优化仅在train_val.csv数据集上执行。train_val.csv包含12,000个观测值,test.csv包含12,000个观测值。

2

第一部分

数据格式:

列名如下所示:

训练数据中有260个“特征”以及从测试数据中排除的类别变量。一年中约有253个交易日,feature1,feature2,…featureN是每日时间序列。从最初的观测(和绘图)来看,我们认为该数据是“收益”数据。首先清除一点数据,因为时间序列在使用feature1,feature2,…featureN作为输入时效果不佳。我们随机选择了一年,并使用函数getTradingDates重命名了这些列(总是有一个万能的R程序包……)。

在这里(如果我们做不同的事情),将保持tidy数据原理,并使用test %>% add_column(dataset =” test)和train %>% add_colum(dataset =” train”)而不是test$dataset<- “ test和train_val $dataset <-“ train”。但这没关系。

清洗后的训练数据:

清洗后的测试数据:

目标:是要分类哪些金融时间序列是真实的,哪些是合成创建的(通过某种算法,我们不知道它是如何生成合成时间序列的)。

我们使用R中的melt函数重新排列了数据,但是建议任何阅读此文件的人都使用tidyverse包中的pivol_longer函数。可以参考pivot_longer包。

注意:我们将训练数据称为df,事后看来是不好的做法,应该将其称为与train_Val命名数据集相关的名称。请记住,df引用了train_Val数据集。(并且不包括test.csv数据集数据)

如我们所见,数据有3,120,000行,即12,000个资产* 260个交易日。接下来,使用ggplot绘制收益序列。

接下来绘制箱形图以获得平均收益率,其次是标准差。

接下来,计算Durbin-Watson统计数据。主要使用R的tidy数据原理进行编码,因此使用broom包中的tidy功能稍微整理一下DW统计数据的输出。对合成时间序列和真实时间序列都执行此操作。

接下来对每个DurbinWatson检验绘制箱型图统计数据。

使用tidyquant包中的tq_mutate函数计算了10天的滚动平均值和标准差。value对应于金融时间序列的收益,并绘制为蓝色,在收益上绘制了10天的滚动平均值和标准偏差。(我们在这里再次使用了melt,但查看了pivot_longer函数以获得更直观的应用程序)

此处代码中的一个重要说明是,我们是按组随机抽样的,也就是说,我们不会从所有组的所有观测结果中随机抽样。取而代之的是,将每个时间序列group_by(按class == 0过滤后的6,000个观测值中的每一个,同样当按class == 1过滤时,也是如此),然后将nest()数据折叠每个资产的每日时间序列到一个list。从这里我们将有6,000个观测值,每个观测值的时间序列都嵌套在列表中。因此,可以对6,000个观测值中的1个进行采样,然后对unnest()进行采样,以获取所选随机资产之一的完整时间序列集,而不是对所有资产时间序列数据进行随机采样(这是完全错误的)。

例如,下面的注释代码group_by()的ID变量和nest()中的数据,需要一个随机sample_n()中的分组数据,然后unnest()的数据到其原始形式,此时用的随机样本IDs。

接下来,针对一个随机观测值在两个序列上计算Dickey Fuller检验,因此计算出了sample_n(1)参数(要在所有12,000个观测值上进行计算都非常昂贵)。

合成列:

真实金融序列:

接下来是Jarque-Bera的正态性检验。首先是关于合成序列:

真实金融序列:

自相关图

为观测时间序列的“随机”样本绘制了自相关函数。我们选择了4个观测值,并根据它们筛选出数据。

足够的数据分析我们可能还可以同时进行PACF图和其他一些探索性数据分析,继续使用tsfeatures包生成金融时间序列特征。

在下面的代码中所做的是随机抽取5个组(使用整个数据集需要很长时间才能计算时间序列特征),然后将tsfeatures包中的所有函数应用于每个时间序列资产数据通过映射每个资产数据并计算时间序列特征来完成。

3

第二部分

本节需要一些时间来处理和计算(尤其是在整个样本上),我们已经将结果保存为csv,我将使用它并加载到预先计算的时间序列特征中。

注意:错误的做法只是将df数据称为Stats,仅包含时间序列特征的数据。这仍然仅引用train_val.csv数据,而不是test.csv数据。

训练数据看起来像:(在计算了时间序列特征之后)。现在,每种资产已从约260天分解到1个信号时间序列特征观测。

回想一下这里的目标是对合成时间序列与真实时间序列进行分类,而不是第二天的价格。对于每项资产,我们都有一个信号观测值,并据此可以训练一种分类算法,以区分真实时间序列与合成时间序列。

训练数据:

数据的大小仍为12,000,具有109个特征(从tsfeatures包创建)。也就是说,我们有6,000个合成和6,000个实时金融时间序列(12,000 *〜260 = 3,120,000,但我们应用tsfeatures将每个资产的〜260分解为1个单一观测值)

我们将这个问题从时间序列预测问题分解为纯粹的分类问题。接下来,在训练和验证集之间拆分数据……我们还将数据拆分为X_train,Y_train ...等。

将df / Stats数据集分为75%的观测值的训练集和25%的观测值的样本内测试数据集。

训练X(输入变量)数据:

训练Y(预测变量)数据:

我们为XGBoost模型设置数据:

创建了一个网格搜索,以便在参数空间上进行搜索以找到数据集的最佳参数。它需要做更多的工作,但这是一个很好的起点。可以将代码添加到expand.grid函数中。也就是说,例如,我们想增加树的深度,可以添加到max_depth = c(5,8,14)的更多参数中,例如max_depth = c(5,8,14,1,2,3,4,6 ,7)。注意向网格搜索中添加参数会成倍增加计算时间。你向每个参数添加一个值,模型必须搜索与该参数关联的所有可能的组合。也就是说,将eta = c(0.1)和max_depth = c(5)相加将为我们提供训练模型中一次迭代/循环的最佳参数,即,将eta = c(0.1)映射到max_depth = c(5)。向eta = c(0.1,0.3)和max_depth = c(5)添加一个附加值会将eta = 0.1映射到max_depth = 5并将eta = 0.3映射到max_depth =5。如果我添加另一个值,像eta = c (0.1、0.3、0.4),则所有这三个值都将映射为max_depth = c(5)。将值添加到max_depth = c(5)参数将为网格搜索增加一层额外的复杂性。XGBoost模型中有许多参数需要优化,这会大大增加计算复杂性。因此,在尝试避免陷入局部最小值时(任何使用梯度下降优化的贪婪算法都可以做到:贪婪算法),了解机器学习中模型背后的统计数据非常重要。

可以使用以下代码将网格搜索的输出设置为一个漂亮的数据框。但是,我们没有将此输出保存到文件,因此无法读取。

根据当时的结果,最佳参数为:

  • ntrees = 95,
  • eta = 0.1,
  • max_depth = 5

为了简单起见,其他参数保留为默认设置。

4

第三部分

现在,我们已经从交叉验证网格搜索中获得了最佳参数,现在可以在整个train_val.csv数据集上训练最终的XGBoost模型。

基于树的模型的优点在于,我们可以从模型中获取重要性得分,然后找出哪些变量对模型的收益贡献最大。

也就是说,XGBoost模型发现spike是最重要的变量。spike来自R中tsfeatures包的stl_features函数。它根据季节和趋势分解(STL)计算趋势和季节性的各种度量,并根据分量e_t的一次性方差来度量时间序列的spikiness。

第二个变量也很有趣,它来自CompEngine数据库的compenginefeature set。它将变量分组为自相关、预测、平稳性、分布和缩放。

ARCH.LM来自tsfeatures包的arch_stat函数,并且基于自回归条件异方差(ARCH)Engle1982的拉格朗日乘数。

这些只是XGBoost模型发现的最重要的几个变量。可以在此处找到模型中使用的变量的完整概述和更多信息。

使用样本内测试集进行预测

现在,我们已经使用最佳参数对模型进行了训练,想根据使用验证数据的交叉验证阶段,查看它的得分是否相同或更高。使用dval(这是来自训练分组的验证数据集)来验证模型。

这是一个时间序列(股票市场)分类问题,因此平衡精度得分为67%并不算差。

从这里我们结束训练和验证模型。我们已经基于训练和验证数据集获得了最佳值,现在想在未知数据test.csv数据上对其进行检验。

读取了测试数据,并从tsfeatures包中计算了时间序列特征,就像处理训练数据一样。

测试特征的外观(它们看起来类似于训练数据集):

我们称其为test_final,并且无缘无故进行测试-从一开始它就是相同的test.csv。

接下来,在测试数据集上创建与训练数据集相同的时间序列特征。将其另存为TSfeatures_test.csv。

我们已经计算出训练数据集和测试数据集的所有tsfeatures。将这两个另存为TSfeatures_train_val.csv和TSfeatures_test.csv。

加载训练和测试特征数据集

训练和测试的最终数据如下:

最后,我们可以在保留的测试集上运行最终模型,并根据训练数据和最佳参数获得我们的预测。

根据test.csv数据进行最终预测。R中的预测功能很棒,它可以采用任何模型进行预测,我们只需要与模型一起提供测试数据即可。从预测中“询问”概率分数。我们还绘制了预测概率的密度。

最后!根据预测的概率提交文件。

何评估分数:

介于0.4-0.6之间的结果被视为随机结果。

从0.6开始,该算法正确分类,超过0.7的算法很棒。

低于0.4时,它们能够区分合成序列与实时序列,但它们是可以互换的。

根据保留的测试集,我们获得了0.649636〜0.65%的结果(比0.67%样本内训练集要低一些!),但仍与我们使用的正确方法一致(即没有泄漏测试数据到训练数据中)。

5

总结

时间序列特征选择和分类模型的组合可以很好地处理我们所面对的时间序列分类问题!

各位加油!

心系武汉

等疫情结束,花枝春满。

山河无恙,人间皆安。

2020年第40篇文章

量化投资与机器学习微信公众号,是业内垂直于Quant、MFE、Fintech、AI、ML等领域的量化类主流自媒体。公众号拥有来自公募、私募、券商、期货、银行、保险资管、海外等众多圈内18W+关注者。每日发布行业前沿研究成果和最新量化资讯。

本文分享自微信公众号 - 量化投资与机器学习(Lhtz_Jqxx),作者:QIML编辑部

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2020-02-18

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 【动态时间规整算法】之股指期货交易策略(一)

    前言 Dynamic Time Warping(DTW),动态时间规整算法诞生有一定的历史了(日本学者Itakura提出),它出现的目的也比较单纯,是一种衡量两...

    量化投资与机器学习微信公众号
  • 【Python机器学习】数据预处理——图像压缩与线性代数

    现在有一张朱迪的照片,这张照片有500多列的像素点构成,但是大部分地方都是白色的,相互没有什么差别,也就是说图像中有很多列都是相互线性相关的,这些列向量对我们接...

    量化投资与机器学习微信公众号
  • 使用LSTM模型预测股价基于Keras

    编者按:本文介绍了如何使用LSTM模型进行时间序列预测。股票市场的数据由于格式规整和非常容易获得,是作为研究的很好选择。但不要把本文的结论当作理财或交易建议。

    量化投资与机器学习微信公众号
  • 时间序列数据和MongoDB:第一部分 - 简介

    时间序列数据日益成为现代应用的核心 - 想想物联网,股票交易,点击流,社交媒体等。随着从批量处理系统向实时系统的转变,有效捕获和分析时间序列数据可以使组织在竞争...

    MongoDB中文社区
  • 关于数据中台,你需要知道的三个“大”和三个“小”

    从现在的企业数字化转型趋势来看,我总结了一个目前的现象,数据中台比业务中台更快落地,因为业务中台跟组织结构关联系太紧密,但是,数据中台落地的最大的困扰是,如何快...

    凯哥
  • 你了解你的数据吗(筑基篇):核心维度分布和数据口径

    木东居士
  • 推荐!Kaggle首个机器学习调查报告结果

    Kaggle 是互联网上最著名的数据科学竞赛平台之一,今年 3 月 8 日,这家机构被谷歌收购,6 月 6 日又宣布用户数量超过了 100 万人。最近,这一社区...

    IT派
  • 数据分析工作常见的七种错误及规避技巧

    商业领域的数据科学家和侦探类似:去探索未知的事物。不过,当他们在这个旅程中冒险的时候,他们很容易落入陷阱。所以要明白,这些错误是如何造成的,以及如何避免。 “...

    灯塔大数据
  • 数据不够,游戏来凑!随机三维人物实现可泛化的行人再辨识(ReID)

    【导语】数据不够,游戏来凑!阿联酋起源人工智能研究院(IIAI)科学家通过随机组合颜色和纹理产生了8000个三维人物模型,并在游戏环境里模拟真实监控得到一个虚拟...

    CV君
  • 【精读】十分钟读完《决战大数据》

    推荐语: 每品觉在大数据应用领域有着丰富的经验,《决战大数据》一书中提出的观点对大数据的决策者很有意义。大数据使企业经营者拥有了“望远镜”“显微镜”,除了能对...

    钱塘数据

扫码关注云+社区

领取腾讯云代金券