我试图预测特定点(顶点)在一维信号(海拔剖面)中的位置。直到现在,我计算了梯度在我的信号的每一点,并结合额外的特征或启发式,以找到预期输出的近似位置(顶点的位置)。
但是这种方法有一些局限性,我发现ML技术,特别是随机森林分类器,在这种情况下可以很好地实现。
我想训练我的射频找到最可能的点(point_index)是基于个人资料输入的“输出”。
然而,我只找到了训练一维输入的RF模型的例子(比如时间序列)。在我的例子中,我有2D输入数据(一个信号由N点组成,每个点有两个特性),如下所示:
profile_index point_index z z' crest
0 0 1 -0.885429 0 false
1 0 2 -0.820151 0.02 false
2 0 3 -0.729671 -0.1 true
3 0 4 -0.649332 0.1 false
4 1 1 -0.692186 0 false
5 1 2 -0.885429 0.1 true
6 1 3 -0.820151 -0.05 false
3 1 4 -0.649332 0.2 false我可以映射我的数据来分割每个配置文件的数据,并将输出point_index作为一个特性,但是如何管理我的两个特性是数组这一事实呢?
编辑:这是我的数据的另一种表示形式
profile_index points_z points_z_prime crest_index
0 [-0.05, ..., 2.36] [0, ..., -0.01] 150
1 [-0.02, ..., 4.41] [0, ..., -0.02] 162 (这可能与方法无关,但我使用Python和scikit学习)
发布于 2020-07-23 07:15:53
如果数组中的点数是恒定的,则可以将数组扁平化,并将每个元素用作RF中的一个功能。我做过一个类似的问题(如果我正确理解了你的问题),在这个问题上,我预测一个股票的回报是基于他在一个固定天数的窗口上的回报,而且我已经用了射频,它表现得很好。
如果你的点数不是固定的,那么我建议你使用LSTM神经网络,在那里你可以引入一个数据序列(可以是数组),它可以预测你想要的输出。
https://datascience.stackexchange.com/questions/78138
复制相似问题