我见过的所有神经网络的例子都是针对一组固定的输入,这对图像和固定长度的数据都很有效。你如何处理可变长度的数据,如句子、查询或源代码?有没有一种方法可以将可变长度的数据编码成固定长度的输入,同时仍然获得神经网络的泛化特性?
发布于 2009-11-20 05:49:08
您通常会从数据中提取特征,并将这些特征提供给网络。仅仅获取一些数据并将其提供给网络是不可取的。在实践中,预处理和选择正确的特征将决定您的成功和神经网络的性能。不幸的是,我认为这需要经验来培养一种感觉,这不是一个人可以从一本书中学到的。
总结:“垃圾输入,垃圾输出”
发布于 2015-04-12 04:12:43
我去过那里,我遇到了这个问题。ANN是针对固定的特征向量长度进行的,KNN、SVM、贝叶斯等许多其他分类器也是如此,即输入层应该定义良好且不变,这是一个设计问题。然而,一些研究人员选择添加零来填补缺失的空白,我个人认为这不是一个好的解决方案,因为这些零(不真实的值)会影响网络将收敛到的权重。此外,可能会有一个以零结尾的真实信号。
ANN不是唯一的分类器,还有更多更好的分类器,比如随机森林。这个分类器被认为是研究人员中最好的,它使用少量的随机特征,使用自举和打包创建数百棵决策树,这可能工作得很好,所选特征的数量通常是特征向量大小的sqrt。这些特性是随机的。每个决策树都收敛到一个解决方案,使用多数规则,然后选择最可能的类。
另一种解决方案是使用动态时间规整DTW,或者更好地使用隐马尔可夫模型HMM。
另一种解决方案是内插,内插(补偿沿小信号的缺失值)所有小信号具有与最大信号相同的大小,内插方法包括但不限于平均,B样条,立方.
另一种解决方案是使用特征提取方法,利用最好的(最有特色的)特征,这次使它们的大小固定,这些方法包括PCA,LDA等。
另一种解决方案是使用特征选择(通常在特征提取之后),这是一种简单的方法,可以选择提供最佳精度的最佳特征。
这就是目前的全部,如果这些都不适用于你,请与我联系。
发布于 2010-04-22 04:05:33
有些问题可以用递归神经网络来解决。例如,它适用于计算输入序列的奇偶校验。
recurrent neural network for calculating parity将只有一个输入特性。随着时间的推移,这些比特可以输入到其中。它的输出也被反馈到隐藏层。这使得只需要两个隐藏单元就可以学习奇偶校验。
正常的前馈两层神经网络需要2**sequence_length隐藏单元来表示奇偶校验。这种limitation holds适用于任何只有2层的架构(例如,支持向量机)。
https://stackoverflow.com/questions/1766461
复制相似问题