首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

如何在交叉验证中使用SHAP?

在许多情况下,机器学习模型比传统线性模型更受欢迎,因为它们具有更好的预测性能和处理复杂非线性数据的能力。然而,机器学习模型的一个常见问题是它们缺乏可解释性。例如,集成方法如XGBoost和随机森林将许多个体学习器的结果组合起来生成结果。尽管这通常会带来更好的性能,但它使得难以知道数据集中每个特征对输出的贡献。为了解决这个问题,可解释人工智能(explainable AI, xAI)被提出并越来越受欢迎。xAI领域旨在解释这些不可解释的模型(所谓的黑匣子模型)如何进行预测,实现最佳的预测准确性和可解释性。这样做的动机在于,许多机器学习的真实应用场景不仅需要良好的预测性能,还要解释生成结果的方式。例如,在医疗领域,可能会根据模型做出的决策而失去或挽救生命,因此了解决策的驱动因素非常重要。此外,能够识别重要变量对于识别机制或治疗途径也很有帮助。最受欢迎、最有效的xAI技术之一是SHAP。

01

利用机器学习和功能连接预测认知能力

使用机器学习方法,可以从个体的脑功能连通性中以适度的准确性预测认知表现。然而,到目前为止,预测模型对支持认知的神经生物学过程的洞察有限。为此,特征选择和特征权重估计需要是可靠的,以确保具有高预测效用的重要连接和环路能够可靠地识别出来。我们全面研究了基于健康年轻人静息状态功能连接网络构建的认知性能各种预测模型的特征权重-重测可靠性(n=400)。尽管实现了适度的预测精度(r=0.2-0.4),我们发现所有预测模型的特征权重可靠性普遍较差(ICC<0.3),显著低于性别等显性生物学属性的预测模型(ICC≈0.5)。较大的样本量(n=800)、Haufe变换、非稀疏特征选择/正则化和较小的特征空间略微提高了可靠性(ICC<0.4)。我们阐明了特征权重可靠性和预测精度之间的权衡,并发现单变量统计数据比预测模型的特征权重稍微更可靠。最后,我们表明,交叉验证折叠之间的特征权重度量一致性提供了夸大的特征权重可靠性估计。因此,如果可能的话,我们建议在样本外估计可靠性。我们认为,将焦点从预测准确性重新平衡到模型可靠性,可能有助于用机器学习方法对认知的机械性理解。

03
领券