可解释的人工智能可以通过本质上可解释的模型来实现,比如logistic和线性回归,或者是像沙普这样的临时解释。
我想对表格数据使用一个本质上可以解释的模型来完成分类任务。然而,logistic和线性回归的效果较差。
是否还有其他具有更高性能的内在可解释模型?
发布于 2023-02-24 22:17:05
“noe”S回答说:当你有少量的特征时,可解释的模型可以为你做很多事情,因为它们通常是通过直接使用输入特征进行预测,而没有任何中间特征。当数据是结构化的,特征数量很少时,选择一个更复杂的模型却失去了可解释性,就没有多大价值了。
有很多变化的特性。你有两个问题。直接从输入数据进行预测的模型不再具有简单的解释值。如果没有特性工程,最好使用更强大的模型,在决策中使用更少的次要特性。例如,两层神经网络本质上是两层logistic回归.因此,您仍然可以分析哪些次要特性对最后一层有用。然后,您可以分析这些特性在您的数据集中有哪些关联。
发布于 2023-02-24 16:53:21
我认为你提出的问题有两个问题:
尽管如此,人们可能会理解,坡度增强的树一般都会产生好的结果,如果它们足够小,在某种程度上就可以被认为是可解释的。
https://datascience.stackexchange.com/questions/118771
复制相似问题