腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
哪种数据科学
模型
最适合预测问题的可
解释性
?
regression
、
predictive-modeling
、
decision-trees
、
data-science-model
想象一下,你必须创建一个
模型
来向涉众解释,例如预测价格、重量、销售额等。在可
解释性
和
可
间性方面,哪种回归
模型
提供的效果最好?哪种型号最适合这个?
浏览 0
提问于2021-02-05
得票数 1
2
回答
什么是“代孕模式”?
machine-learning
、
explainable-ai
在阅读关于
模型
可
解释性
和
模型
问责性的文章时,代孕
模型
一词不断出现。我知道它是什么,但它似乎不再有意义了:为什么代孕
模型
有利于可
解释性
?
浏览 0
提问于2020-07-14
得票数 3
回答已采纳
1
回答
模型
的
可
感知性比较
machine-learning
我正在寻找可靠的方法来比较
模型
的可
解释性
。简约是一种,但是否有其他方法来判断一个
模型
是否比另一个更能解释? 例如,涉及自组织可
解释性
方法的黑匣子
模型
可能比本质上可解释的
模型
更复杂。如何将这一解释比作内在可解释的
模型
更好(从可解释的角度来看)?
浏览 0
提问于2023-04-19
得票数 1
1
回答
一个可解释但不可解释的ML
模型
示例
machine-learning
、
explainable-ai
这个职位试图解释ML
模型
的可
解释性
和可
解释性
之间的区别。然而,这一解释有些不明确。有人能提供一些可解释但不可解释的
模型
的具体例子吗?
浏览 0
提问于2021-08-07
得票数 0
回答已采纳
5
回答
可解释的机器学习和可解释的机器学习有什么区别?
machine-learning
、
terminology
、
explainable-ai
、
interpretation
奥鲁克说,可解释的ML使用黑匣子
模型
,然后再解释它,而可解释的ML使用非黑匣子的
模型
。杜世-韦利兹和金说,可解释的机器学习系统为它们的输出提供了解释。 很明显,有很多定义,但他们并不完全同意。最后,应该解释什么:
模型
的结果,
模型
本身,或者
模型
是如何被遗漏的?解释和解释有什么区别?
浏览 0
提问于2020-03-24
得票数 20
1
回答
数据分区对于
解释性
模型
是必要的吗?为什么?
data-mining
、
predictive-modeling
在
解释性
建模中,由于统计能力的降低,数据分区是不常见的比预测建模。当使用时,它通常用于评估ˆf的鲁棒性。数据分区在
解释性
建模中的一种罕见而重要的用途是通过展示一定的预测能力来增强
模型
的有效性。虽然人们不会期望一个解释
模型
在预测能力方面是最优的,但它应该显示出一定程度的准确性。下面
浏览 0
提问于2018-04-09
得票数 0
回答已采纳
3
回答
如果有的话,机器学习算法被认为是可
解释性
和预测之间的一个很好的权衡?
machine-learning
、
predictive-modeling
描述梯度增强机器或神经网络等算法的机器学习文本经常评论说这些
模型
擅长预测,但这是以失去可
解释性
或可
解释性
为代价的。相反,单决策树和经典回归
模型
被标记为善于解释,但与更复杂的
模型
(如随机森林或支持向量机)相比,预测精度(相对)较差。是否有普遍接受的机器学习
模型
代表两者之间的良好权衡?
浏览 0
提问于2016-05-22
得票数 9
回答已采纳
1
回答
SageMaker与进口
模型
的澄清
amazon-sagemaker-clarify
是否可以使用SageMaker澄清偏倚和可
解释性
分析与进口
模型
,如TensorFlow
模型
?考虑到张量流
模型
是从其他地方训练的?
浏览 14
提问于2022-11-01
得票数 0
1
回答
SageMaker
模型
监视器与SageMaker澄清
amazon-web-services
、
amazon-sagemaker
、
amazon-sagemaker-clarify
SageMaker
模型
监视器和SageMaker澄清之间有关系吗?例如,
模型
监视器使用澄清,反之亦然?我的困惑是,当我阅读
模型
监视器文档时,我看到了偏见检测和可
解释性
,而当我阅读call文档时,我看到了相同的服务,我们似乎可以独立地调用它们。
浏览 12
提问于2022-10-31
得票数 1
1
回答
图神经网络中Captum与GNNExplainer的可
解释性
deep-learning
、
explainable-ai
、
graph-neural-network
、
pytorch-geometric
我偶然发现:(1) GNNExplainer(
模型
体系结构)以及(2) 工具(卡普姆), 这两者似乎都达到了这个目标,但我无法理解两者之间的差异。是否与所有
模型
体系结构(包括GNNExplainer )一起工作?谁能给我指出每种方法的优缺点,或者用应用程序/功能来区分它们呢?
浏览 0
提问于2022-09-13
得票数 1
1
回答
如何在Python中创建一个易于解释的带有分类特征的回归
模型
?
python
、
machine-learning
、
scikit-learn
、
regression
、
decision-tree
98.5M 35-65 20 G5143 3456 345.8c1, c2 and c3是
模型
的特征,是分类的(不是数字的),可以有大约1000个不同的类别。我最初的想法是创建一个Decision Tree,它将有助于实现更具
解释性
的目标,但DecisionTreeRegressor scikit
浏览 4
提问于2018-01-12
得票数 1
1
回答
对于回归
模型
,你能把你的所有特征转化为线性,从而做出更好的预测吗?
regression
、
feature-selection
、
linear-regression
、
feature-engineering
一个一个地检查您的特性(假设您有一个
可
管理的数量)并查看它们与您的目标变量之间的关系,如果它们具有非线性关系,那么使用它们对每种情况的适当函数来将它们转换成线性关系,这是一种好方法吗?在我看来,如果你这样做,你肯定会有一个更好的线性
模型
,而且你也能够对每个特征进行假设检验,以了解它们之间的相关性,让你也有机会进行一些特征选择。我知道,
模型
的可
解释性
将被抛出窗外,但
模型
将提供更好的性能。基本上,您可能最终会得到一个只有工程师特性的
模型
(假设它们都具有非线性关系)。 这种做法是否可以接受,值
浏览 0
提问于2019-08-03
得票数 1
回答已采纳
1
回答
Z-索引不适用于重叠元素
html
、
css
我有一个
可
滚动的框,里面有文本,它在悬停时展开,上面也有少量的文本。当我悬停在
可
滚动文本框上时,它会展开,还会重叠上面的少量文本。我已经尝试过使用z索引,但无法使
可
滚动文本框重叠。是我问题的StackBlitz (应该有相当的
解释性
)。 任何帮助都将不胜感激。
浏览 6
提问于2019-10-14
得票数 0
回答已采纳
1
回答
使用机器学习
模型
的输出,如神经网络作为对传统GLM或类似
模型
的输入,是否存在缺陷?
predictive-modeling
具体来说,精算中的损失预留
模型
,如链梯法,可以表示为GLMs。我开发了一个基于神经网络的预测
模型
,该
模型
考虑了被保险人的某些方面(这是一个个人风险
模型
)。该
模型
的输出能安全地作为保险公司现有损失准备金
模型
的输入吗?
浏览 0
提问于2016-08-05
得票数 0
回答已采纳
1
回答
对于具有两个生产变体的端点,
模型
可调理监视器作业失败
machine-learning
、
amazon-sagemaker
、
mlops
当
模型
可
解释性
作业运行时,它会搜索捕获到的零流量变量,从而导致其失败。 是否有一种方法可以使用有两个生产变体的端点来运行
模型
可
解释性
监视作业?
浏览 5
提问于2022-08-24
得票数 -1
1
回答
如何计算具有虚拟变量的随机森林和Logistic回归最重要的特征?
python
、
machine-learning
我的df有很多分类变量,所以我使用了能够训练我的Random Forest和Logistic Regression
模型
。一切都很好,然后我问自己:哪些组件对
模型
预测影响最大?我考虑使用PCA,但我有虚拟二进制变量,所以我不知道它是否具有可
解释性
,因为我有很多变量是虚拟的。我还试着用但这是一样的;我只有数千列的数据,每个列的影响很小,失去了数据的可
解释性
。有什么方法来计算每个变量的重要性吗?我见过一些关于堆叠溢出的讨论。一些人说PCA可以使
浏览 2
提问于2022-09-09
得票数 0
1
回答
OpenScale支持哪些
模型
类型?
ibm-cloud
、
ibm-watson
、
watson-openscale
OpenScale是否支持可以部署到沃森机器学习的所有类型的
模型
?或者仅仅是其中的一个子集? 在支持的
模型
类型中,可
解释性
特性是否适用于所有类型的
模型
?
浏览 2
提问于2019-03-22
得票数 1
1
回答
可解释的ML算法与透明ML算法
machine-learning
、
explainable-ai
更新:在这个职位中,我们定义了可
解释性
和可
解释性
,并展示了这两个概念的不同之处。问题是透明度是否不同于(或两者)可
解释性
或可
解释性
。
浏览 0
提问于2021-08-07
得票数 0
1
回答
从R中的package effects()中提取GLM
模型
估计
r
、
glm
我正在使用GLM
模型
来解释哪些影响与解释某些野生动物行为的发生最相关。> m7 <- glmer(cbind(Feeding,Standing_Foraging) ~ Day_Night+(1|ID) , data=GLM_df , family
浏览 0
提问于2019-08-12
得票数 0
1
回答
解释机器学习系数
machine-learning
、
neural-network
、
lasso
我正在考虑使用OLS作为线性概率
模型
或logit/probit,也许是用LASSO或Ridge。我可以用我的机器学习
模型
来给狗打分,但是在回归的背景下,我可以找出哪些变量对分数的贡献最大、最积极、最消极。
浏览 0
提问于2020-12-17
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
索信达:机器学习模型的“可解释性”研究
不信任黑箱模型?用可解释性搞事情!
深度学习的可解释性研究(一):让模型“说人话”
模型可解释性在保险理赔反欺诈中的实践
从可视化到新模型:纵览深度学习的视觉可解释性
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券