谷歌联合斯坦福推出可解释AI新方法,揭秘图像分类器到底是如何工作的
当AI系统变得越来越益复杂,它的可解释性通常会变得越来越差。不过业内已经涌现了不少研究成果来挑战这个难题,比如Facebook的研究人员推出了Captum库,该库可以解释基于深度学习框架PyTorch的神经网络是如何做决定的,同类型的研究还有IBM的AI Explainability 360工具包和Microsoft的InterpretML。为了使AI的决策更加透明,来自Google和Stanford的团队最近开发了一种新的机器学习模型:Automated Concept-based Expla...