深度学习在各个领域取得了骄人的成绩,基本是舍我其谁了。之前还存在如何调参、如何选架构的问题,最近随着自动机器学习(AutoML)的快速发展,Neural architecture search(NAS)似乎都可以做到自动选择深度学习架构,Hyperparameter优化可以帮助做到自动超参数的选择, 机器学习变得越来越傻瓜,容易上手,原来的伪“end-to-end”好像真的要转正了。坏处是原来的BlackBox变得越来越大,因此近年,更多研究者呼吁我们需要可解释机器学习(Explainable ML)。
“No Free Lunch”,工业界有时候显然希望ML变成工具,越简单越好,只要效果好就行。但更多的时候,我们需要的是“知其然,也知其所以然”,甚至有些研究人员都开始怀念决策树等解释性非常强的模型。尽在AI Time:让我们就来论道:我们是要强大的“黑盒子”还是要“可理解”的机器学习吧。