前段时间在网上看到一个概念叫可微编程,称其可以打开深度学习的黑盒学习过程,并将主宰“后深度学习时代”,有人能大概讲一下这个概念和后深度学习时代的概念吗?这种说法是噱头还是确有其事?
现在的可微编程是对传统的继续学习方法的等价或者一种替代物。从问题的描述,再到问题的建模、求解,这是一个很复杂的过程。如果我们对传统的学习的方法,在一定的假设和前提下已经有建好的建模,完成等价的神经网络的建立,能走出最容易的一步。但是如果我们真的在未来要贯彻可微编程,就是把它当成一种语言。神经网络应该更进一步直接对问题进行建模,也就是对我们的物理现象进行抽象完成建模,并且传统的统计机器学习方法有一些先验知识,进而解决我们的一些实际问题。
我怀疑它只是注意到一个带有前缀copy
和标记的方法,它应该返回调用者拥有的东西,因为它认为它遵循可可命名约定。
就你而言,当然,你指的是文件和其他东西,所以这是一个可以忽略的警告。如果你更改方法的名称,改为saveData:
相反,我打赌警告会消失。