自 2012 年开课,NNML 就一跃成为深度学习开发者的殿堂级慕课。时隔五年,仍然是内容最“干”、最值得学习的深度学习课程。
如果说吴恩达的《Machine Learning》是最佳入门课程,描述 NNML 则只需两个字: “必修”——对于有志于真正掌握深度学习的人而言。
它很难,但也因此没有做任何“dumb down”——为照顾小白而牺牲“厚度”,把原本并不单纯的原理硬以简单的类比表述出来,是几乎所有深度学习课程不得不做的妥协。
但这门课没有。
第七节介绍了与RNN有关的模型以及使用反向传播来训练RNNs,并演示了使用RNN来解决二进制数字相加的问题,还介绍了训练RNN时会遇到的难点问题。