我正在学习深层神经网络,以及隐藏层的增加如何提供更好的结果。但我发现的问题是,我们通常用矩阵来消除计算中的循环。是否有任何方法可以删除在前向和后向传播中通过层循环的for循环?
发布于 2019-01-22 07:44:01
我假设您实际上想做的是并行地计算这些层(同时)。一般来说,这是不可能的,因为在前向传播中,需要前一层(S)的输出来计算给定的层。对于反向传播,依赖项是反向的。
但是,当您查看典型的网络体系结构时,没有超过几百层,通常要少得多。另一方面,每一层都可以有数千个权重。
因此,您可以通过并行运行每个层中的计算来节省更多的时间,这不是一个问题,因为它们彼此独立。
https://softwareengineering.stackexchange.com/questions/385891
复制相似问题