首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何冻结一层中的一个过滤器,同时保持其他过滤器可训练?

要冻结一层中的一个过滤器,同时保持其他过滤器可训练,可以通过以下步骤实现:

  1. 确定要冻结的过滤器所在的层和位置。每个神经网络模型都由多个层组成,每个层包含多个过滤器。确定目标过滤器所在的层和位置。
  2. 获取模型的权重。在深度学习中,每个神经元都有一组权重,用于调整输入信号的影响力。这些权重存储在模型的参数中。
  3. 冻结目标过滤器。将目标过滤器的权重设置为不可训练(即固定权重)。这样,反向传播算法将不会更新目标过滤器的权重。
  4. 重新编译模型。由于权重被冻结,需要重新编译模型以使更改生效。

下面是一个示例代码片段,说明如何冻结一层中的一个过滤器(假设目标过滤器在第二个卷积层的第三个位置):

代码语言:txt
复制
import tensorflow as tf

# 加载模型
model = tf.keras.models.load_model('model.h5')

# 冻结目标过滤器
model.layers[1].trainable = False
model.layers[1].get_weights()[0][:, :, :, 2] = 0  # 将第二个卷积层的第三个过滤器的权重设置为0

# 重新编译模型
model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])

以上代码仅为示例,实际应用中需要根据具体模型和目标过滤器的位置进行调整。

冻结过滤器的优势在于可以固定某些特征提取器,使其不再改变,从而避免过拟合的问题。这在迁移学习和模型微调中特别有用,其中模型的底层用于提取通用特征,而顶层用于特定任务的训练。

这种技术适用于许多深度学习框架和云计算平台。以腾讯云为例,腾讯云提供了多个与深度学习和模型训练相关的产品,例如弹性GPU、AI引擎等。具体推荐的产品和产品介绍链接地址可以参考腾讯云的官方文档或联系腾讯云的技术支持。

相关搜索:如何在保持其他列固定的同时使一列可滚动?如何保持过滤器按钮中特定复选框的状态Tableau LOD问题(如何使用总的百分比忽略一个过滤器,而保留其他过滤器?)如何在ReactJS中制作一个可重用的下拉过滤器,这个过滤器是干的,可以在同一个组件中使用两次如何在多类元素中选择一个类,同时保持其他类的用途?如何仅在Laravel中获取一个搜索查询过滤器的结果如何在javascript的代码片段中添加一个表过滤器?在PromQL中对一个标签应用过滤器时获取其他标签的值如何重命名Map对象中的键,同时保持值与其他键和值相同?如何使用jest仅模拟axios中的特定路由,同时仍保持其他路由正常工作如何在Elasticsearch中构建一个带有过滤器数组的QueryBuilder?如何创建一个与其他div重叠的列/div,从而拥有一个粘性的侧边栏,同时仍然保持其他div的背景颜色?如何在tensorflow中不重新训练前一个类的情况下,在其他类上训练模型?如何在WPF中模糊窗体的其余部分的同时保持一个控件正常如何将3个不同表中的3列合并为一个过滤器如何使用一个graphql查询中的字段作为过滤器,以便在单独的查询中获得流畅的图像?如何创建一个搜索过滤器,使您只能搜索一组div中的特定元素?Laravel获取一个查询,在不忽略其他过滤器的情况下,检查QueryBuilder是否至少存在两个关系中的一个如何将多个XLSX文件合并到一个工作簿中,同时保持工作表的分离?如何将成员函数添加到需要它的继承类中,而不影响其他兄弟类,同时保持多态?
相关搜索:
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

卷积神经网络新手指南之二

步幅和填充 让我们看回之前的转换层,在第一部分中我们提到过过滤器、接受场。现在,我们可以通过改变2个主要参数来校正每一层的行为。在选择过滤器大小之后,我们也必须选择“步幅”和“填充”。...步幅控制着过滤器如何进行卷积。在第一部分中我们有提到一个例子,过滤器围绕输入体量通过一次移动一个单位进行卷积。过滤器移动的总量即步幅。步长通常以一个方法进行设置使输出量是一个整数,而不是一个分数。...重要的一个这一层只在训练过程中使用,而不是在测试中。 网络层网络 网络层网络指的是一个使用1 x 1大小的过滤器的卷积层。...然后冻结所有其他层的权重,并正常训练网络(冻结层意味着在梯度下降/优化过程中能够不改变权重)。...与其通过一个随机初始化的权重来训练整个网络,我们可以使用预先训练的(并冻结)模型的权重,并专注于更重要的(更高的)层级的训练。

81170

ICML 2023 | ICE-Pick: 用于DNN的高效迭代剪枝

由于在这两个任务中微调的作用相似,本文将层冻结应用于模型剪枝,如图 1 的第 3 行所示。 在微调期间,有些层的梯度变化比其他层小,通常是模型早期的层。因此,可以跳过对它们的训练,减少微调成本。...剪枝和微调 图 1 的第 4-11 行显示了剪枝和微调步骤。对于每一层,包括冻结层,使用过滤器剪枝。如果精度下降高于或等于阈值(第 6 行),那么触发微调,否则跳过它。...采用 L1 范数评分的过滤器剪枝,并且在调度中每一步剪枝一个块,其中一个块是连续层的序列。...在三个 DNN 模型中,较早的层倾向于看到较小的变化,并且层的顺序通常保持不变。这证明了冻结不太敏感的层(通过观察一个剪枝步骤的权重变化来确定)和只应用一次冻结步骤是合理的。...图4 不同阈值 对 ICE-Pick 分别采用 0.5% 、1.5% 和 2.5% 的阈值,更高的阈值减少了所需的时间,同时仍然合理地保持了准确性。

49130
  • 深度卷积网络:实例探究

    同时由于结构a[l+2]=g(z[l+2]+a[l]),ResNet在设计中使用了很多相同的卷积,以保持z[l+2]和a[l]的维度相同。...例如:一个 28×28×192维度的输入层,Inception Network网络层的作用就是代替人工来确定卷积层中的过滤器类型,或者确定是否需要创建卷积层或池化层 在上面的Inception结构中,应用了不同的卷积核...假设要建立一个猫的检测器用来检测自己的宠物猫,在这个例子中,你只需要把前面这些层的权重都冻结,由于前面权重都冻结相当于一个固定函数,不需要改变。...最后如果我们有十分庞大的数据集,那么我们可以训练网络模型的所有参数,将其他研究者训练的模型参数作为参数的初始化来替代随机初始化,来加速我们模型的训练。...对于很多计算机视觉任务 ,如果你下载其他人的开源权重并用作你问题的初始化,你会做的更好,计算机视觉将会经常用到迁移学习,除非有一个极其大的训练集,可以从头开始训练所有东西,总之,迁移学习值得考虑。

    36440

    AI如何能比人类的眼睛看得更清楚?通俗的解释卷积神经网络

    本文介绍了现代计算机视觉的主要思想。我们探索如何将数百个学习图像中低级特征的神经元堆叠成几层。 ?...视觉,源于自然 哺乳动物视觉皮层中的神经元被组织成一层一层地处理图像,其中一些神经元在识别线和边等局部特征方面具有特殊的功能;当位置和方向改变时,一些层被激活;其他层对复杂的形状(如交叉线)做出反应。...我们可以使用许多这样的过滤器来检测图像的所有有价值的特征。起初,这些过滤器是手工制作的;后来,他们从这些图像中自己学习。在训练中寻找权重的过程也会产生这些过滤器。 ?...深度学习的一个建议和高度有效的方法是利用那些预先训练过的网络。一个预先训练好的网络只是一个之前在大数据集上训练过的保存的网络,它可以有效地作为真实世界的一个通用模型。...另一种方法是冻结预先训练好的网络的基础,附加一个简单的分类器,然后对整个网络进行训练。另一种被称为微调的方法是在训练前解冻基地的特定层。 总结 为计算机提供感知能力对社会有重大影响。

    39620

    入门 | 迁移学习在图像分类中的简单应用策略

    微调(finetuning)——其中包括使用基础数据集上的预训练网络以及在目标数据集中训练所有层;冻结与训练(freeze and train)——其中包括冻结除最后一层的所有层(权重不更新)并训练最后一层...也可以冻结前面几层,然后微调其余层,这是由于一些证据表明 CNN 的前几层包含纹理过滤器(texture filter)和色彩斑点(color blob)。...然后,我们可以使用冻结与训练,只训练最后一层(如图上方所示);或者微调所有层(如图下方所示)。 ? 微调 VS 冻结 我们很难知道在何种情况下应该只训练最后一层,在何种情况下应该微调网络。...正如 Karpathy 的深度学习教程中指出的,以下是在不同场景中对新数据集使用迁移学习的一些指导原则: 小目标集,图像相似:当目标数据集与基础数据集相比较小,且图像相似时,建议采取冻结和训练,只训练最后一层...以下是结果的总结: ? 我们观察到的第一个细节是,相比色度数据集而言,训练灰度数据集准确率会下降。这与其他文章作者观察一致,即基础数据集和目标数据集之间的域差异越大,迁移效果越差。

    1.1K70

    DeepLearning.ai学习笔记(四)卷积神经网络 -- week2深度卷积神经网络 实例探究

    首先该网络使用的是Same卷积,即保证高度和宽度不变,另外因为总共有16层卷积操作,所以就不把每一层都用图像的方式表现出来了,例如[CONV 64 X2]表示的是用64个过滤器进行Same卷积操作2次,...但是如果唯独不一样也没关系,可以给\(a^{[l]}\)乘上一个\(W_s\)来保持相同维度。...输出矩阵中的一个数据是经过 \(5*5*192\)次乘法得到的,那么总共的乘法运算次数则是\(5*5*192*28*28*32=\)1.2亿 瓶颈层(Bottleneck layer) 上面的运算次数多大...辛运的是网上已经有一个已经训练好的模型,是用来区分1000个不同事物的(包括猫),其网络模型如下: ? ​我们的需求是最后结果有三种:是小花,是小白,都不是。​所以需要对softmax做如下图修改。...另外由于数据较少,所以可以对他人的模型的前面的结构中的参数进行冻结,即权重和偏差不做改动。 ? ​当然,如果我们有一定量的数据,那么freeze的范围也可以随之减少,即拿来训练的层次可以增多 ?

    64480

    教你从读懂词语开始了解计算机视觉识别最火模型 | CNN入门手册(中)

    现在,我们可以通过改变2个主要参数来修改每个层的表现行为。在选择过滤器的尺寸后,还要选择步长和填充。 步长控制着过滤器如何对输入量进行卷积。...比如说我们要运用同样的卷积层,但同时我们想要让输出量保持在32 x 32 x 3。要做到这一点,我们可以对该层加一个大小为2的零填充。零填充就是对输入量在边界上用零进行填充。...基本上,这一层就是把所有的负激活变为0。这一层提高了模型中的非线性特性和整个网络,并且不影响感受野的卷积层。...另外几种池化层的类型包括平均池和L2规范池。池化层背后的直观原理是,一旦我们知道原始输入量中(这里将会有一个高激活值)有一个特定的特征,那么它的确切位置,就没有它相对于其他特征的位置那么重要了。...你需要把原来神经网络的最后一层去掉,换成你自己的分类标签(取决于你的问题空间),接着保持其他层的权重不变,正常地训练神经网络模型(保持其他层不变意思是在梯度下降/最优化的过程中不改变其他层的权重) 我们来讨论一下为什么这个方法可行

    1.1K51

    卷积神经网络图解_卷积神经网络分类

    也就是说,如果你用一个3×3的过滤器检测垂直边缘,那么图片的左上角区域,以及旁边的各个区域(左边矩阵中蓝色方框标记的部分)都可以使用这个3×3的过滤器。...网络或Inception层的作用就是代替人工来确定卷积层中的过滤器类型,或者确定是否需要创建卷积层或池化层。...迁移学习 下载别人已经训练好网络结构的权重作为预训练,转换到感兴趣的任务上 数据越多,需要冻结的层数越少,能够训练的层数就越多。...注: 通过使用其他人预训练的权重,很可能得到很好的性能,即使只有一个小的数据集。...在这个例子中,只需要训练softmax层的权重,把前面这些层的权重都冻结。 神经网络应用 分类定位 目标点检测 滑动窗口的卷积实现 为什么要将全连接层转化成卷积层?有什么好处?

    73810

    具有可解释特征和模块化结构的深度视觉模型

    如何在不损害区分能力的情况下提高可解释性? 如何学习具有功能可解释结构的网络? 今天我们先说说第一条:如何使用语义图形模型来表示CNN? 学习CNN的解释性图 假设CNN是预训练的用于目标分类。...& 输出 输 入 输入是一个预先训练的CNN:主要为分类、分割或其他用途,主要有关的网络有AlexNet、VGG-16、ResNet-50、ResNet-152等近期较流行的网络框架。...我们的任务是从滤波器的特征图中发现有噪声的部分模式的激活峰。假设,如果一个峰值对应于一个目标部分,那么必须在类似的映射位置激活其他过滤器的一些模式;反之亦然。...因此,在解释图中,将一个低层中的每个模式与相邻的上一卷积层中的一些模式连接起来,我们一层一层地挖掘部件图案,给定从上卷积层挖掘出来的模式,我们选择激活峰作为当前卷积层中的部分模式,与不同图像之间的特定上卷积层模式保持稳定的空间关系...学习节点连接,学习节点间的空间关系。 挖掘多个聚类:一个具有多个父节点的节点V,它在不同的图像之间保持一定的空间关系。

    71320

    【深度学习基础】一步一步讲解卷积神经网络

    输出图像中的通道数量就是神经网络中这一层所使用的过滤器的数量。如何确定过滤器的大小呢?我们知道卷积一个6×6×3的图片需要一个3×3×3的过滤器,因此过滤器中通道的数量必须与输入中通道的数量一致。...第一层标记为,,等于第一层中过滤器的个数,这(37×37×10)是第一层激活值的维度。 假设还有另外一个卷积层,这次我们采用的过滤器是5×5的矩阵。在标记法中,神经网络下一层的,即步幅为2,即。...下节课,也是本周最后一节课,我想花点时间讨论下,为什么大家愿意使用卷积,使用卷积的好处和优势是什么,以及如何整合多个卷积,如何检验神经网络,如何在训练集上训练神经网络来识别图片或执行其他任务,我们下节课继续讲...这是本周最后一节课,我们来分析一下卷积在神经网络中如此受用的原因,然后对如何整合这些卷积,如何通过一个标注过的训练集训练卷积神经网络做个简单概括。...我们构建一个神经网络,其中一层含有3072个单元,下一层含有4074个单元,两层中的每个神经元彼此相连,然后计算权重矩阵,它等于4074×3072≈1400万,所以要训练的参数很多。

    75110

    卷积神经网络的直观解释

    然后,我们分别对六个修正特征图中的每一个执行最大池操作。 这些层一起从图像中提取有用的特征,在我们的网络中引入非线性并减少特征维度,同时旨在使特征在某种程度上与缩放和平移相同[ 18 ]。...请注意,在 下面的 图15 中,由于输入图像是船,因此Boat类的目标概率为1,其他三个类的目标概率为0,即 输入图像=船 目标矢量= [0,0,1,0] 图15:训练卷积神经网络 卷积网络的整体训练过程可概括如下...从下面的 图16 中可以看出, 在进行卷积操作之前,我们可以连续进行多次卷积 + ReLU操作。在下面的图16中还要注意卷积神经网络的每一层如何显示的。...另外,请注意输出层中唯一的明亮节点如何对应于'8' —— 这意味着网络正确地对我们的手写数字进行分类(较亮的节点表示其输出较高,即8在所有其他数字中的概率最高)。 图20:可视化全连接层。...DenseNet(2016年8月) - 最近由黄高(和其他人)发布, 密集连接的卷积网络 使每一层以前馈方式直接连接到每个其他层。

    60630

    国外的CV算法岗,都问些什么题呢?

    在彩色图像中,它可以选择0到255之间的值按行和列排列的多个像素构成一个图像。 什么是迁移学习,怎么为项目挑选最为合适的模型?...迁移学习是一种机器学习技术,你可以使用一个预训练好的神经网络来解决一个问题,这个问题类似于网络最初训练用来解决的问题。...重新训练fc层,保留前面的权重。 (2). 复制预训练网络的架构,当我们有大量的数据要训练时,我们会采用这种方法,但它与训练前的模型所训练的数据并不十分相似。 (3). 冻结一些层并训练其他层。...我们可以选择冻结一个预训练模型的初始k层,只训练最顶层的n-k层。 那么如何选择预训练模型来进行模型训练,主要也需要参考任务本身以及数据量的大小。主要关系如图所示: 3....1*1卷积过滤器 和正常的过滤器一样,唯一不同的是它的大小是1*1,没有考虑在前一层局部信息之间的关系。

    64210

    “几何深度学习”受爱因斯坦启示:让AI摆脱平面看到更高的维度!

    同样,两位摄影师从两个不同的有利位置拍摄同一个对象的照片会产生不同的图像,但是这些图像可以彼此关联。量表的等方差可确保物理学家的现实模型保持一致,无论他们的观测点或测量单位如何变化。...卷积神经网络将许多这些“窗口”滑动到数据上,例如过滤器,每一个都旨在检测数据中的某种模式。如果是猫的照片,经过训练的CNN可能会使用过滤器来检测原始输入像素中的低级特征,例如边缘。...当时他对一个实际的工程问题很感兴趣:提升数据效率,即如何用更少的示例来训练神经网络。 科恩说:“深度学习是一种非常缓慢的学习。”...一个窗口过滤器检测图像中特定特征(例如垂直边缘),将滑动(或“平移”)在像素平面上,并对所有这些垂直边缘的位置进行编码;然后,它会创建一个标记这些位置的“功能图”,并将其传递到网络的下一层。...取而代之的是,只选择一个过滤器方向(或gauge),然后定义一种将所有其他方向转换为该方向的一致方法。 要注意的是,尽管可以在初始方向上使用任意量度,但将其他量度转换为该参考系必须保留的基本模式。

    66840

    CNN卷积神经网络原理详解(上)

    我们假定输入的图像是一个32x32x3的数组,我们用一个5x5x3(最后乘以3是为了在深度上保持和输入图像一致,否则数学上无法计算)的模板沿着图像的左上角一次移动一个格子从左上角一直移动到右下角。...(在本节中,为了简单起见,让我们忽略过滤器深度为3单位的事实,并且只考虑过滤器和图像的顶部深度切片)。...造成这个误差的原因也许是我们给小孩看的狗的样本还不够多(可以理解为数据量不够,欠拟合),也有可能是我们教的方式不是最好的(选用的模型不是最优的) 现在回到我们的网络模型问题上,第一个conv层中的过滤器如何知道要查找边和曲线...完全连接的图层如何知道要查看的激活图?每层中的过滤器如何知道有什么值?计算机能够调整其过滤值(或权重)的方式是通过称为反向传播的训练过程。...在正向传球过程中,您将会看到一张训练图像,我们记得这是一个32 x 32 x 3的数字数组,并将其传递给整个网络。

    95920

    卷积神经网络工作原理直观的解释

    我们需要做的是让网络像考虑其他像素一样考虑角落。我们有一个简单的方法解决这一问题:把零放在权重运动的两边。 ? 你可以看到通过添加零,来自角落的信息被再训练。图像也变得更大。...输出层 卷积层 在这一层中,实际所发生的就像我们在上述案例 5 中见到的一样。假设我们有一个 6*6 的图像。我们定义一个权值矩阵,用来从图像中提取一定的特征。 ?...我们可以看见在我们给图像填加一层 0 边界后,图像的原始形状是如何被保持的。由于输出图像和输入图像是大小相同的,所以这被称为 same padding。 ?...我只使用了单一卷积和池化层,可训练参数是 219,801。...通过增加更多的卷积和池化层,你可以进一步降低参数的数量。我们添加的卷积层越多,被提取的特征就会更具体和复杂。 在该模型中,我只使用了一个卷积层和池化层,可训练参数量为 219,801。

    73120

    机器视角:长文揭秘图像处理和卷积神经网络架构

    我们需要做的是让网络像考虑其他像素一样考虑角落。我们有一个简单的方法解决这一问题:把零放在权重运动的两边。 ? 你可以看到通过添加零,来自角落的信息被再训练。图像也变得更大。...输出层 卷积层 在这一层中,实际所发生的就像我们在上述案例 5 中见到的一样。假设我们有一个 6*6 的图像。我们定义一个权值矩阵,用来从图像中提取一定的特征。 ?...我们可以看见在我们给图像填加一层 0 边界后,图像的原始形状是如何被保持的。由于输出图像和输入图像是大小相同的,所以这被称为 same padding。 ?...我只使用了单一卷积和池化层,可训练参数是 219,801。...通过增加更多的卷积和池化层,你可以进一步降低参数的数量。我们添加的卷积层越多,被提取的特征就会更具体和复杂。 在该模型中,我只使用了一个卷积层和池化层,可训练参数量为 219,801。

    91460

    干货:Excel图解卷积神经网络结构

    我们需要做的是让网络像考虑其他像素一样考虑角落。我们有一个简单的方法解决这一问题:把零放在权重运动的两边。 你可以看到通过添加零,来自角落的信息被再训练。图像也变得更大。...输出层 卷积层 在这一层中,实际所发生的就像我们在上述案例 5 中见到的一样。假设我们有一个 6*6 的图像。我们定义一个权值矩阵,用来从图像中提取一定的特征。...我们可以看见在我们给图像填加一层 0 边界后,图像的原始形状是如何被保持的。由于输出图像和输入图像是大小相同的,所以这被称为 same padding。...池化层 有时图像太大,我们需要减少训练参数的数量,它被要求在随后的卷积层之间周期性地引进池化层。池化的唯一目的是减少图像的空间大小。池化在每一个纵深维度上独自完成,因此图像的纵深保持不变。...零填充(zero padding)-这有助于我们保留输入图像的尺寸。如果添加了单零填充,则单步幅过滤器的运动会保持在原图尺寸。 我们可以应用一个简单的公式来计算输出尺寸。

    58620

    干货:Excel图解卷积神经网络结构

    我们需要做的是让网络像考虑其他像素一样考虑角落。我们有一个简单的方法解决这一问题:把零放在权重运动的两边。 ? 你可以看到通过添加零,来自角落的信息被再训练。图像也变得更大。...输出层 卷积层 在这一层中,实际所发生的就像我们在上述案例 5 中见到的一样。假设我们有一个 6*6 的图像。我们定义一个权值矩阵,用来从图像中提取一定的特征。 ?...我们可以看见在我们给图像填加一层 0 边界后,图像的原始形状是如何被保持的。由于输出图像和输入图像是大小相同的,所以这被称为 same padding。 ?...池化层 有时图像太大,我们需要减少训练参数的数量,它被要求在随后的卷积层之间周期性地引进池化层。池化的唯一目的是减少图像的空间大小。池化在每一个纵深维度上独自完成,因此图像的纵深保持不变。...零填充(zero padding)-这有助于我们保留输入图像的尺寸。如果添加了单零填充,则单步幅过滤器的运动会保持在原图尺寸。 我们可以应用一个简单的公式来计算输出尺寸。

    64430

    教你如何将神经网络减小四分之一

    当你压缩一个神经网络时,要找到网络大小与准确性的平衡点。一般来说,网络越小,运行速度越快(耗电也少),但预测的结果就越糟糕。MobileNet的分数比SqueezeNet好,但同时也是它的3.4倍。...如果我们只删除一个输出通道,Metal仍然需要为其他三个通道处理“texture”。 那么我们删除了哪些过滤器或输出通道,不会影响最终结果呢。...例如,这些是MobileNet第一个卷积层(32个过滤器)的L1范数,从低到高如下: ? 正如你所看到的,这个第一层中大约有10个过滤器的L1范数几乎为零。...这个过程是: 1.从层中以4的倍数删除过滤器(即输出通道) 2.重新训练网络几次 3.在验证集上评估网络是否恢复了以前的准确性 4.移到下一层并重复这些步骤 正如你所看到的,这个过程是相当繁琐的,因为我们每次只压缩一层...这样我们知道了,从一个层移除过滤器也会对接下来的几个层产生重大影响。而对其他层的更改也会影响验证分数。 那么删除第一个卷积层过滤器的37.5%到底可不可行?

    1.2K70

    CS231n:5 卷积神经网络

    在单层中的每个神经元都是完全独立的,不会与其他神经元共享任何连接。最后一个全连接层又称为输出层,在分类任务中,它代表了每个类别的得分。常规的神经网络不能很好地扩展到整个图像。...每一层有一个很简单的API:将输入的3维数据通过一个可微函数(可能含有也可能不含有参数)转换成输出的3维数据。 2....每一个过滤器都会产生一个2维的激活映射,在某一层中可能有多个过滤器,将他们生成的激活映射堆叠起来组成深度上的维度,并作为输出传递到下一层中。...输出的空间尺度: 我们已经介绍了每个卷积层上的神经元如何连接,但是还没介绍每一层有多少个神经元,也没介绍他们是如何排列的。...原始的卷积神经网络受制于全连接层所以输入图像大小必须固定,因为全连接层的参数矩阵与前一层输出的大小相关,如果输入图像尺寸改变,那么前一层输出的尺寸也会变化,如果这是一个训练好的模型,那么参数矩阵大小就是固定无法改变的

    51920
    领券