腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
6
回答
在训练全卷积网络时,如何处理BatchNorm层?
、
、
、
对像素级语义分割的完全卷积神经网络(FCNs)的训练是非常内存密集型的。因此,我们经常使用batchsize=1来培训FCNs。然而,当我们用BatchNorm ( BN )层完成预先训练的网络时,batchsize=1对BN层没有意义。那么,如何处理BN层呢? 一些备选方案: 删除BN层(将BN层与前面的层合并,用于预先训练的模型) 冻结BN层的参数和统计数据 …… 哪一种更好,哪种演示可以在pytorch/tf/caffe中实现?
浏览 11
提问于2017-06-19
得票数 3
1
回答
CNN:计算输出形状
、
、
我正在实施一个深层次的神经网络结构,这是一年前发表的,以与我自己的工作进行比较。发表的神经网络将CNN作为神经网络的组成部分之一。CNN的轮廓可以看到。 总之,一维卷积是由带有2x6输入矩阵的2x6核执行的。作者从上述卷积中提取了32个特征。我已经写信给作者,但还没有收到任何关于如何提取这32个特征的答复。 如果在座的任何人能帮我弄清楚这32个输出特性是如何产生的,我将非常感激。 非常感谢。
浏览 2
提问于2022-07-02
得票数 -1
回答已采纳
1
回答
Keras/TensorFlow BatchNormalization正在规范什么?
、
、
、
、
我的问题是BatchNormalization (BN)是如何标准化的。 我要问的是,BN是否分别对每个像素的通道进行规范化,还是将所有像素合并在一起。它是在每个图像的基础上,还是在整个批处理的所有通道上进行的。 具体来说,BN是在X上运营的。比如说,X.shape = [m,h,w,c]。因此,对于axis=3,它是在"c“维度上操作的,即通道数(对于rgb)或功能映射数。 因此,假设X是一个rgb,因此有3个通道。BN是否做了以下工作:(这是BN的简化版本,用于讨论维度方面。我知道伽马和贝塔是学习的,但这里并不关心。) 对于m中的每个m 对于每个像素(h,w),取相关的r、g、
浏览 6
提问于2017-11-15
得票数 4
1
回答
卷积神经网络为什么适合图像处理?
卷积神经网络为什么适合图像处理?
浏览 224
提问于2022-09-08
1
回答
批量归一化对小型网络有用吗?
、
我们知道批量归一化(BN)加速了深度神经网络的训练。但它对小型神经网络也有帮助吗?我一直在试验6层卷积-MLP网络,我看不到训练这个网络对BN有任何好处。
浏览 17
提问于2021-06-14
得票数 1
1
回答
假设顺序为Conv2d->ReLU->BN,Conv2d层是否应该有一个偏置参数?
、
、
、
、
我们是否应该在Conv2d中包含偏差参数,如果我们要使用Conv2d,然后是ReLU,然后是batch norm (bn)? 如果我们使用Conv2d,然后是bn,然后是ReLU,那就没有必要了,因为bn的shift参数考虑了偏置功。
浏览 4
提问于2019-12-19
得票数 3
回答已采纳
4
回答
在ResNet中,下采样是如何工作的?
、
、
、
、
在这个pytorch代码示例中,它们将下行示例定义为第44行中的变量。第58行使用它作为函数。作为CNN的观点和python代码的观点,这个下样例是如何工作的。 代码示例: 我寻找的是下样是否有任何内置功能。但事实并非如此。 class BasicBlock(nn.Module): expansion = 1 def __init__(self, inplanes, planes, stride=1, downsample=None, groups=1, norm_layer=None): super(BasicBlock, self).__init__()
浏览 0
提问于2019-04-15
得票数 8
回答已采纳
3
回答
为什么只在CNN中对通道进行批量标准化
、
、
、
我想知道,在卷积神经网络中,是否应该对每个像素单独应用批量归一化,或者我是否应该取每个通道的像素的平均值? 我看到在Tensorflow的的描述中,建议对通道执行bn,但如果我没记错的话,我使用了另一种方法,效果很好。
浏览 0
提问于2017-08-21
得票数 9
回答已采纳
1
回答
“统计的静态性”和“像素依赖性的局部性”
、
我正在阅读Krizhevsky等人的基于深度卷积神经网络的ImageNet分类论文,并在Intro段落中看到了以下几条线: 它们(卷积神经网络)的容量可以通过改变它们的深度和宽度来控制,它们还对图像的性质(即统计量的平稳性和像素相依的局部性)作出了很强且大多数是正确的假设。因此,与具有类似尺寸层的标准前馈神经网络相比,CNN的连接和参数要少得多,因此它们更易于训练,而理论上最好的性能可能只是稍微差一些。 什么是“统计的平稳性”和“像素依赖性的局部性”?另外,CNN理论上最好的表现仅仅比前馈神经网络差一些,这有什么根据呢?
浏览 0
提问于2019-07-30
得票数 0
回答已采纳
1
回答
在胶乳中绘制CNN模型
、
如果我知道我的模型有四个卷积,三个块(卷积+ BN + RELU +退出),然后在每一个LaTeX后汇集一个正常的卷积Conv2d,那么我是否可以在layer.Then中绘制一个简单的CNN体系结构??
浏览 3
提问于2021-01-31
得票数 0
回答已采纳
1
回答
Conv2D与深度Conv2D计算
、
、
我正在尝试理解2D卷积神经网络和2D深度卷积神经网络在计算方面的异同。(我理解这些概念)。 例如,假设有一个3x3的输入图像,具有3个通道(RGB),填充为1,步长为1。滤波器为2x2。 输出是什么?(可以忽略激活和偏差) 我知道普通的conv2D会有13x3的输出,而dw conv2D会有3。除此之外,我有点困惑。谢谢
浏览 0
提问于2019-06-10
得票数 4
1
回答
是否可以从卷积神经网络中推断出多个参数
我有一个问题,我不确定这是不是一个聪明的问题。但是我读了很多关于卷积神经网络的书。到目前为止,我了解到输出层可以是例如用于分类问题的softmax层,或者您可以进行回归以获得量化的值。但我想知道是否有可能推断出不止一个参数。例如,如果我有一个数据,我的输出标签是房子的价格和房子的大小。我知道这不是一个聪明的例子。但我只想知道,在卷积神经网络的同一输出层中,是否有可能预测两个不同的输出值。或者我需要两个不同的卷积神经网络,一个预测房子的大小,另一个预测房子的价格。那么我们如何将这两个预测结合起来呢?如果我们可以在一个卷积神经网络中做到这一点,那么我们如何做到呢?
浏览 1
提问于2018-11-14
得票数 0
2
回答
TDNN和CNN有什么区别?
、
、
我读过关于时间延迟神经网络(TDNN)的文章,我不确定我是否理解它。据我所知,tdnn的工作原理就像一维卷积神经网络(CNN)。 如果这些体系结构存在的话,它们之间有什么区别?
浏览 0
提问于2021-01-20
得票数 1
回答已采纳
1
回答
如何解释此Inceptionv3模型图
、
、
、
、
我很抱歉,如果这个问题对你们来说非常明显或者非常基础,我只是一个高中生,试图理解神经网络。嘿,我已经研究了很多关于图像分类的问题,我在解释Inception-v3模型时遇到了这个问题: 我不习惯这些类型的插图,有人可以通过每个矩形的含义,以及为什么模型没有看起来像典型的神经网络插图的层,具有不同的层,例如:
浏览 0
提问于2018-07-24
得票数 3
2
回答
数学卷积与CNN的关系
、
、
、
、
我读过卷积解释,并在一定程度上理解了它。有人能帮我理解这个运算与卷积神经网络的关系吗?过滤器是否像应用权重的函数g?
浏览 0
提问于2017-06-27
得票数 12
4
回答
为什么CNN必须有固定的输入大小?
、
、
、
现在我正在学习卷积神经网络。 为什么CNN必须有固定的输入大小? 我知道可以克服这个问题(用完全卷积的神经网络等),而且我也知道,这是由于在网络的末尾放置了完全连接的层。 但是为什么呢?我无法理解完全连接层的存在意味着什么,以及为什么我们被迫有一个固定的输入大小。
浏览 0
提问于2019-11-30
得票数 9
回答已采纳
2
回答
在卷积过程中,翻转滤波器背后的直觉是什么?
、
、
、
我看到,当使用Theano的conv2d函数时,过滤器是垂直和水平翻转的。为什么会这样呢?在卷积神经网络的情况下,这是否重要?
浏览 0
提问于2020-02-17
得票数 1
回答已采纳
1
回答
多尺度卷积网络中的“多尺度”是什么?
、
、
我读了一篇关于深度学习的文章,偶然发现了这个术语,叫做多尺度神经网络。我完全理解卷积神经网络的概念,但它的多尺度部分的理解有点困难。有人能帮帮我吗?提前感谢!
浏览 0
提问于2021-11-05
得票数 0
1
回答
用于OpenCV的最佳卷积神经网络库是什么?(使用简单的实现和示例)
、
、
、
、
用于OpenCV的最佳卷积神经网络库是什么?(使用简单的实现和示例)
浏览 6
提问于2016-08-02
得票数 7
2
回答
基于卷积神经网络的时间序列分类
、
、
我在处理时间序列数据。如何使用卷积神经网络(CNN)进行时间序列分类?
浏览 0
提问于2019-01-04
得票数 2
1
回答
RuntimeError: 4维权重的预期四维输入[1024,64,3,3],但得到了大小[32,10]的输入。
、
、
、
、
这条线工作得很好 self.conv = nn.Conv2d(3, 64, kernel_size=3, stride=2, padding=1, bias=False) 我介绍了ResNet18 self.conv = ResNet18() **ResNet Class** '''ResNet in PyTorch. For Pre-activation ResNet, see 'preact_resnet.py'. Reference: [1] Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian
浏览 5
提问于2020-07-16
得票数 0
3
回答
为什么在卷积神经网络中使用卷积层后的激活函数?
、
、
我是机器学习的新手,我对卷积神经网络不太了解,这就是为什么我们在卷积层之后进行激活。
浏览 2
提问于2018-08-24
得票数 2
回答已采纳
1
回答
将三维卷积编码器层转换为三维卷积层
、
、
我有一个由编码器和解码器组成的三维卷积网络。在解码器部分,我想使用在解码器部分使用的卷积层的类型,但是让它们进行反褶积。换句话说,我希望上述卷积层增加空间大小,就像编码器中使用的反向速率一样,同时减少信道数。我在编码器中使用的卷积层包含顺序层: Conv_layer = nn.Sequential( BasicConv3d(64, 64, kernel_size=1, stride=1), SepConv3d(64, 192, kernel_size=3, stride=1, padding=1), nn.MaxPool3
浏览 3
提问于2022-09-30
得票数 1
回答已采纳
1
回答
将同一对象的多幅图像输入神经网络进行目标检测的方法
、
、
、
、
我在考虑一个玩具项目,它使用神经网络来识别物体。我的一些对象是非常相似的,当从一个特定的角度来看,但很容易区分时,从一个不同的角度。因此,我的问题是: 将同一对象的多个图像传送到网络中的方法是什么?或者哪种网络体系结构可以利用不同角度拍摄的多幅图像? 我对机器学习技术有很好的理解,但只对神经网络有基本的理解。所以我在这里寻找的是与谷歌搜索相关的方法、技术和其他术语的名称,以及可能感兴趣的特定论文或文章的链接。
浏览 4
提问于2017-05-24
得票数 4
回答已采纳
1
回答
神经网络中的卷积层通过其核来了解输入信号之间的相关性吗?
、
、
我对卷积神经网络如何通过其卷积运算学习的理论感兴趣。我认为它学习了(有用的)核,它测量其输入信号之间的相关性。此外,从技术角度看,卷积运算是作为“互相关”来实现的。所以我的假设是对的吗?
浏览 0
提问于2021-02-16
得票数 3
1
回答
初始化-v3的Keras实现没有BN-辅助器。
、
、
、
、
在我的实验中,我一直在使用keras inception v3模型。但是,当我打印模型摘要时,我看不到BN-辅助层.我想弄清楚,这是一个错误,还是因为某个特定的原因而被遗漏?根据Szegedy等人的“重新思考计算机视觉的初始架构”,辅助层在顶部-1错误中增加了0.4%的改进,是起始-v2和初始-v3之间的主要区别。我已经在这里附上了从keras库获得的入门-v3源代码。任何有价值的见解都可能对我的实验有用。 def InceptionV3(include_top=True, weights='imagenet',
浏览 0
提问于2018-03-25
得票数 1
回答已采纳
1
回答
计数神经元在Keras (不同的层),我的方法正确吗?
、
、
、
、
我试图确定我的Keras网络中‘神经元/节点’的数量,而不是参数。我正在使用一个已经实现的变体,所以我没有自己开发任何东西。 我知道,我可以通过汇总了解网络的概况和参数的数量。问题是,我不想知道我有多少参数,但是有多少‘神经元’。背景是,对于一个8到8个完全连接的层,我得到64个参数。但是我想讲到16,我也知道,Conv2D层的整个故事并不容易制作。 我的第一种方法是乘以output_shape变量的所有值,然后再添加它们。我能这么做吗,还是说错了? 这就是列表表单模型摘要: Layer (type) Output Shape
浏览 1
提问于2019-01-28
得票数 0
回答已采纳
3
回答
记忆电阻和神经网络节点,有什么不同?
、
对人工智能知之甚少,只是对最终可能导致人工智能与人类大脑的能力相当并有可能超过人脑的能力的说法感到有点困惑。 那么,记忆电阻(硬件)和神经网络节点(软件)有什么不同呢? 这两者很可能是完全不相关的,但鉴于我的理解是神经网络是用来模拟“生物神经网络”的,在我看来,忆阻器只是由神经网络模拟的生物版本的silco版本。 我问的原因是,如果它们在概念上非常接近或相同(意味着它们只是在实现上不同),人们不知道如何才能声称记忆电阻将缩小人工智能的差距。
浏览 2
提问于2010-12-05
得票数 1
回答已采纳
8
回答
卷积神经网络和递归神经网络有什么区别?
、
、
我对神经网络这个话题很陌生。我遇到了两个术语--卷积神经网络和递归神经网络。 我想知道这两个术语是否是指同一事物,或者,如果不是,它们之间会有什么区别呢?
浏览 6
提问于2014-01-04
得票数 67
4
回答
CNN的频道是什么?
、
、
我读了一篇关于卷积神经网络的文章,我发现了一些我不明白的东西,那就是: 过滤器必须有与输入图像相同的通道数,这样才能进行按元素方向的乘法。 现在,我不明白的是:什么是卷积神经网络中的通道?我试着寻找答案,但还不明白是什么。 有人能给我解释一下吗? 提前谢谢。
浏览 0
提问于2019-12-05
得票数 22
回答已采纳
1
回答
如何计算卷积神经网络中的偏差梯度?
、
、
、
、
我很难在网上找到关于如何在卷积神经网络中使用偏差进行反向传播的资源。我所说的偏差是指通过卷积得到的每个数字相加的数字。 Here is a picture further explaining 我知道如何计算滤波器权重的梯度,但我不确定如何处理偏差。现在,我只是根据该层的平均误差来调整它。这是正确的吗?
浏览 57
提问于2019-09-21
得票数 0
回答已采纳
3
回答
CNN中的“连接的稀疏性”是如何使网络具有更少的参数的?
、
、
、
、
我正在学习吴家祥关于卷积神经网络的讲座,他给出了CNN比非卷积神经网络参数少的两个原因。它们是: 参数共享 缺乏联系。 虽然我能理解第一个原因导致CNN的参数更少。我不明白为什么连接的稀薄性,即“一个层中的每个输出来自少量的输入”导致网络具有较少的参数。 第二个原因是不是有点多余? 谁能解释一下吗?
浏览 0
提问于2020-07-09
得票数 2
1
回答
CNN中的卷积与互相关
、
、
在卷积神经网络中使用卷积和互相关运算的直觉是什么?我有兴趣将数字图像处理的理论结合起来,其中定义了这些2x操作,以及CNN。有人能帮我把这些点联系起来吗?
浏览 0
提问于2018-10-31
得票数 7
回答已采纳
2
回答
卷积神经网络
、
、
、
这种对卷积神经网络的直观理解是否正确: 1.卷积基本上匹配图像的局部部分与卷积核/滤波器的相似程度。2.核/滤波器就像一个特征检测器。重要的是,它是学习的,并通过SGD自动修改和优化。
浏览 5
提问于2016-08-24
得票数 1
回答已采纳
1
回答
为什么卷积网络对图像如此有效?
卷积人工神经网络工作良好,尤其是图像。为什么?
浏览 0
提问于2017-07-22
得票数 2
回答已采纳
1
回答
由于输出融合,TPU利用率较低
、
我正在训练一个谷歌云TPU上的U-Net。它可以工作,但利用率非常低。 由于我不能在这里上传跟踪资料(?),最慢的部分的屏幕截图在这里: 输出融合是最有害的部分。58%的时间,但只有12%的利用率。下一个耗时的部分(9%)是“卷积”,利用率为74%。我真的不确定需要调整哪些操作才能更好地利用输出融合? 下面是我创建U-Net的代码,可能里面有一个慢性层? class UNet: def create(self, input, start_ch, depth, inc_rate, dropout, batchnorm, maxpool, upconv, residua
浏览 1
提问于2018-10-03
得票数 0
1
回答
在Google Coral Devboard和Jetson Nano中使用我自己构建的卷积神经网络分类器
、
、
、
、
我读了很多关于Jetson Nano和Google Coral Devboard的文章,在我读过的大多数文档和论文中,推断和部署都是使用预先构建的卷积神经网络来完成的,例如AlexNet,Inception,MobileNet和其他用于图像分类的神经网络。据我所知,这些微型计算机需要将神经网络转换为tensorflow模型或任何它们接受的框架,以执行模型的推断。 我想知道的是:对于Jetson Nano和Google Coral Devboard,我是否可以拥有与文档中举例说明的卷积神经网络无关的卷积神经网络,并将其部署到这些板上?
浏览 20
提问于2020-12-24
得票数 1
回答已采纳
1
回答
多类神经网络
、
、
、
、
这可能是一个错误的问题,或者是什么东西,所以请随意纠正我:)。 我已经研究神经网络好几周了。我偶然发现了使用神经网络的多类分类模型。 📷 正如我们在这张图中所看到的,模型允许您将输入分类为不同的类。但这也假设您的输入总是使用相同的数字特性,对吗?这意味着,如果我想识别手写数字,我应该有相同维数的图像(例如24x24),这样我就可以使用相同数量的特性(在本例中是24x24=576)。但是,如果一个类,例如6号,需要不同数量的特征(比如手写数字6的尺寸是30×30像素),该怎么办? 我知道这样做的逻辑方法是有两个不同的神经网络,但有没有办法同时训练一个多类别的分类模型,其中输入可能使用不同的特征?
浏览 0
提问于2018-10-26
得票数 1
回答已采纳
1
回答
全卷积变分自编码器
、
、
、
我想做一个神经网络,它使用黑白图像作为输入,并输出它的彩色版本。在这个过程中,重要的是图像的大小必须保持不变。 通常,这是通过使用完全卷积网络与GAN或AE architecture。现在我决定实现一个VAE版本,但是当我在互联网上查找它时,我发现了潜在空间是线性/密集的版本,这意味着它破坏了整个卷积。 对于这类神经网络,VAE不是一种有效的方法吗?或者有人可以提供解决方案/代码来帮助这种情况?(Pytorch更喜欢)
浏览 0
提问于2019-08-17
得票数 1
2
回答
保留卷积神经网络模型
、
如何保留卷积神经网络的训练结果,以便不同的数据可以再次用于测试?
浏览 1
提问于2017-03-13
得票数 1
2
回答
新图像尺寸的传递学习
、
、
、
转移学习:将经过训练的神经网络用于新的分类任务。 当我们想要用卷积神经网络进行传递学习时,我们不需要使用与训练所用的图像大小相同的图像大小。但如果我们改变输入的大小,我们将不得不重新训练完全连接的层。见这篇文章是关于堆栈溢出的。 我不明白为什么改变输入形状不会影响卷积层的重量和为什么它会影响完全连接的层权重。 如果我的问题听不懂,请告诉我。
浏览 0
提问于2019-08-16
得票数 1
回答已采纳
1
回答
深度神经网络真的需要全连接层吗?
、
我的意思是问,我可以有一个神经网络分类器具有大量的层而没有完全连接的层吗?
浏览 1
提问于2017-04-15
得票数 2
1
回答
卷积神经网络中的反向传播及滤波器更新
、
、
、
、
我正在学习Convolutional Neural Network,现在我对如何实现它感到困惑。 我知道常规的神经网络和像Gradient Descent和Back Propagation这样的概念,我也能理解CNN是如何直观地工作的。 我的问题是关于CNN的反向传播。它是如何发生的?最后一个完全连通的层是规则神经网络,这是没有问题的。但是我如何更新卷积层中的滤波器呢?如何将错误从完全连接的层反向传播到这些过滤器?我的问题是更新过滤器! 过滤器只是简单的矩阵?或者他们有像规则神经网络这样的结构,并且层间的连接模拟这种能力?我读过关于Sparse Connectivity和Shared Weig
浏览 1
提问于2018-05-13
得票数 0
回答已采纳
1
回答
如何在Caffe中定位/指定池层的大小?
、
、
、
、
我的团队一直在研究Caffe的MNIST示例,并且能够在一些神经网络的层(如卷积层)中定位/指定神经元/滤波器的数量,这是一个名为num_output的参数所引用的。但是,池层似乎没有指定它们具有/我们可以调整的输出数量。有没有任何方法来定位这些信息,以便我能够知道在MNIST示例神经网络的每一层中存在多少个神经元? 另外,第一卷积层具有num_output = 20,第二卷积层具有num_output = 50。这层深度的跳跃是如何产生的?我假设这是因为卷积层1和2之间的池层,但我还是不明白池层有多少过滤器。
浏览 2
提问于2016-06-08
得票数 2
回答已采纳
1
回答
CNN模型所使用的哪些功能应该被功能存储在实际中?
、
、
、
、
根据MLOPs原理,建议使用特征存储。问题在于如何利用卷积神经网络这样的深度学习模型进行图像分类,该模型作为训练过程的一部分进行自动特征工程(使用卷积层)。 问题 对于纯图像分类/分割模型,有一个特征存储有意义吗? 哪些特性应该存储在功能存储中?卷积层的输出?但是在训练过程中,它们不能被重用,因为在训练过程中,它们会被卷积层重建。
浏览 0
提问于2021-02-09
得票数 0
1
回答
我应该将输入的映像度量值放在以下架构中的哪里呢?
、
、
、
class Discriminator(nn.Module): def __init__(self, channels=3): super(Discriminator, self).__init__() self.channels = channels def convlayer(n_input, n_output, k_size=4, stride=2, padding=0, bn=False): block = [nn.Conv2d(n_input, n_output, kernel_size=k_size, stride=stride,
浏览 6
提问于2020-11-25
得票数 0
回答已采纳
1
回答
卷积在CNN推理中的快速实现
、
我正在寻找一个建议,尽快实施卷积算法的CNN推断,但不是一个培训。 这种卷积神经网络被建模为alexnet、mobilenet、resnet等。将在嵌入式ARM设备(A72,A53,A35)上运行,也可能在嵌入式图形处理器上运行。 据我所知,目前已经有各种实现方式和神经网络框架,它们有不同的实现方式,如直接卷积、展开卷积(im2col)、基于快速傅立叶变换或Winograd,但我的主要关注点是在嵌入式设备的性能约束下执行CNN。 如果任何人有经验,并可以推荐卷积实现CPU和并行实现,指向研究论文或开源实现,我将非常感激。
浏览 19
提问于2019-02-27
得票数 1
1
回答
如何找到网络的输出大小?
、
、
神经网络中卷积层的输入是一幅大小为128\times 128\times 3.的图像。 采用了尺寸为40的5\times 5卷积滤波器。你能得到输出吗?如果不是,那为什么不呢?如果是,输出的大小是多少?
浏览 0
提问于2019-02-19
得票数 0
3
回答
卷积神经网络是否存在消失梯度?
、
、
、
我想我在某个地方读到,随着层数的增加,卷积神经网络不会像标准的乙状结肠神经网络那样遭受消失梯度问题的困扰。但我一直找不到“为什么”。 它是否真的没有问题,还是我错了,它取决于激活功能?我一直在使用校正线性单元,所以我从未测试过卷积神经网络中的Sigmoid单元
浏览 10
提问于2015-03-09
得票数 8
回答已采纳
2
回答
如何在for循环中定义tf.layer.dense来创建动态隐藏层数和隐藏单元数?
、
我正在寻找一种方法,我们可以使用tensorflow API来创建一个具有用户定义的层数和隐藏单元的神经网络。 假设我有一个这样的神经网络 hidden1 = tf.layers.dense(inp, units=32, kernel_initializer=tf.initializers.he_uniform(),activation=tf.nn.relu, name="hidden1") bn1 = tf.layers.batch_normalization(inputs=hidden1, name="bn1") hidden2 = tf.layer
浏览 28
提问于2019-07-30
得票数 0
回答已采纳
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
卷积神经网络的卷积
卷积神经网络之卷积操作
卷积神经网络
逐点卷积神经网络
卷积神经网络详解(二)——自己手写一个卷积神经网络
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券