腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
he_normal
内核
初始化
和
全局
平均
池
化
、
、
我试图在我的模型中实现
he_normal
内核
初始化
和
全局
平均
池
,但我不知道如何实现。
浏览 290
提问于2020-07-05
得票数 1
回答已采纳
1
回答
从夸夸斯身上消除一个论点。这有可能吗?
、
在我的集合中,每个Xception网都会考虑不同的权值
初始化
方法。xception.Xception(include_top=False, weights=None, kernelinitializer=xception_ensemble.switcher.get(init_var))def Xception(include_top=True, weights=
浏览 2
提问于2019-10-11
得票数 1
回答已采纳
1
回答
关于深度学习快速入门(Knet.jl)的朱莉娅语言
、
、
w1, w2, cx, cy, f = relu) = Conv (param (w1, w2, cx, cy), param0 (1,1, cy, 1), f);我不知道池子在那个矩阵里找什么。 这(
池
(conv4 ...))通过relu激活函数传递。
浏览 1
提问于2021-02-10
得票数 1
2
回答
Xavier
和
he_normal
初始化
差异
、
、
、
、
在keras中He normal
和
Xavier normal
初始化
器有什么不同?两者似乎都基于输入数据中的方差
初始化
权重。对两者之间的差异有什么直观的解释吗?
浏览 3
提问于2018-02-06
得票数 13
回答已采纳
1
回答
在Resnet50中,
全局
平均
池
之后的完全连接层是如何工作的?
、
我有最顶层的resnet50网络,包括
全局
平均
池
与shape (1,2048)
和
密集层,使用softmax与shape (1,3)。对于密集层的输出,
全局
平均
池
化
层中的(1,2048)的输出形状如何变为(1,3)?它怎麽工作?我找不到可靠的消息来源来解释这件事
浏览 83
提问于2019-02-02
得票数 0
回答已采纳
1
回答
如何在keras层中实现GlobalMinPool2D函数?
、
、
、
、
keras层提供keras.layers.GlobalAvgPool2D
和
keras.layers.GlobalAvgPool2D api来实现
全局
平均
2d
池
化
和
最大
池
化
。
浏览 24
提问于2021-11-05
得票数 1
1
回答
在多个种子上使用K-折叠交叉验证来评估模型的正确方法是什么?
、
、
我正在训练一个深度学习模型,使用3个随机种子上的5倍CV (随机种子用于模型
初始化
,CV拆分一次)。对于每个折叠,我保存最好的模型。因此,在模拟之后,我得到了15个模型。然后我对这些种子的结果进行
平均
。 我想知道我在这里做的事情是否正确。我已经读到有两种方法来计算CV性能:1
池
化
,其中性能是在所有测试集的并集上
全局
计算的2
平均
,其中性能是针对每个测试集单独计算的,结果是这些测试集的
平均
值。 我打算使用方法二(
平均
)。
浏览 28
提问于2020-01-10
得票数 0
1
回答
安全地声明并
初始化
monticello包中的
全局
变量?
、
、
、
如何安全地声明
和
初始化
Monticello包使用的
全局
变量,以便在加载过程中不会出现错误?正在做 在一个包类的类端“
初始化
”方法中,是否足够?(在这种情况下,我不希望使用共享
池
。)
浏览 2
提问于2015-03-22
得票数 3
回答已采纳
3
回答
何时
初始化
节点中的mysql连接
、
、
我想知道在node中
初始化
mysql连接的最佳时间是什么时候。 我是否应该创建一个连接
池
,然后将它们设置为某个
全局
连接
池
,以便我的所有模型都可以访问该
池
?或者我应该在执行查询时
初始化
连接吗?
浏览 4
提问于2013-09-16
得票数 0
1
回答
在CNN中使用
全局
和
池
代替
全局
平均
池
、
、
、
我有一个CNN,它的基本结构如下,我拥有的网络是独立于输入大小的,所以我可以在不同大小的输入上使用它。但是,
全局
平均
池
操作使用输入大小来
平均
一个通道中的所有值。例如,如果我对图像进行零点处理以改变其输入大小,则在
全局
平均
池
之后得到一个不同的向量。因此,我考虑使用
和
池
代替,因为它是独立于输入大小(我也不确定是否使用
和</e
浏览 5
提问于2021-08-20
得票数 0
5
回答
如何使用numpy在2d数组上执行最大/
平均
池
化
、
、
、
、
给定一个2D(M X N)矩阵
和
一个2D Kernel(K X L),如何返回一个矩阵,该矩阵是在图像上使用给定
内核
进行最大或
平均
池
化
的结果?matrix: [ -13, 134, 119, 100],
浏览 10
提问于2017-02-26
得票数 46
1
回答
在火炬中
初始化
重量
和
偏置
、
、
Dense(64, kernel_initializer='
he_normal
', bias_initializer='zeros', name='uhat_digitcaps')(d5) 如何
初始化
权重
和
偏差
浏览 0
提问于2018-11-13
得票数 0
回答已采纳
3
回答
全局
变量何时分配内存?
、
我的代码中有一些
全局
变量。很明显,它们是以某种顺序
初始化
的,但是在
初始化
发生之前,是否需要为所有这些对象保留内存?为了创建这些示例,我使用了一些
全局
变量来向objectPool引入类实例。但有时这些示例实例是在ObjectPool本身之前
初始化
的。以及生成的运行时错误。为了修复这个错误,我使用了一些延迟的
初始化
器map<RTTI,object*>* lateInitializedObjectPool;。现在,每个实例首先检查objectPool是否已
初始化
,
浏览 0
提问于2011-06-28
得票数 9
回答已采纳
1
回答
*pool2D
和
*pooling2D之间的Tensorflow差异
、
、
提到这个api_docs,我发现它们的全名是tf.compat.v1.layers.MaxPooling2D
和
tf.keras.layers.MaxPool2D,它们有几乎相同的参数,我可以考虑layers.MaxPooling2D此外,我还发现了tf.keras.layers.GlobalMaxPool1D(一维时态数据的
全局
最大
池
化
操作)
和
tf.keras.layers.GlobalAveragePooling1D(时态数据的
全局
平均
池
化<
浏览 23
提问于2020-08-01
得票数 3
1
回答
为什么全球
平均
池
在ResNet中起作用?
、
、
、
、
层,然后在softmax层之前连接
全局
avg
池
层。但是,出于某些原因,我需要替换Global
池
层。我尝试了以下方法: split_list =tf.split(输入,128,axis=1) avg_pool = split_listβ=axis=1)用于I(len(Spl
浏览 1
提问于2019-11-04
得票数 4
1
回答
内核
全局
变量存储在哪里?
、
、
、
、
我目前正在编写一个Linux
内核
模块。我知道,在用户空间程序中,未
初始化
的
全局
变量(使用EXPORT_SYMBOL导出到其他模块)存储在BSS段中,
初始化
的变量存储在用户空间内存的数据段中。但是在
内核
代码的情况下,它们是如何存储的呢?提前感谢您的帮助。
浏览 0
提问于2017-10-04
得票数 4
1
回答
一个时代之后,我的深度学习模型的准确率
和
验证精度接近100%,这可以吗?
、
、
、
Flatten())model.add(Activation('sigmoid'))第一个模型: 1x1
内核
大小
和
全局
池
2: 3x3和
平均
池
3: 5x5
和
最大
池
浏览 4
提问于2022-01-19
得票数 -1
1
回答
在CUDA
内核
中实现块同步的可能方法
、
最近,我正在编写一段代码,它需要在每次
内核
启动之前
初始化
一段
全局
内存,稍后将在同一个
内核
中进行修改。在每次启动
内核
之前,我都会做一个cudaMemset。但是,当我需要调用这个
内核
数千次时,这种开销是不能忽略的,所以我最终提出了这个想法,即使用
全局
内存来判断是否已经完成了所有的
初始化
工作。gridDim.x); //waiting}//do something w
浏览 4
提问于2017-03-09
得票数 0
回答已采纳
1
回答
在Ubuntu 16.04服务器上“随机:非阻塞
池
”
初始化
耗时较长
、
、
、
、
在Ubuntu 16.04 Server (Kernel 4.4.0-22)上,根据/var/log/syslog
初始化
“随机:非阻塞
池
”需要2-5分钟,而Ubuntu 14.04:这在Ubuntu 14.04 (
内核
3.13.0-79这给Rails应用程序带来了麻烦,因为unicorn服务器似乎在启动之前等待这个
池
变得可用。
浏览 3
提问于2016-05-29
得票数 5
1
回答
初始化
全局
内存变量后的
全局
__syncthreads()
我有一个CUDA
内核
,它从将
全局
计数器设置为零开始,执行一些计算,递增共享计数器,然后将不同块的共享计数器添加到
全局
计数器。现在,我要确保
初始化
发生在
全局
计数器的任何增量之前。下面是我的
内核
的一个简化示例:{ if (thread.Idx == 0) { atomicAdd(&g
浏览 0
提问于2016-05-10
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
卷积神经网络可视化的直观解析
图像识别与处理
深度学习-TensorFlow实现卷积神经网络
医学图像分割模型U-Net介绍和Kaggle的Top1解决方案源码解析
谈谈连接池、线程池技术原理
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券