腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何实现tensorflow中的
稀疏
卷积
?
tensorflow
我知道tensorflow提供了一些处理
稀疏
张量的方法。例如,当存在
稀疏
矩阵时,tf.sparse_tensor_dense_matmul比tf.matmul更快。在深
卷积
网络中,经过训练得到
稀疏
卷积
核。我想知道如何保存
卷积
核,使tensorflow知道内核是
稀疏
的? 我看过一些报纸。本文提出了
稀疏
卷积
比传统
卷积
更有效的计算方法。但是,tf.nn.conv2d并不表示它将比密集
卷积
核更快地用
浏览 4
提问于2017-05-25
得票数 2
回答已采纳
1
回答
在神经网络的背景下,“
稀疏
”是什么意思?
machine-learning
、
neural-network
我见过“
稀疏
”和“
稀疏
”的使用方式,表明它可以提高模型的准确性。例如: 在这种情况下,“
稀疏
”是什么意思?
浏览 2
提问于2016-12-26
得票数 15
回答已采纳
0
回答
Totch中不规则数据导入gpu计算的方法?
神经网络
我有一组
稀疏
数据,想实现一个
稀疏
卷积
的计算。我将数据的索引和坐标做成了一个list,不同样本的
稀疏
情况不完全相同,所以这个list不规则。我想把这个list传入自写的
卷积
模块,但是不能实现,list中的数据相当于提供计算的索引,但是本身不参与计算过程。但是list不能导入gpu,导入cpu速度太慢。
浏览 46
提问于2022-09-27
1
回答
R中非负
稀疏
数据的缩放
r
、
scale
、
sparse-matrix
我有一个
稀疏
矩阵(30%的观测值为0)。结果将是
卷积
神经网络的输入
浏览 2
提问于2018-12-07
得票数 0
1
回答
在python (或任何语言)中转换/关联两个
稀疏
的一维信号的快速算法
python
、
signal-processing
、
convolution
信号的外观示例如下所示:可以看出,信号的分辨率以微秒为单位,而且信号大多是
稀疏
的。output = correlate(s_1, s_2, mode='same') 用上
浏览 0
提问于2019-06-17
得票数 4
2
回答
如何在Tensorflow或Pytorch中实现特定于位置的
卷积
滤波器?
python
、
tensorflow
、
deep-learning
、
conv-neural-network
、
pytorch
我想实现一个
卷积
层,每个输出位置都有一个不同的
卷积
滤波器。具体来说,考虑输出为16*16*128 (W *H* C)的情况。我的问题是,如果我们想要一个特定于位置的
卷积
滤波器,我该如何在Tensorflow或Pytorch中实现它?我是否需要编写自己的操作,或者有一些聪明的方式来使用所提供的函数?
浏览 0
提问于2018-10-03
得票数 3
1
回答
语义分割中的去
卷积
网络
neural-network
、
deep-learning
、
image-classification
最近我遇到了一篇关于使用反
卷积
网络进行语义分割的论文:用于语义分割的学习反褶积网络。📷非池层的输出是一个扩大的,但
稀疏
的激活映射。反褶积层将通过使用多个学习滤波器的
卷积
类运算解池获得的
稀疏
激活紧密化。然而,与将滤波器窗口内的多个输入激活连接到单个激活的
卷积
层相反,反
卷积
层将单个输入激活与多个输出相关联。反褶积层的输出是一幅放大密集的活化图。反
卷积
层中的学习滤波器对应于重构输入
浏览 0
提问于2015-11-24
得票数 5
回答已采纳
5
回答
来自稠密张量Tensorflow的
稀疏
张量(矩阵)
python
、
graph
、
tensorflow
、
sparse-matrix
、
autoencoder
我正在创建一个
卷积
稀疏
自动编码器,我需要将一个充满值的4D矩阵(其形状是[samples, N, N, D])转换成一个
稀疏
矩阵。 对于每个样本,我都有D NxN特征图。我希望将每个NxN特征映射转换为
稀疏
矩阵,将最大值映射为1,将所有其他值映射为0。我不想在运行时而是在Graph声明期间这样做(因为我需要使用生成的
稀疏
矩阵作为其他图操作的输入),但我不知道如何获取索引来构建
稀疏
矩阵。
浏览 5
提问于2016-10-04
得票数 9
1
回答
卷积
稀疏
编码在深度网络框架中的实现
image-processing
、
machine-learning
、
feature-detection
、
deep-learning
、
unsupervised-learning
我想实现一些
卷积
稀疏
编码过程,类似于本文中描述的过程:我尝试了不同的框架(caffe,eblearn torch),但似乎缺乏对无监督特征学习过程的教程/支持。
浏览 3
提问于2015-06-13
得票数 1
1
回答
如何在keras中使用Conv1D和双向LSTM对每个时间步骤进行多类分类?
python
、
deep-learning
、
keras
、
convolution
、
recurrent-neural-network
由于一个类比其他类更普遍(实际上是没有信号),所以我使用损耗=‘
稀疏
_分类_交叉熵’、sample_weight_mode=“时态”和sample_weight来赋予包含有意义类的时间步骤更高的权重。
浏览 3
提问于2017-12-01
得票数 1
回答已采纳
1
回答
卷积
神经网络中的群/ CNN
neural-network
、
deep-learning
、
conv-neural-network
、
pytorch
就这一点而言,文档也有点
稀疏
: 在CNN中什么是群?
浏览 0
提问于2019-03-12
得票数 3
回答已采纳
1
回答
Pytorch
卷积
层返回Nan
python
、
neural-network
、
artificial-intelligence
、
conv-neural-network
、
pytorch
因此,我使用
卷积
层作为神经网络的第一层,用于深度强化学习,以从我构建的模拟中获得空间特征。模拟提供了不同的地图,这些地图具有不同的长度和高度。如果我理解
卷积
网络,这应该无关紧要,因为信道大小保持不变。在
卷积
网络和完全连接的层之间,有一个空间金字塔池层,因此不同的图像大小并不重要。此外,空间数据也相当
稀疏
。通常,在第一
卷积
层吐出所有Nans之前,它能够经历几个状态,有时还会经历几个插曲。
浏览 12
提问于2018-08-09
得票数 0
2
回答
具有
稀疏
滤波器的PyTorch 2d
卷积
sparse-matrix
、
convolution
、
pytorch
我正在尝试使用
稀疏
滤波器矩阵在pytorch中对密集输入执行空间
卷积
(例如,在图像上)。
稀疏
张量在PyTorch中实现。我试图使用
稀疏
张量,但它最终出现了分割错误。
浏览 1
提问于2017-12-19
得票数 2
2
回答
如何在tensorflow中将张量的某些值设置为零值?
tensorflow
我想
稀疏
卷积
核,所以我需要在训练过程中将核中的一些值设置为零值。tensorflow中有没有一些apis可以帮助我实现我的想法,将张量中的一些值设置为零?
浏览 2
提问于2017-05-13
得票数 8
回答已采纳
3
回答
有没有很好的向量和矩阵PHP库?
php
、
vector
、
matrix
我正在寻找的库应该包括像矩阵乘法,向量余弦相似度,
卷积
等函数。我使用的是PHP 5.2。
浏览 1
提问于2011-01-28
得票数 15
2
回答
为什么膨胀
卷积
计算效率高?
machine-learning
、
conv-neural-network
、
convolution
、
semantic-segmentation
、
unet-neural-network
ENet效率的基础是膨胀
卷积
(除其他外).我理解保存空间分辨率,它是如何计算的,等等,但是我不明白为什么它在计算和内存方面比例如最大池便宜。 ENet:
浏览 7
提问于2021-02-16
得票数 2
回答已采纳
1
回答
使用c++找出包含在大矩阵中的时间序列的相关系数的最有效方法是什么?
c++
、
time-series
、
correlation
我正在使用一个包含全美卫星植被数据的矩阵,分辨率为250米,所以每个矩阵是212,029,488个像素,我研究的17年中的每一年都有一个矩阵。我的目标是计算每个像素与周围所有像素(半径为20像素或5 5km)的相关系数,并将所有这些相关系数的平均值分配给每个焦点像素。(见附图以作澄清)这种方法的问题是,我发现它非常笨拙和多余,因为它导致必须多次执行相同的计算。例如-当找到像素@ 1,1的相关系数时,1,2的系数被执行一次,然后当像素1,2的系数被执行时,必须再次执行前述的相关
浏览 1
提问于2020-10-04
得票数 0
1
回答
CNN -这是Toeplitz矩阵吗?
machine-learning
、
deep-learning
、
convolutional-neural-network
我一直在阅读www.deeplearningbbook.org的第9章,其中描述了
卷积
网络。本书接着将这个矩阵描述为一个Toeplitz矩阵, 对于单变量离散
卷积
,矩阵的每一行都被约束为等于上面的一行被一个元素移动。
浏览 0
提问于2018-11-01
得票数 1
回答已采纳
2
回答
运行模型不会提高推理速度或减小模型大小
python
、
machine-learning
、
pytorch
、
torchvision
、
torchtext
time_old += time.perf_counter() - start_timeprint('new ', time_new)我发现torch有一个
稀疏
模块
浏览 0
提问于2020-06-11
得票数 6
1
回答
Tensorflow -保持
稀疏
的
稀疏
嵌入查找
python
、
tensorflow
、
conv-neural-network
、
text-classification
Tensorflow提供了tf.nn.embedding_lookup_sparse,它允许您以
稀疏
张量的形式提供单词ID。这是很好的,特别是对于启用可变长度序列。我想把我的向量保持在
稀疏
表示中,这样以后我就可以做其他的
卷积
了。这在TF中有可能吗? 编辑:我想避免在嵌入查找之前填充输入。
浏览 2
提问于2018-11-07
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
SECOND:稀疏嵌入的卷积目标检测网络
亮点:多元卷积稀疏编码、循环关系网络
Uber提出SBNet:利用激活的稀疏性加速卷积网络
斯坦福ICLR 2018录用论文:高效稀疏Winograd卷积神经网络
斯坦福ICLR2018录用论文:高效稀疏Winograd卷积神经网络
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券