腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3944)
视频
沙龙
2
回答
Pytorch
张量
的
截断
SVD
分解
python
、
scikit-learn
、
pytorch
、
svd
我正在
Pytorch
中训练一个模型,我想使用输入
的
截断
SVD
分解
。为了计算奇异值
分解
,我将
Pytorch
Cuda
张量
的
输入传递给中央处理器,并使用scikit-learn中
的
TruncatedSVD进行
截断
,然后将结果传送回图形处理器。以下是我
的
模型
的
代码: class ImgEmb(nn.Module): def __init__(self, inp
浏览 101
提问于2019-09-20
得票数 2
回答已采纳
3
回答
在
PyTorch
中加速奇异值
分解
python
、
pytorch
、
batch-processing
、
matrix-multiplication
、
svd
我正在使用
Pytorch
为CIFAR10做一些分类任务,对于每一次迭代,我必须对每一批进行一些预处理,然后才能前馈到模型中。以下是每个批次上预处理部分
的
代码:for i in range(batch_size): for c in range(C): S[i, c
浏览 3
提问于2020-02-09
得票数 2
2
回答
PyTorch
线性代数梯度
python
、
linear-algebra
、
pytorch
为了正则化
的
目的,我希望通过奇异值
分解
来反向传播梯度。
PyTorch
目前不支持通过奇异值
分解
进行反向传播。我知道我可以编写自己
的
自定义函数来操作变量;获取它
的
.data
张量
,对其应用torch.
svd
,将变量包装在它
的
奇异值周围,并在向前传递中返回它,然后在向后传递中将适当
的
雅可比矩阵应用于传入
的
梯度。然而,我想知道是否有一个更优雅(也可能更快)
的
解决方案,我可以直接重写"
浏览 5
提问于2017-06-29
得票数 10
3
回答
构造
SVD
的
组件数量
python
、
machine-learning
、
scikit-learn
、
statistics
、
svd
可以通过使用
截断
的
奇异值
分解
来降低维数。它通过
截断
奇异值
分解
(
SVD
)进行线性降维。然而,在
分解
之前,必须选择组件
的
数量。n_comp = 25
svd
=TruncatedSVD(n_components=n_comp, algorithm=
浏览 2
提问于2018-01-24
得票数 4
1
回答
截断
奇异值
分解
与部分奇异值
分解
python-2.7
、
scikit-learn
、
pca
谁能告诉我在sklearn中实现
的
截断
SVD
和在fbpca中实现
的
部分
SVD
之间
的
区别? 我找不到一个明确
的
答案,因为我还没有看到任何人使用
截断
奇异值
分解
进行主成分追踪(PCP)。
浏览 1
提问于2015-08-22
得票数 1
2
回答
比
张量
分解
python
、
numpy
、
tensor
我想用
分解
一个三维
张量
。 D= 10;A= np.random.rand(d,d,d) Am = A.reshape(d**2,d) Um,Sm,Vh = LA.
svd
(Am,full_matrices
浏览 2
提问于2021-03-22
得票数 0
回答已采纳
1
回答
在`
pytorch
`中跨
张量
广播
arrays
、
gpu
、
pytorch
我使用
pytorch
作为数组处理语言(不是为了传统
的
深度学习目的),我想知道做“批处理”并行
的
标准方法是什么。例如,假设我想要计算三维
张量
的
二维层
的
svds (比如使用torch.
svd
() ),并且我想返回堆叠
的
u
的
元组,堆叠
的
s,堆叠
的
v。想必,通过SIMD并行
的
魔力,这应该可以在大致相同
的
时间内完成单层
svd
(在gpu上),但如何编程呢?
浏览 20
提问于2020-02-17
得票数 1
2
回答
在java中计算
截断
奇异值
分解
的
最佳方法
java
、
matrix
、
colt
、
matrix-decomposition
我希望对最佳
的
2或3个库进行基准测试,以计算
截断
奇异值
分解
(
SVD
),即只保留k个最大奇异值
的
SVD
。此外,我也有这样
的
限制: 我遇到了相当多
的
库,但是,例如,对于Colt,我甚至不知道
SVD
算
浏览 5
提问于2013-11-13
得票数 3
1
回答
主要
的
基于分布语义
的
算法是什么?
deep-learning
、
word2vec
、
word-embeddings
、
vector-space-models
但是,我不确定上面提到
的
是否也是分布语义模型。奇异值
分解
(
SVD
)请告诉我,上述算法是否也是分布式语义模型。此外,还请让我知道其他基于分布语义
的
算法。
浏览 0
提问于2018-08-24
得票数 1
2
回答
火炬中
的
int8数据类型
machine-learning
、
pytorch
、
onnx
我知道在
pytorch
中我可以将
张量
定义为,但是,当我真正想要使用int8时,我得到:因此,我很困惑,如何在
pytorch
中运行量化模型,例如,当计算块(如卷积)不支持数据类型时,如何使用int8?我使用
的
是
pytorch
版本
的
1.0.1.post2。
浏览 0
提问于2019-03-21
得票数 1
回答已采纳
1
回答
SVD
和SVM之间
的
区别是什么
recommendation-engine
、
svm
、
svd
我知道SVM(Support Vector Machines)和
SVD
(Singular Value Decomposition)这两个缩写,并且这两个缩写都用在推荐引擎中。用外行的话说,这两种算法
的
区别是什么,它们会如何影响我
的
推荐引擎。
浏览 0
提问于2012-11-23
得票数 6
回答已采纳
1
回答
numpy数组能在GPU中运行吗?
python
、
numpy
、
pytorch
、
gpu
我正在使用
PyTorch
。错误消息是明确
的
,我知道如何通过只包含.cpu()来修复这个错误。X_prime_class.cpu().numpy()。我只是想知道这是否证实numpy数组不能在GPU/Cuda中运行?
浏览 2
提问于2020-07-14
得票数 4
回答已采纳
1
回答
如何从tensorly为partial_tucker函数设计测试?
tensorly
所以,我尝试做
的
是取一个初始随机
张量
A (阶数为4),手工计算它
的
“低阶”塔克
分解
,然后重建与初始
张量
相同形状
的
张量
,比如A_tilde。我认为A_tilde
张量
就是初始
张量
A
的
“低阶近似”。我说
的
对吗? 然后我想在该A_tilde
张量
上使用partial_tucker函数,我希望结果与我手工计算
的
塔克
分解
相同。事实并非如此,所以我猜我手工制作<
浏览 27
提问于2020-04-04
得票数 2
回答已采纳
1
回答
Numpy-查找特定特征值集合
的
相应特征向量
numpy
、
svd
、
eigenvalue
我正在尝试找出如何找到一组特定特征值
的
相应特征向量。 我正在做一个使用奇异值
分解
的
项目,我需要找到
截断
的
奇异值
分解
,这是具有k个最大奇异值
的
奇异值
分解
。
浏览 0
提问于2018-05-12
得票数 0
1
回答
基于奇异值
分解
的
图像压缩
matlab
、
linear-algebra
、
image-compression
我一直在学校用奇异值
分解
研究图像压缩。然而,我不明白如何通过使用
SVD
和
截断
所使用
的
奇异值
的
数量来减少内存。原始图像
的
大小为m x n,因此使用m x n x像素大小
的
字节。在奇异值
分解
之后,得到
的
矩阵仍然是m x n。那么它不会使用相同数量
的
空间吗?
浏览 1
提问于2016-11-12
得票数 0
2
回答
基于numpy
的
三维图像压缩
python
、
arrays
、
numpy
、
compression
、
svd
我有一个3Dnumpy数组,表示一个对象,用单元作为体素,体素
的
值从1到10。我想压缩图像(a)以使其更小,(b)稍后通过将其压缩到与原始图像
的
最小一致程度来快速了解图像
的
复杂性。我已经使用奇异值
分解
对2D图像做了这样
的
处理,并查看了需要多少奇异值,但它在3D图像中看起来有困难。例如,如果我看一下S矩阵中
的
对角项,它们都是零,我期待
的
是奇异值。有没有什么方法可以使用
svd
来压缩3D数组(例如,以某种方式扁平化)?或者其他方法更合适?如果有必要,我可以将
浏览 0
提问于2016-08-20
得票数 2
1
回答
PCA、truncated_
svd
和svds在numpy和sklearn上
的
不同结果
python
、
numpy
、
machine-learning
、
scikit-learn
、
svd
在滑雪板中,有不同
的
方法来计算第一个主成分。对于每种方法,我都得到了不同
的
结果。为什么?[:,0]print "first
svd
-0.67007959 0.0217131 -0.02535204 first
svd
浏览 0
提问于2013-12-19
得票数 1
回答已采纳
2
回答
将
PyTorch
张量
与scikit-learn结合使用
python
、
numpy
、
scikit-learn
、
pytorch
、
tensor
我可以使用
PyTorch
张量
代替NumPy数组,同时使用scikit学习吗?我尝试了一些像train_test_split和StandardScalar这样
的
学习方法,但是当我使用
PyTorch
张量
而不是NumPy数组时,有什么我应该知道
的
吗?根据上
的
这个问题: 这是否意味着使用
PyTorch
张量</e
浏览 2
提问于2021-11-18
得票数 3
回答已采纳
2
回答
如何利用
截断
的
SVD
减小全连通(`“InnerProduct”)层
machine-learning
、
neural-network
、
linear-algebra
、
deep-learning
、
caffe
在
的
“3.1
截断
SVD
快速检测”一节中,作者提出了利用技巧来减少全连通层
的
大小和计算时间。给定一个经过训练
的
模型(deploy.prototxt和weights.caffemodel),我如何使用这个技巧将一个完全连接
的
层替换为一个
截断
的
层?
浏览 0
提问于2016-11-08
得票数 7
回答已采纳
1
回答
从python中从randomizedPCA导入sklearn.decomposition
的
减少时间
python
这是正确
的
,但时间是非常重要
的
,对于端python源
的
所有时间都不到1秒,但是加载/导入RandomizedPCA
的
时间大约是3 second.this行:因此,我需要一个加载/导入这个更快(不到1秒)
的
方法。
浏览 2
提问于2016-12-20
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
BI - SVD 矩阵分解的实际案例:利用 SVD 进行图像压缩
PyTorch的10个基本张量操作
Pytorch中张量的高级选择操作
深度学习中numpy矩阵和Pytorch张量中的点积dot
机器学习中的数学(6)-强大的矩阵奇异值分解(SVD)及其应用
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券