腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
pytorch
和
tensorflow
中
使用
张量
核心
?
、
、
、
我
使用
的是带有
张量
内核的Nvidia RTX GPU,我想确保
pytorch
/
tensorflow
正在利用它的
张量
内核。我在一些文章中注意到,
张量
核心
用于处理float16,并且默认情况下
pytorch
/
tensorflow
使用
float32。他们引入了一些“混合精度
和
分布式训练”的库。这是一个有点陈旧的答案。我想知道
pytorch
或
tensorflow
浏览 23
提问于2021-11-18
得票数 0
1
回答
Conv2d不接受
张量
作为输入,说它不是
张量
、
、
我想让
张量
通过卷积2层。我不能执行它,因为我得到了一个类型错误,即使我已经将我的numpy数组转换为
张量
。 我尝试
使用
tf.convert_to_tensor()来解决这个问题。没有起作用 import numpy as np self.conv1
浏览 255
提问于2019-05-31
得票数 1
回答已采纳
1
回答
从
PyTorch
直接访问
TensorFlow
图形处理器矩阵
、
、
我有一个用
PyTorch
编写的神经网络,它在GPU上输出一些
张量
a。我想继续
使用
高效的a层来处理
TensorFlow
。据我所知,唯一的方法是将a从GPU内存移到CPU内存,转换为numpy,然后将其输入
TensorFlow
。一个简化的例子:import
tensorflow
as tf a =在上面
使用
non_blocki
浏览 0
提问于2019-01-30
得票数 15
1
回答
多输出的前向函数?
、
、
通常,nn.module
中
的前向函数计算并返回对前传中发生的输入的预测。但有时,中间计算可能会对返回有用。例如,对于编码器,可能需要返回前传中的编码
和
重构,以便稍后在丢失时
使用
。例如由预测
和
中间值组成的一组输出?(这个问题在
tensorflow
中
也是有效的。)
浏览 5
提问于2022-07-11
得票数 0
回答已采纳
1
回答
如何为
tensorflow
和
Py手电筒编写跨框架机器学习代码?
、
除其他外,机器学习框架包括以下功能: 这些函数是
张量
的简单转换,似乎是框架独立的。但是,例如,
使用
一些特定于
tensorflow
的函数,
如
tf.convert_to_tensor()或tf.cast()。因此,它不能很容易地
使用
在火把。另外,
tensorflow
非常喜欢
使用
tensorflow
张量
,而不是numpy
张量
来创建
tensorflow
浏览 4
提问于2022-04-01
得票数 1
1
回答
numpy阵列对火炬
张量
转换的工作
、
、
、
我想知道从NumPy数组到
张量
的转换是如
何在
PyTorch
和
Tensorflow
中发生的。它是创建整个数组的副本,还是有一些就地机制?其次,如何清除先前由NumPy数组
使用
的内存,该数组后来被转换为
张量
。
浏览 3
提问于2021-10-12
得票数 0
回答已采纳
2
回答
深度学习图书馆
中
NLP的动态批处理
和
填充批
、
、
、
、
这是我们训练NLP的现代深度学习模型的常用方法,例如,在Huggingface库
中
,输入no有一个固定的长度。指记号/音音单位。https://huggingface.co/docs/transformers/pad_截断 在下面的例子
中
,我们有5个不同长度的句子,它们都被填充到最大长度设置为1024。我问题的第一部分是关于GPU内存的
使用
和
pad,当我们训练带有填充输入的批数据的模型时,填充的令牌会占用GPU RAM吗?即使模型不计算它们,因为它们将返回零,这仍
浏览 0
提问于2023-04-07
得票数 2
5
回答
Pytorch
操作检测NaNs
是否有
Pytorch
内部过程来检测
张量
中
的NaNs?
Tensorflow
有tf.is_nan
和
tf.check_numerics操作...
Pytorch
在什么地方也有类似的东西吗?我正在寻找一个专门的
Pytorch
内部例程,因为我希望这发生在GPU以及CPU上。这不包括基于numpy的解决方案(
如
np.isnan(sometensor.numpy()).any()) ...
浏览 63
提问于2018-01-09
得票数 45
回答已采纳
1
回答
有没有办法把
pytorch
张量
转换成
tensorflow
张量
?
、
、
我需要从上面的链接
使用
mulit_dimensional_attention,它是用
TensorFlow
实现的,但我
使用
的是
PyTorch
,所以我可以将
PyTorch
张量
转换为
TensorFlow
张量
,或者我必须用
Pytorch
实现它。我在这里尝试
使用
的代码我必须将'rep_tensor‘作为
TensorFlow
张量
类型传递,但我有
PyTorch
浏览 14
提问于2020-03-17
得票数 0
1
回答
神经网络层激活的可视化
、
张量
流或角的特征可视化很容易,可以在这里找到。或我
使用
PyTorch
和
预先训练的resnet18模型。我只需要输入图像并为特定的层(例如Layer2.0.卷积2)获得激活。简单地说,如何将一个代码链接到
PyTorch
?如何获取resnet18
PyTorch
中
的特定层以及如何获得输入图像的激活。我在
tensorflow
中
尝试过这个,它成功了,但没有
PyTorch
。
浏览 2
提问于2019-11-24
得票数 3
回答已采纳
1
回答
如
何在
gpu中直接跨不同深度学习框架转换数据(
张量
),而无需复制到cpu?
、
、
、
例如,我在
pytorch
中有一个cuda
张量
,如
何在
gpu中直接将其转换为mxnet/
tensorflow
,而无需将其复制到cpu?频繁地在cpu
和
gpu之间复制数据非常耗时。
浏览 25
提问于2019-09-06
得票数 0
1
回答
毕氏
张量
标引
、
、
我目前正致力于将一些代码从
tensorflow
转换为py手电筒,我遇到了 func的问题,没有直接的函数来转换它。我想做的基本上是索引,我有两个
张量
,特征
张量
形状的[minibatch, 60, 2]
和
索引
张量
[minibatch, 8],比如第一个
张量
是
张量
A,第二个
张量
是B。在
Tensorflow
中
,它直接用tf.gather(A, B, batch_dims=1)转换 我如
何在
火把
中<
浏览 1
提问于2019-07-17
得票数 3
回答已采纳
1
回答
如何将AutoML库与议会联盟/TPU结合
使用
?
、
、
、
我想
使用
AutoML库自动胶合板与纸空间议会联盟/卡格尔TPU实例,因为规格的原因(大内存,大空间,
和
快速培训时间)。对于议会联盟,当我试图适应自动胶子预测器类时,库只识别可用的议会联盟,而不
使用
它。如何使自动胶子
使用
议会联盟?对于TPU,我还没有尝试它,因为有些地方我无法导入Autogluon库。最后,对于GPU,目前,根据我的尝试,Autogluon可以
使用
可用的GPU,但由于性能原因,我不想
使用
它。available: True, using: 0 IPUs HPU av
浏览 20
提问于2022-11-25
得票数 0
1
回答
如何将
TensorFlow
张量
转换为
PyTorch
张量
而不转换成Numpy数组?
、
、
、
我想在
Tensorflow
中
使用
一个预先训练过的
Pytorch
模型,并且我需要将
tensorflow
张量
转换为
pytorch
张量
。但是,我不想将Py手电筒
张量
转换为numpy数组,并将其转换为
tensorflow
张量
,因为我得到的错误是“您必须为占位符
张量
提供一个值”。当我制作图形时,我需要这个转换,这样
tensorflow
张量
就没有价值了,并且不能转换为nump
浏览 5
提问于2021-01-24
得票数 2
回答已采纳
1
回答
Tensorflow
迭代器返回元组的问题
、
、
、
、
我想迭代TF数据集,以便将获得的数据转换为numpy
张量
。作为
tensorflow
的新手,我的代码如下所示 sess = tf.Session(configtf.errors.OutOfRangeError:显而易见的问题是,每次对eval()的调用都会遍历exampleTF
和
labelsTF我也试过像这样的东西 def conver
浏览 42
提问于2019-05-09
得票数 0
回答已采纳
2
回答
Tensorflow
:'+‘运算符
、
我想问一下:
Tensorflow
中
是否
使用
了'+‘符号?我是说。在
Pytorch
中
,我可以
使用
+
和
-运算符对
张量
进行求和/减法,而在
Tensorflow
中
,我可以很好地利用tf.add。
浏览 74
提问于2020-06-30
得票数 0
1
回答
tf.cast相当于火把?
、
、
我是
PyTorch
的新手。
TensorFlow
有一个API tf.cast()
和
tf.shape()。tf.cast在
TensorFlow
中有特定的用途,火炬
中
是否有类似的东西?我有
张量
x=
张量
(形状(128,64,32,32)):tf.shape(x)创建维数1的
张量
,x.shape创建真维数。我需要在火炬中
使用
tf.shape(x)。tf.cast有一个不同的作用,不仅仅是改变torch
中
的
张量
浏览 4
提问于2019-12-02
得票数 8
回答已采纳
2
回答
支持
TensorFlow
和
PyTorch
的GPU
、
、
我还没有在我的系统上安装NVIDIA工具包或cuDNN或
tensorflow
-gpu。我目前
使用
tensorflow
和
Py手电筒来训练我的DL模型。这是我的问题- ,当我在tf或
pytorch
中
定义
张量
时,默认情况下它是一个cpu
张量
。所以,到目前为止,我所做的所有训练都是在CPU上进行的。所以,如果我确保安装了正确版本的Cuda
和
cuDNN以及
tensorflow
-gpu (特别是
tensorflow</e
浏览 5
提问于2020-08-20
得票数 1
2
回答
如何像
Pytorch
中
的conv2d参数"groups“一样在
tensorflow
中
获得每通道卷积?
、
我正在做一个项目,我指的是一个已经在
Pytorch
中
建立的网络。它的一个层有conv2d层,其中group =某个值。当我在
Tensorflow
中
构建项目时。考虑到我在
tensorflow
的conv2d层
中
没有找到任何组参数,我该如何处理这个特定的层呢?我在网上搜索,但找不到任何具体的东西,比如小组所说的是每个通道的卷积。我找到的最接近的东西是tf.nn.separable_conv2d,但仍然不确定如
何在
其中设置参数。
Pytorch
层是conv2d(
浏览 56
提问于2019-06-22
得票数 2
1
回答
使
Tensorflow
中
的
张量
相等
、
我想
使用
以下代码将
Tensorflow
中
的
张量
的子数组等同于: import
tensorflow
as tfb = tf.placeholder(shape = [1]) a[0,0] = b 但是有一条错误消息“‘
张量
’对象不支持项赋值”。
浏览 9
提问于2019-02-27
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习中numpy矩阵和Pytorch张量中的点积dot
对比PyTorch和TensorFlow的自动差异和动态子类化模型
对比PyTorch和TensorFlow的自动差异和动态模型
Pytorch 学习引发的思考
如何在 Linux Shell 编程中定义和使用函数
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券