腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(717)
视频
沙龙
1
回答
由于
张量
流
错误
,
无法
使用
形状
GradientExplainer
(
张量
不可
散
列
)
、
、
、
、
我已经被这个
错误
困扰了很长一段时间,有没有办法在不降低我的tensorflow版本的情况下解决它呢?到目前为止,我找到的所有解决方案都推荐
使用
TF<2.0,而我不想这样做。当前TF版本= 2.4.1,Keras版本= 2.4.3,
使用
google colab 我正在尝试将SHAP
GradientExplainer
与VGG16模型一起
使用
,以了解特定层如何影响预测。代码是: e = shap.
GradientExplainer
((model.layers[7].input, mod
浏览 63
提问于2021-02-02
得票数 1
1
回答
具有一个标签和一个功能的Tensorflow
、
队员们, 我是
张量
流
的新手,我正在尝试根据我在网上阅读所学到的知识来构建一个程序。我基本上是在
使用
我已经掌握的数据来学习和测试模型。我的数据中只有两
列
,一
列
是要素,另一
列
是标签。我得到的
错误
如下。 ValueError:
无法
为
形状
为'(?,1)‘的
张量
'Placeholder_1:0’提供
形状
(40,)的值 我知道我在做一些
错误
的事情,我的
张量
浏览 12
提问于2019-02-05
得票数 0
1
回答
TypeError:“Conv2dLayer”对象
不可
订阅
、
我
使用
TensorFlow来重建一个叫做“深度Voxel
流
”的CNN模型:。W_init=w_init, name='deconv4') flow =
浏览 1
提问于2019-01-29
得票数 2
回答已采纳
1
回答
使用
Tensorflow构建一个处理可变批次大小的图形
、
我
使用
tf.placeholders()操作来输入作为2D
张量
的可变批大小,并在调用run()时
使用
提要机制为这些
张量
提供不同的值。我得到了 embedding_input = [tf.nn.embe
浏览 1
提问于2015-11-24
得票数 12
5
回答
“解压”在火炬中是做什么的?
、
、
说: 返回一个尺寸为1的新
张量
,该
张量
插入到指定位置。.X= torch.tensor(1,2,3,4) >>> torch.unsqueeze(x,0)
张量
([ 1,2,3,4]) >>> torch.unsqueeze(x,1)
张量
([ 1,2,3,4]
浏览 7
提问于2019-07-28
得票数 100
回答已采纳
3
回答
Tesnsor
流
错误
:
形状
必须是等级2,但对于具有输入
形状
[?],[1024]的'MatMul‘(操作:'MatMul'),
形状
必须是等级1
、
、
问题是我只有一个特征输入,
形状
是一维的。我从一个存储的文件中获取数据,该文件包含日期和一个要通过system.Here运行的“德里”feature.These特征。,np.asarray(y[len(X)-test_len:])但是当我运行这段代码时,我得到了以下
错误
错误
的原因是下面这一行:有人能帮我
浏览 1
提问于2018-07-08
得票数 1
1
回答
如何将具有动态维度的
张量
的每个2D元素乘以静态2D掩码?
、
、
、
我现在已经了解到Multiply()要求
张量
具有相同的维度,这就解释了我的问题。 然后我想我可以创建一个
形状
(?,64,64)的
张量
,通过连接?复制掩码,然后
使用
Multiply()。但是,我
无法
创建这个
张量
,因为我没有?的值。(我尝试
使用
Img.shape,但因为它是一个NoneType,所以它给我一个
错误
) 我还决定用类似于: rFD1 = K.zeros_like(img) rFD1:,::2,::2 = img:,::2,::2这样的元素来更改
浏览 25
提问于2019-02-19
得票数 1
回答已采纳
1
回答
KERAS:
使用
return_sequence = True获取RNN时间步骤的一部分
、
、
、
输入:(bs,timesteps,input_dim) ->
张量
(“堆栈:0”,shape=(?当我
使用
模型摘要时,它显示的结果具有正确的输出
形状
: 但不是在建筑过程中。因此,当我想通过
使用
un堆栈(output,axis=1)将
张量
解压到每个时间步骤* (bs,10)的
张量
列表时,我会收到这个
错误
: ValueError:
无法
从
形状
(?,?,100)推断num。我的
错误</
浏览 0
提问于2018-10-05
得票数 0
回答已采纳
3
回答
如何将
张量
视为图像?
、
、
对于测试,我看到了最终结果的
形状
。我
使用
matplotlib或PIL来做这件事,但是我不能把
张量
改成numpy。
由于
会话的原因,即使我
使用
eval (),我也
无法
执行任何操作。我可以把
张量
看作一个图像吗?mytensor1) # mytensor arr_ = np.s
浏览 0
提问于2018-06-17
得票数 5
回答已采纳
1
回答
RHEL 7
张量
流量装置
、
、
我是新的
张量
流
,并试图安装在我的RHEL 7机器
使用
以下命令。
由于
一些限制,我
无法
将机器直接连接到互联网,所以
使用
从
张量
流
站点下载的whl文件。pip install tensorflow-0.5.0-cp27-none-linux_x86_64.whl
无法
找到满足six>=1.10.0需求的版本(来自tensorflow==0.5.0) (来自版本:),
无法
为six
浏览 3
提问于2015-11-16
得票数 2
回答已采纳
5
回答
NumPy -什么是广播?
、
np.array([2,4])*** ValueError: operands could not be broadcast together with shapes (3,) (2,) 但是,
错误
信息暗示我走在正确的轨道上
浏览 4
提问于2015-09-28
得票数 5
回答已采纳
1
回答
在LibTorch中运行经过PyTorch训练和导出的模型时获得的不正确结果
、
、
、
、
我试图导出一个经过训练的模型和权重,以便在C++中
使用
LibTorch进行推理。然而,输出
张量
结果不匹配。 输出
张量
的
形状
是相同的。我们
无法
记录Python值的数据
流
,因此这个值在将来将被视为常量。这意味着跟踪可能不会推广到其他输入!/usr/local/lib/python3.6/dist-packages/torch/tensor.py:435: RuntimeWarning:迭代
张量
可能会导致跟
浏览 1
提问于2019-06-26
得票数 1
2
回答
如何为可变大小的映像配置tf.data.Dataset?
、
、
、
我
使用
的数据集具有可变
形状
(h,w,3)的RGB图像,我
无法
找到使其工作的方法。当我调用tf.data.Dataset.batch()时,我会得到以下
错误
:我认为通过
使用
函数tf.data.experimental.dense_to_ragged_batch (它将密集的
张量
表示转换为粗糙的
张量
表示),我找到了一些解决办法。与tf.data
浏览 3
提问于2020-03-30
得票数 2
1
回答
在theano中
使用
张量
标量变量对列表进行索引
、
、
、
我有一个清单:我还有一个
张量
变量:现在,我想
使用
theano.scan在给定索引的情况下获取列表中的相应项: non_sequences=theano.
浏览 1
提问于2016-12-11
得票数 0
1
回答
访问长度为0的三维
张量
中的元素
、
、
我在
张量
流
中有一个
张量
,它的大小是(2,16384,11)。我试图
使用
tf.slice函数从数组中提取一维
张量
。我可以将数组中的两个点命名为开始和停止。但问题是,这返回一个维度为(0,16383)和(1,16383)的
张量
。访问长度为0的数组是一个问题;我知道您只能
使用
访问器而不是访问器,否则就会出现
错误
。 &
浏览 0
提问于2021-07-03
得票数 0
1
回答
N维
张量
中的最大
张量
(不是元素)
、
、
我发现
不可
能获得n维数组中的最大
张量
,即使是通过对
张量
求和并
使用
gather或gather_nd也是如此。我需要得到每个(-1,0,30),(-1,1,30),(-1,2,30)和(-1,3,30)的最大权重集合,所以在第二维的每个
张量
下。但在上面运行tf.gather或tf.gather_nd不起作用,即使是在预先拆分数据并
使用</e
浏览 0
提问于2017-08-18
得票数 0
1
回答
添加具有未知大小
张量
的TensorFlow数据集
、
、
我想向TFDS中添加一个TensorFlow数据集,其中包含一组
形状
未知的秩2
张量
。为了定义这些特性,我
使用
了以下特性tfds.features.Tensor(shape=[None, None], dtype=tf.float32)。但是,当我尝试加载数据集时,它会失败,并显示以下
错误
: d = tfd
浏览 2
提问于2020-02-27
得票数 2
1
回答
有lambda层的tf切片只
使用
最后一个索引。
、
、
TLDR 我有一个(Batch_size,R)
形状
张量
,我将为每个R特性分别运行一个嵌入层。我编写了以下代码,将输入(Batch_size,R)
形状
的
张量
拆分为R(无,)片。np.array([[1,2],[3,4],[5,6]]) [数组(1,3,5,dtype=int32),数组(2,4,6,dtype=int32)]
由于
种种原因,这显然是
不可
取的。不幸的是,我在
浏览 3
提问于2021-09-01
得票数 1
回答已采纳
1
回答
如何
使用
可变补丁大小的tf.random_crop定义
形状
?
、
面片的大小会发生变化,并表示为
张量
:patches = [] patch =tf.stack(patches, axis=0)但是我在最后一行得到了一个
错误
的我
使用
最后一行的原因是,我的代码需要指定通道数,否则会得到ValueError: The channel dimension of the
浏览 3
提问于2017-07-12
得票数 2
回答已采纳
1
回答
在平坦参数
张量
上
使用
tf.gradients或tf.hessians
、
、
、
结果表明,
由于
params是一个2x2
张量
,输出是一个
形状
为2,2,2,2的
张量
。(loss, flat_params)将引发一个
错误
,因为梯度将被视为None。这个技巧确实有效,并使您的恒河与其预期的
形状
(2x2矩阵)。然而,在我看来,当您有一个复杂的模型时,
使用
它会很麻烦,如果您通过内置函数(如tf.layers.dense,.)创建模型,则
无法
应用。当tf.hessians是任意
形状
的
张量
列表时,没有直接的方法
浏览 3
提问于2018-08-21
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch的10个基本张量操作
有了这个工具,不执行代码就可以找PyTorch模型错误
Pytorch深度学习基础之Tensor
TensorFlow 小抄(一)
深度学习:必备数学知识之线性代数篇
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券