腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
多维
上
的
Tensorflow
embedding_lookup
、
、
我想选择这个张量
的
一部分。A = tf.constant([[[1,1],[2,2],[3,3]], [[4,4],[5,5],[6,6]]]) A
的
输出将是 [[[1 1] [3 3]] [6 6]]] 我想从A中选择
的
索引是1,0。我
的
意思是这个张量
的
第一部分是2 2,第二部分是4 4,所以我
的
预期结果是 [2 2] [4 4] 如何使用
embedding_lookup
函数完成此操作?B = tf.nn.embed
浏览 9
提问于2020-01-15
得票数 0
2
回答
如何在使用skflow时看到张量内
的
值
、
: Attempting to use uninitialized value words/words_embeddingsCaused by op u'words/
embedding_lookup
/
embedding_lookup
', defined at: File "/Users
浏览 4
提问于2016-02-10
得票数 1
回答已采纳
1
回答
Tensorflow
embedding_lookup
函数
的
Numpy等价
、
、
什么是与
Tensorflow
的
embedding_lookup
函数等价
的
embedding_lookup
代码?...我不太清楚
embedding_lookup
浏览 2
提问于2017-11-20
得票数 2
回答已采纳
1
回答
无法在tf.distribute.MirroredStrategy中使用嵌入层
、
、
、
我试图在
tensorflow
版本2.4.1
上
使用嵌入层并行化一个模型。但是它给我带来了以下错误: sequential/emb_layer/
embedding_lookup
/axis (Const)
浏览 3
提问于2021-03-18
得票数 1
回答已采纳
1
回答
使用以前保存
的
模型进行预测:(0)无效参数:索引[0,9]= 14914不在[0,14480]中
、
、
、
我正在尝试使用保存
的
文本数据来预测不可见
的
文本数据。但是我得到了这个关于嵌入查找
的
错误。我不知道该怎么解决它。类似的错误与with
的
大小有关。但是,由于我不是在训练模型,所以我
的
情况就不同了。', compile = True) print(pred_prob) 这是完整
的
回溯Input Source operations connected to node
浏览 23
提问于2021-02-02
得票数 0
1
回答
使用
tensorflow
的
问题-gpu 1.7.0
、
、
我想测试一个模型,我需要
tensorflow
- here版本1.7.0,我安装了所需
的
版本使用pip命令pip install
tensorflow
-gpu==1.7.0一切运行,但当我运行训练时,我得到以下错误: indices[2,15] = 1651 is not in [0, 2) [[Node: BC5CDR-diseaseWE/
embedding_lookup
= Gather[Tindices/python/ops/embedding_ops.py"
浏览 23
提问于2021-04-01
得票数 0
回答已采纳
2
回答
为什么
tensorflow
中
的
embedding_lookup_sparse和string_to_hash_bucket在嵌入
的
行数很大时会变慢
在
tensorflow
embedding_lookup_sparse中,根据sp_ids查找嵌入行。我认为这类似于随机访问。然而,当嵌入
的
形状很大时,即10M行,推理花费
的
时间比嵌入只有大约1M行时更多。我认为,查找阶段和类似于随机访问和散列函数花费
的
恒定时间,这都是快速
的
,并且对大小不那么敏感。我
的
想法有什么问题吗?有没有什么优化
的
方法可以让推理更快?谢谢!
浏览 2
提问于2017-03-22
得票数 1
1
回答
如何利用GPU训练包含嵌入层
的
深度学习神经网络?
、
、
、
/
embedding_lookup
(GatherV2) Adagrad/Adagrad/update_1/update/ReadVari
浏览 19
提问于2021-02-23
得票数 0
回答已采纳
1
回答
为什么在ptb_word_ln.py中
embedding_lookup
只用作编码器而不用作解码器
、
、
、
、
在查看
tensorflow
的
官方示例代码ptb_word_ln.py时,我有一个关于
embedding_lookup
的
问题。源码如下:size = config.hidden_size # With
浏览 34
提问于2017-12-31
得票数 2
回答已采纳
1
回答
Tensorflow
embedding_lookup
梯度在CPU
上
注册?
、
我有一些相当于稀疏softmax
的
东西:with tf.device('/gpu:0'):gradients/.../embedding_lookup_1_grad/Size: /job:localhost/replica:0/task:0/cpu:0
浏览 3
提问于2017-02-11
得票数 4
回答已采纳
1
回答
用于动作识别的转换器:无效参数:索引[0,1923]= -1不在[0,12936]中
、
我正在尝试改编一个来自https://colab.research.google.com/github/
tensorflow
/docs/blob/master/site/en/tutorials/text我
的
数据集由1000个动作和一个可变长度
的
帧(N)组成,其中每个帧包含84个float32点(x,y)。我将N和点结合起来,为每个动作形成一个相当大
的
1d张量。操作有一个可变
的
最大长度约为12K。
浏览 11
提问于2020-12-08
得票数 0
1
回答
如何利用LSTM层
的
tensorflow
集线器嵌入模型?
、
、
我正在学习
tensorflow
2,通过TF集线器教程完成文本分类。它使用了TF集线器
的
嵌入模块。我想知道是否可以修改模型以包括LSTM层。当运行它时,它会抛出以下异常: [[node sequential/embedding/
embedding_lookup
(defined at ...
浏览 5
提问于2020-06-23
得票数 4
回答已采纳
1
回答
在
TensorFlow
中运行word2vec.py后,word嵌入
的
结果在哪里?
、
我已经运行了'/
tensorflow
/models/embedding/‘文件夹下
的
'word2vec.py’文件。但是我在输出文件夹中找不到word嵌入
的
结果,只有模型文件和一些未知
的
文件,比如:
浏览 2
提问于2016-03-21
得票数 2
1
回答
对任何类型
的
数据集使用
tensorflow
、
、
、
我遇到了一个问题,我一直在研究逻辑回归,这涉及到根据客户
的
收入和社会人口变量对客户进行分类,所有这些都被明确地分为那些拖欠贷款的人和那些没有拖欠贷款的人。我最近已经推荐了
tensorflow
作为一个用于神经网络
的
软件包,但是在他们
的
网站https://
tensorflow
.rstudio.com/tutorial_马恩斯特_beginners.html
上
,他们讨论了
tensorflow
在图像分类方面的问题。因此,我
的
具体问
浏览 0
提问于2017-08-25
得票数 2
回答已采纳
2
回答
为什么这两种进行嵌入查找
的
方法会给出不同
的
答案?
、
、
这就是我如何使用
tensorflow
操作实现查找机制:import numpy as np model_1.train(input_fn=lambda: None, steps=1)问题是当我尝试使用K
浏览 0
提问于2017-11-09
得票数 2
1
回答
为什么
tensorflow
在多次训练估计值时说张量不是这个图
的
一个元素?
、
、
、
考虑以下代码:from] lookup = tf.nn.embedding_lookup(m, x, name='
embedding_lookup
eval_metric_ops) model_1 = tf.estimator.Estimator(
浏览 0
提问于2017-10-24
得票数 3
回答已采纳
0
回答
TensorFlow
:查找后重塑嵌入向量?
、
、
我是第一次使用
TensorFlow
,在理解
embedding_lookup
函数时遇到了问题。我有一系列
的
索引来表示单个特征向量,比如说[0,3,2,5]。我想用它们对应
的
嵌入替换这些索引,所以我将嵌入和索引向量放在
embedding_lookup
中。然后它返回一个4Xn张量,其中n是每次嵌入
的
长度。我
的
想法是,也许我误解了一些事情,我希望这是一个长度为4*n
的
单行向量,我应该能够通过重塑来实现。如果不是向
embedding_lookup</em
浏览 2
提问于2017-11-27
得票数 0
1
回答
训练序列模型时指标不匹配
、
我遵循了我在这个网站上发现
的
所有代码: model.fit(train_X, y_train, epochs=10, batch_size=32) [[node embedding_1/
embedding_lookup
(defined at /opt/conda/lib/python3.7/site-packages/
浏览 0
提问于2019-11-02
得票数 0
回答已采纳
2
回答
如何在C++中填充张量
、
我创建了一个这样
的
张量:我知道如何填充标量值:但我不知道如何填充像1,4,2这样
的
张量。
浏览 3
提问于2016-08-25
得票数 11
回答已采纳
1
回答
如果使用正常
的
一个热向量而不是嵌入,如何使用
Tensorflow
seq2seq.GreedyEmbeddingHelper第一参数嵌入?
、
我正在尝试使用
tensorflow
seq2seq模型实现一次解码一个字符(表示为c维热向量)。我没有在我
的
案例中使用任何嵌入。它需要“嵌入:一个接受It
的
向量张量(argmax It)
的
可调用函数,或者
embedding_lookup
的
参数参数。返回
的
张量将被传递给解码器输入。” 我将如何定义callable?这个可调用函数
的
输入(向量张量if _ ids(argmax _ ids))和输出是什么?请举例说明。
浏览 0
提问于2018-09-10
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Tensorflow demo在Android上的移植
在 Kubernetes 上扩展 TensorFlow 模型
MAC上基于VirtualEnv安装TensorFlow
如何在CDSW上运行TensorFlow
如何在Kubernetes上玩转TensorFlow
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券