腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3355)
视频
沙龙
1
回答
tensorflow
联邦
是否
支持
动态
批处理
大小
?
tensorflow
、
tensorflow2.0
、
tensorflow-federated
、
federated-learning
tensorflow
联邦
是否
支持
为不同的模拟设备分配不同的
批处理
大小
,并针对不同的时期更改
批处理
大小
?
浏览 20
提问于2020-04-16
得票数 1
1
回答
每个模拟设备的学习参数
tensorflow
、
tensorflow2.0
、
tensorflow-federated
tensorflow
联邦
是否
支持
为不同的模拟设备分配不同的超参数(如
批处理
大小
或学习率)?
浏览 1
提问于2020-02-19
得票数 0
1
回答
tensorflow
联邦
:使用自定义数据集和模型时的TypeError
tensorflow
、
tensorflow-federated
_flat_output_shapes) 653 try: -> 2673 try: [[{{node PyFunc}}]] [Op:It
浏览 1
提问于2020-02-12
得票数 1
回答已采纳
1
回答
设置训练keras模型的批量
大小
为1
tensorflow
、
keras
、
deep-learning
但是,在加载权重之后,摘要显示None作为第一个维度(
批处理
大小
)。 我想知道的过程,以固定的形状批量
大小
为1,因为这是强制性的,我必须修复它,所以我可以转换模型到tflite的GPU
支持
。
浏览 1
提问于2021-04-26
得票数 0
1
回答
在服务器和客户端之间的通信上执行的操作
tensorflow
、
tensorflow-federated
、
federated-learning
联邦
学习研究的一部分是基于服务器与客户端之间的通信所执行的操作,例如删除客户端与服务器之间交换的部分更新(删除描述模型的渐变),或者在特定通信周期中丢弃来自特定客户端的更新。我想知道
Tensorflow
联邦
( TFF )框架
是否
支持
这些功能,以及它们是如何被
支持
的,因为在我看来,TFF API的抽象级别似乎不允许这样的操作。谢谢。
浏览 2
提问于2019-05-08
得票数 2
回答已采纳
2
回答
深度学习图书馆中NLP的
动态
批处理
和填充批
nlp
、
pytorch
、
huggingface
、
dynamic-batching
、
pad-truncate
还是PyTorch /
Tensorflow
或其他低级张量库重新优化
批处理
,使pads不占用内存?如果是的话,在这个?除了进行填充之外,
是否
存在不进行排序的
动态
批处理
的现有代码,
是否
有一种方法可以保持
浏览 0
提问于2023-04-07
得票数 2
1
回答
联邦
平均与
TensorFlow
tensorflow
、
tensorflow-federated
、
federated-learning
我是一个
联邦
学习的新手,我只是想了解一下
TensorFlow
联邦
TFF框架。如果有人能澄清这些问题,我会非常感激的:
是否
联邦
平均算法是TFF中唯一
支持
的聚合算法?它与
联邦
随机梯度下降有什么不同?
浏览 5
提问于2021-10-08
得票数 2
回答已采纳
2
回答
为什么在Keras层的方法调用中
批处理
大小
为None?
tensorflow
、
keras
第一个元素不应该是
批处理
大小
吗? print(x.shape) # (None, ...)当我调用model.fit时,我传递的是批
大小
model.fit(x_train, y_train, ..., batch_size=batch_size) 那么,call在call方法中获得
批处理
大小
的推荐方法是什么?
浏览 0
提问于2019-04-28
得票数 9
回答已采纳
1
回答
tensorflow
convnet
是否
只在多个GPU之间重复模型?
convolution
、
multi-gpu
、
tensorflow
我目前正在运行一个用于图像识别的
Tensorflow
convnet,并且我正在考虑购买新的GPU来
支持
更复杂的图形、
批处理
大小
和输入尺寸。我已经阅读了
Tensorflow
的指南,而且图形似乎是在GPU上复制的。我想知道这是在
Tensorflow
convnet中使用并行GPU的唯一方法吗?我之所以问这个问题,是因为如果
Tensorflow
只能在多个GPU之间复制图形,这意味着每个GPU必须至少具有我的模型对一个
批处理
所需的内存
大小
。
浏览 4
提问于2017-06-22
得票数 0
回答已采纳
2
回答
使用PHP使用
联邦
快递SOAP请求多个跟踪号码
php
、
soap
、
fedex
我希望将
联邦
快递的所有跟踪信息缓存在我自己的数据库中,我的公司每天都有大约150+的跟踪号码。根据这个链接,
联邦
快递服务不
支持
批处理
?这
是否
意味着我需要为每个追踪号码打一次电话?
浏览 1
提问于2013-10-29
得票数 2
回答已采纳
1
回答
当变量有AdamOptimizer时,
Tensorflow
validate_shape=False抛出错误
python
、
machine-learning
、
tensorflow
当任何可训练变量将"validate_shape“参数设置为False时,
Tensorflow
的validate_shape将为我抛出一个错误。我将这个参数设置为false,以便在运行时允许
动态
批处理
大小
。我不能用GradientDescentOptimizer再现这个错误,但是
Tensorflow
中的所有其他优化器都会抛出相同的错误。= tf.reduce_sum((Y- prediction) ** 2)为什么GradientDesc
浏览 8
提问于2016-11-19
得票数 2
回答已采纳
2
回答
当尝试在Ubuntu 18.04上的Python (Anaconda)中拟合keras模型时,如何纠正“分段错误(核心转储)”错误
python
、
keras
、
segmentation-fault
、
anaconda
、
ubuntu-18.04
我有一台新的电脑(在Ubuntu 18.04上),它有一个2080Ti的GPU。我正在尝试使用Keras (在Anaconda环境中)在Python中训练神经网络,但在尝试拟合模型时遇到了“分段故障(核心转储)”错误。 我使用的代码在我的Windows PC (有一个1080Ti的GPU)上工作得很好。这个错误似乎与GPU内存有关,当我在拟合模型之前运行'nvidia-smi‘时,我可以看到一些奇怪的事情发生,我看到大约800mb的可用11 up内存被用完了,但一旦我编译了模型,这些可用内存就都被占用了。在进程部分,我可以看到这与anaconda环境有关(即...ics-link/an
浏览 2
提问于2019-01-24
得票数 3
1
回答
`
tensorflow
_federated.learning.from_keras_model()`不再包含'dummy_batch‘关键字吗?
tensorflow
、
tensorflow-federated
我在上运行了
tensorflow
联邦
教程代码。tf.keras.metrics.SparseCategoricalAccuracy()]) 提供的notebook将
tensorflow
_federated那么在0.14.0版本中,我们不再需要提供虚拟
批处理
了吗?通常的tff工作管路
是否
改变了? 附注:将
tensorflo
浏览 15
提问于2020-05-19
得票数 0
回答已采纳
1
回答
如果我使用batchsize作为1,那么Fid评分脚本
是否
正确?
tensorflow
FID分数在
tensorflow
> 1.5中
是否
正常工作,例如,如果我以
批处理
大小
1运行它?我使用的是来自的FID实现,其中有一个问题,它只在
批处理
大小
为1的情况下运行。我的时间不多了,所以我不能写一个实现FID的脚本,因此,如果我的
批处理
大小
为1,
是否
有人能确认它
是否
给出了正确的值。
浏览 0
提问于2018-10-19
得票数 0
1
回答
使用
Tensorflow
w/ C++时提高性能的策略?
optimization
、
machine-learning
、
tensorflow
总的来说,我对
Tensorflow
和ML非常陌生,我想知道我可以使用什么策略来提高我正在构建的应用程序的性能。我的应用程序使用的是
Tensorflow
C++界面,源代码编译了TF 0.11 libtensorflow_cc.so (用bazel build -c --copt=-mavx构建,并可选择添加--我目前没有
批处理
,但我缓存我的会话,并重复使用它的每一个单独的解码帧/张量提交。我注意到CPU和GPU的性能都差不多,处理222帧需要大约40到50秒,这对我来说很慢。
批处理
对这些操作有多大影响?对于1x2
浏览 1
提问于2016-11-19
得票数 1
回答已采纳
1
回答
v1对象检测api mask_rcnn_inception_v2_coco模型批量推理
python
、
tensorflow
、
machine-learning
、
computer-vision
、
object-detection-api
我尝试使用
tensorflow
对象检测api中可用的mask_rcnn_inception_v2_coco模型进行分割任务。在这里,我想对一个视频进行推断。首先,我进行了推断,一次一个帧(
批处理
大小
=1)。然后性能(每秒钟帧)非常低。为了获得更好的"fps“值,我尝试更改代码以
支持
批处理
推理。我与其他模型(如ssd_inception_v2_coco )使用了相同的
批处理
推理代码(它们是对象检测模型),这些模型运行时没有任何问题。这
是否
意味着mask_rcnn
浏览 2
提问于2020-11-23
得票数 0
1
回答
要让多个
批处理
在
TensorFlow
Lite中正常工作,需要满足哪些条件?
tensorflow-lite
您知道,在某些情况下,通过在推理之前调用ResizeInputTensor,
TensorFlow
Lite可以很好地处理多批推理。但是我的模型不能很好地工作。要让多个
批处理
在
TensorFlow
Lite中正常工作,需要满足哪些条件? 我怀疑您需要将batch维度设置为-1才能进行整形。 我想知道确切的情况。 谢谢。
浏览 21
提问于2021-06-27
得票数 1
2
回答
为什么带有
TensorFlow
的Keras没有使用所有GPU内存
windows
、
keras
、
nvidia
、
tensorflow
我在Windows10中使用Keras2.0.8和
TensorFlow
1.3.0,你知道为什么没有使用所有内存吗?或者至少接近它。
浏览 3
提问于2017-09-03
得票数 2
1
回答
是否
可以在层之间映射数据集的
批处理
大小
?
tensorflow
、
keras
请考虑以下内容: import
tensorflow
as tf model = tf.keras.models.Sequential,第一层(密集层)上的
批处理
大小
的设置只是因为LSTM具有stateful=True,并且它需要
批处理
大小
。向其提供批量
大小
的方法是通过第一层。这就是密集层指定
批处理
大小
的原因。我想知道有没有办法做到这一点
浏览 11
提问于2019-09-05
得票数 0
回答已采纳
1
回答
不同序列长度批次的多头自关注输出尺寸
transformer
、
attention-mechanism
在处理小批中不同长度的序列时,我们使用pad序列,使
批处理
中的所有序列都具有相同的长度。 假设数据集中的大多数序列都是<500个元素长,但是有一些非常长的序列可以是1000s的元素长。如果我想在不截断的情况下处理那些非常长的序列,那么即使输入批次不包含任何长序列,多头自我关注层的
大小
也必须根据最长的序列量身定做吗?
浏览 0
提问于2022-09-08
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
动态神经网络工具包Dynet
有了Julia语言,深度学习框架从此不需要计算图
想成为大数据开发工程师,你必须掌握的开发流程图是这样的
谷歌最新开源酷炫项目集,前端、算法、机器学习都有了
TensorFlow 这下更牛了,现已支持图神经网络
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券