腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
将Caffe咖啡
模型
权重文件转换为
TensorFlow
权重文件
、
我的团队已经花了几个月的时间训练Caffe
模型
,但现在我们正在考虑转换到
Tensorflow
,我们不想花几个月的时间进行再培训。
如何将
caffemodel权重文件转换为
TensorFlow
权重文件? 我试过,但它不适
用于
有
多个
顶层的咖啡馆
模型
。
浏览 1
提问于2017-09-07
得票数 1
1
回答
如何将
tensorflow
服务
用于
多个
模型
、
、
如何使用
多个
tensorflow
型号?我使用的是码头容器。model_config_list: { name: "model1", model_platform: "
tensorflow
" config: { base_path: "/tmp/mod
浏览 3
提问于2017-08-18
得票数 24
回答已采纳
2
回答
Tensorflow
服务
:什么时候使用它,而不是简单地推断瓶内
服务
?
、
、
、
我正在为使用对象检测API训练的
模型
服务
。我就是这样做的: 在Flask
服务
器中调用
浏览 2
提问于2018-01-30
得票数 16
1
回答
有可能在冈尼克霍恩的工人之间分享一个坦索弗洛
模型
吗?
、
、
、
、
我需要生产一个带有简单API端点的
Tensorflow
模型
。
模型
应在进程/工作人员/线程之间共享,以避免在内存方面浪费太多资源。我已经尝试过
多个
枪手工作人员设置-预加载选项,并在定义资源之前加载
模型
,但是过了一段时间,我得到了超时错误。
模型
没有反应。我知道有
Tensorflow
服务
服务
可
用于
此目的,但问题在于
模型
在部署时仍然不可用,而且ML管道由许多不同的组件组成(
Te
浏览 0
提问于2019-07-03
得票数 2
1
回答
如何使用Python和
TensorFlow
服务
模型
调用特定的
模型
版本?
、
、
我有一些通过Kubernetes上的
TensorFlow
服务
运行的机器学习
模型
。我希望能够有一个特定
模型
的部署,然后加载
多个
版本。这似乎比为我们拥有的每个
模型
的每个版本维护单独的Kubernetes部署要容易得多。 但是,
如何将
我想要使用Python gRPC接口调用的版本或
模型
风格传递给TF
服务
并不明显。如何指定版本并传入?
浏览 19
提问于2021-03-11
得票数 1
回答已采纳
2
回答
tensorflow
:
如何将
我的python代码作为
服务
放在google云上
、
、
我是
TensorFlow
的乞丐,我对如何在google中部署我的代码有一些疑问。import
tensorflow
as tf, sys image_path = sys.argv[1] # Read in但是我不知道如何在google云中作为一个
服务
来执行这个脚本。我已经见过一些朋
浏览 0
提问于2017-02-21
得票数 1
回答已采纳
1
回答
Tensorflow
服务
:如何使用
tensorflow
服务
重新培训目前在生产中
服务
的
模型
?
、
如何使用
tensorflow
服务
重新培训当前在生产中使用的新数据的
模型
?我们是否要手动训练
模型
,然后再提供
服务
呢?或者有什么自动化的方法。 我在用
tensorflow
和码头一起
服务
。基本上,我们的想法是:考虑到已经有一个使用
tensorflow
服务
的
模型
,在未来我会得到一些额外的数据,我希望
模型
能够与这些数据相匹配,那么,我们如何对同一个
模型
进行这种培训呢?
浏览 6
提问于2021-03-12
得票数 1
回答已采纳
2
回答
Tensorflow
在码头上使用tflite文件
我试图部署带有
Tensorflow
服务
的ML
模型
。即使我在码头上添加了共享文件路径。这个错误一直存在,不知何故出现了。我正在使用tflite文件来部署它,它似乎根本不起作用。
浏览 2
提问于2021-11-25
得票数 0
回答已采纳
1
回答
我可以直接在瓶子里运行我的
tensorflow
模型
吗?
、
、
我创建了一个
tensorflow
模型
,保存并测试了它。我真的不知道如何使用
tensorflow
服务
,我不知道我的
模型
的输入和输出节点
如何将
其转换为protobuf,然后使用
tensorflow
服务
。所以,我想知道,我是否可以直接使用预测功能,并将
模型
加载到那里进行预测?我真的很困惑为什么我们必须只使用
tensorflow
来部署
tensorflow
模型
?有更简单的直通车吗?
浏览 0
提问于2020-05-21
得票数 2
回答已采纳
1
回答
在go中使用
tensorflow
集线器
、
、
我想在go应用程序中使用预先训练好的
模型
。尤其是Inception-ResNet-v2
模型
。这个
模型
似乎只能通过
tensorflow
集线器()获得。但是,我找不到任何文档
如何将
tensorflow
hub与
tensorflow
的go语言绑定一起使用。 如何在go中下载和使用这些
模型
?
浏览 3
提问于2019-06-18
得票数 0
2
回答
Tensorflow
Keras
模型
和Estimator有什么不同?
、
、
Tensorflow
Keras
模型
和
Tensorflow
估计器都能够训练神经网络
模型
,并使用它们来预测新数据。它们都是建立在低级核心
TensorFlow
应用程序接口之上的高级API。
浏览 6
提问于2018-07-21
得票数 59
回答已采纳
1
回答
配置
Tensorflow
以使用所有CPU的
阅读:,它声明:
TensorFlow
支持
多个
GPU和CPU。有关
如何将
GPU与
TensorFlow
结合使用的文档,请参阅
TensorFlow
如何为设备分配操作的详细信息,以及使用
多个
GPU的示例
模型
的CIFAR-10教程。请注意,
TensorFlow
只使用计算能力大于3.5的GPU设备。 这是否意味着
Tensorflow
可以自动使用
浏览 1
提问于2016-09-08
得票数 21
回答已采纳
1
回答
如何将
.h5文件转换为.pb文件?
、
、
、
如何将
.h5权重文件转换为.pb文件?我训练了keras预先训练的
模型
,并将文件保存为something.h5。
如何将
其转换为.pb文件以
用于
tensorflow
服务
?
浏览 3
提问于2020-02-11
得票数 0
2
回答
google AI
模型
服务
与kfsering
、
、
我们要做的是
模型
服务
基础设施。我正在比较和。但是我找不到足够的文档来描述google ai
服务
的特性以及它是如何实现的。似乎gcloud ai-platform versions create可以创建
模型
版本资源并开始
服务
,这是我唯一能找到的点。谷歌人工智能
服务
和kfserving之间的关系是什么?3、关于google ai
服务
的功能,google ai
服务
是否提供了中列出的所有功能,如金丝雀部署、解释器、监控等。 谢谢
浏览 20
提问于2020-04-16
得票数 1
1
回答
在AWS Lambda上运行
Tensorflow
2预测
、
、
、
我想在AWS上运行一个
Tensorflow
2 LinearClassifier。我有一个训练有素的LinearClassifier
tensorflow
模型
。最后我尝试使用
Tensorflow
Lite,但目前我在将
模型
转换为TFLite.时遇到了问题。 你知道吗,我怎样才能得到运行在AWS上的LinearClassifier的TF 2估计?通常,我认为并非所有1.5GB的
Tensorflow
模块都
用于
现有
模型
的简单预测。那么,是否有可能只获取<em
浏览 5
提问于2020-05-29
得票数 3
1
回答
在加载旧版本的
模型
时,未找到
用于
请求的Servable
、
我有一个
模型
,比方说mymodel和两个不同的数据集:setA,setB。经过培训(在我的本地机器中) setA和setB,
tensorflow
服务
分别创建了两个不同的目录:100、200 for setA和setB。在码头中托管
模型
100 200 root@ccb58054cae5:/# bazel-bin/
tensorflow
_serving&>
浏览 2
提问于2017-12-14
得票数 1
1
回答
TensorFlow
服务
与
TensorFlow
服务
、
、
、
、
我有一个关于
TensorFlow
Serving和
TensorFlow
service之间的区别的问题。(很抱歉,我对此一点都不熟悉。)我发现了
TensorFlow
服务
的定义,即"
TensorFlow
服务
是为生产环境设计的灵活的、高性能的机器学习
模型
服务
系统“(),而我想知道
TensorFlow
服务
是什么?例如在这句话中: "
TensorFlow
模型
可以部署到生
浏览 1
提问于2017-12-05
得票数 3
2
回答
在多处理中使用model.predict (Keras + TF)
、
、
、
我正在使用
Tensorflow
Keras
模型
来评估连续的传感器数据。我的
模型
输入由15个传感器数据帧组成。为此,我创建了一个具有多处理库和
用于
model.predict的函数的池。
浏览 0
提问于2018-10-18
得票数 1
1
回答
在web应用程序中保存
多个
Keras
模型
、
、
我正在使用Flask构建一个web应用程序来为Keras
模型
提供
服务
。这是我的"/train“的路由函数: return get_session().run(ops) File
浏览 1
提问于2018-08-19
得票数 1
1
回答
指定Torch和
Tensorflow
两种不同的GPU
、
、
、
我在比较两个预先训练过的
模型
,一个在
Tensorflow
,一个在Py手电,在一个有
多个
GPU的机器上。每个型号适合一个GPU。它们都加载在相同的Python脚本中。我
如何将
一个GPU分配给
Tensorflow
模型
,另一个GPU分配给Py火炬
模型
?设置CUDA_VISIBLE_DEVICES=0,1只告诉这两个
模型
这些GPU是可用的--我(在Python猜中),如何确保
Tensorflow
采用GPU 0,Pytorch采用GPU 1?
浏览 0
提问于2018-09-11
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
谷歌开源用于训练量子模型的机器学习框架TensorFlow Quantum
教程帖,使用TensorFlow服务和Flask部署Keras模型!
UniLM如何将多个自然语言处理任务集成到一个模型进行训练和推理
Anthropic 修改服务政策:允许将 AI 模型用于“未成年人产品”
TensorFlow模型如何与线上工程交互
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券