首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >服务于TorchScript模型的Triton推理服务器

服务于TorchScript模型的Triton推理服务器
EN

Stack Overflow用户
提问于 2020-11-26 02:35:41
回答 1查看 741关注 0票数 0

我正在尝试使用triton (tensorRT)推理服务器为TorchScript模型提供服务。但每次启动服务器时,它都会抛出以下错误:

代码语言:javascript
运行
复制
PytorchStreamReader failed reading zip archive: failed finding central directory

我的文件夹结构是:

代码语言:javascript
运行
复制
<model_repository> 
  <model_name>
   config.pbtxt
   <1>
    <model.pt>

我的config.pbtxt文件是:

代码语言:javascript
运行
复制
name: "model"
platform: "pytorch_libtorch"
max_batch_size: 1

input[
{
name: "INPUT__0"
data_type:  TYPE_FP32
dims: [-1,3,-1,-1]
}
]

output:[
{
name: "OUTPUT__0"
data_type:  TYPE_FP32
dims: [-1,1,-1,-1]
}
]
EN

回答 1

Stack Overflow用户

发布于 2020-11-27 20:21:22

我找到了解决方案。这是我犯的一个愚蠢的错误。.pt torchscript文件未正确加载。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/65010792

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档