首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何使用Gradio成功地将变压器模型部署到Hugginface?

如何使用Gradio成功地将变压器模型部署到Hugginface?
EN

Stack Overflow用户
提问于 2022-07-14 21:11:28
回答 1查看 63关注 0票数 1

我想部署一个图像分类变压器模型与Gradio到我的Hugginface空间。我已经创建了一个新的存储库,并在浏览器中创建了app.py文件,正如Gradio上的教程所示。下面是我的部署代码:

代码语言:javascript
运行
复制
from transformers import pipeline
import gradio as gr
import timm

def image_classifier(image):
    model = pipeline("image-classification")
    return model(image)

gr.Interface.from_pipeline(model).launch()

但是当我上传文件时,我会得到一个运行时错误,它说:

代码语言:javascript
运行
复制
Traceback (most recent call last):
  File "app.py", line 1, in <module>
    from transformers import pipeline
ModuleNotFoundError: No module named 'transformers'

我试图在脚本中包含一个pip install transformers命令,但是仍然会出现一个运行时错误。请问,如何在我的Huggingface空间上成功地部署带有Gradio接口的变压器模型?一如既往,我感谢你的帮助。

EN

回答 1

Stack Overflow用户

发布于 2022-07-18 15:19:47

是否声明了requirements.txt文件中的所有依赖项。作为参考,请看一下我创建的这个空间:https://huggingface.co/spaces/abhibisht89/ADR_XTRACTER/tree/main

希望这会有帮助。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/72986713

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档