首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
首页
学习
活动
专区
圈层
工具
MCP广场
MCP广场 >详情页
huggingface-mcp-server2025-05-280分享
github
一种模型上下文协议服务器,为克劳德和其他大语言模型提供对 Hugging Face Hub API 的只读访问,通过自然语言启用与模型、数据集、空间、论文和集合的交互。
By shreyaskarnik
2025-05-280
github
详情内容

🤗 Hugging Face MCP 服务器 🤗

smithery 徽章

这是一个提供对 Hugging Face Hub API 只读访问的模型上下文协议(MCP)服务器。该服务器允许Claude等大语言模型与Hugging Face的模型、数据集、空间、论文和集合进行交互。

组件

资源

该服务器提供以下流行的Hugging Face资源访问:

  • 自定义hf:// URI方案用于访问资源
  • 模型使用hf://model/{model_id} URI
  • 数据集使用hf://dataset/{dataset_id} URI
  • 空间使用hf://space/{space_id} URI
  • 所有资源都有描述性名称和JSON内容类型

提示模板

该服务器提供两种提示模板:

  • compare-models:生成多个Hugging Face模型之间的比较

    • 必需参数model_ids(逗号分隔的模型ID)
    • 获取模型详情并格式化以供比较
  • summarize-paper:总结Hugging Face上的研究论文

    • 必需参数arxiv_id用于识别论文
    • 可选参数detail_level(简要/详细)控制摘要深度
    • 结合论文元数据与实现细节

工具

该服务器实现了几个工具类别:

  • 模型工具

    • search-models:使用查询、作者、标签和限制等过滤器搜索模型
    • get-model-info:获取特定模型的详细信息
  • 数据集工具

    • search-datasets:使用过滤器搜索数据集
    • get-dataset-info:获取特定数据集的详细信息
  • 空间工具

    • search-spaces:使用包括SDK类型在内的过滤器搜索空间
    • get-space-info:获取特定空间的详细信息
  • 论文工具

    • get-paper-info:获取论文及其实现的信息
    • get-daily-papers:获取精选的每日论文列表
  • 集合工具

    • search-collections:使用各种过滤器搜索集合
    • get-collection-info:获取特定集合的详细信息

配置

该服务器不需要配置,但支持可选的Hugging Face认证:

  • 设置HF_TOKEN环境变量为你的Hugging Face API令牌以:
    • 获得更高的API速率限制
    • 访问私有仓库(如果授权)
    • 提高高流量请求的可靠性

快速开始

安装

通过Smithery安装

要通过Smithery为Claude Desktop自动安装huggingface-mcp-server:

npx -y @smithery/cli install @shreyaskarnik/huggingface-mcp-server --client claude

Claude Desktop

在MacOS上:~/Library/Application\ Support/Claude/claude_desktop_config.json
在Windows上:%APPDATA%/Claude/claude_desktop_config.json

开发/未发布服务器配置
"mcpServers": {
  "huggingface": {
    "command": "uv",
    "args": [
      "--directory",
      "/absolute/path/to/huggingface-mcp-server",
      "run",
      "huggingface_mcp_server.py"
    ],
    "env": {
      "HF_TOKEN": "your_token_here"  // 可选
    }
  }
}

开发

构建和发布

准备包以供分发:

  1. 同步依赖项并更新锁定文件:
uv sync
  1. 构建包分发:
uv build

这将在dist/目录中创建源代码和wheel分发。

  1. 发布到PyPI:
uv publish

注意:你需要通过环境变量或命令标志设置PyPI凭据:

  • 令牌:--tokenUV_PUBLISH_TOKEN
  • 或用户名/密码:--username/UV_PUBLISH_USERNAME--password/UV_PUBLISH_PASSWORD

调试

由于MCP服务器通过stdio运行,调试可能具有挑战性。为了获得最佳调试体验,我们强烈建议使用MCP Inspector

你可以通过npm使用以下命令启动MCP Inspector:

npx @modelcontextprotocol/inspector uv --directory /path/to/huggingface-mcp-server run huggingface_mcp_server.py

启动后,Inspector将显示一个URL,你可以在浏览器中访问它以开始调试。

Claude的示例提示

使用此服务器与Claude时,可以尝试以下示例提示:

  • "在Hugging Face上搜索参数少于1亿的BERT模型"
  • "查找Hugging Face上最受欢迎的文本分类数据集"
  • "Hugging Face上今天的精选AI研究论文是什么?"
  • "使用Hugging Face MCP服务器总结arXiv ID为2307.09288的论文"
  • "比较Hugging Face上的Llama-3-8B和Mistral-7B模型"
  • "向我展示最受欢迎的用于图像生成的Gradio空间"
  • "查找TheBloke创建的包含Mixtral模型的集合"

故障排除

如果服务器出现问题:

  1. 检查Claude Desktop中的服务器日志:

    • MacOS:~/Library/Logs/Claude/mcp-server-huggingface.log
    • Windows:%APPDATA%\Claude\logs\mcp-server-huggingface.log
  2. 对于API速率限制错误,考虑添加Hugging Face API令牌

  3. 确保你的机器有互联网连接以访问Hugging Face API

  4. 如果特定工具失败,尝试通过Hugging Face网站访问相同的数据以验证其是否存在

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档