这是一个提供对 Hugging Face Hub API 只读访问的模型上下文协议(MCP)服务器。该服务器允许Claude等大语言模型与Hugging Face的模型、数据集、空间、论文和集合进行交互。
该服务器提供以下流行的Hugging Face资源访问:
hf://
URI方案用于访问资源hf://model/{model_id}
URIhf://dataset/{dataset_id}
URIhf://space/{space_id}
URI该服务器提供两种提示模板:
compare-models
:生成多个Hugging Face模型之间的比较
model_ids
(逗号分隔的模型ID)summarize-paper
:总结Hugging Face上的研究论文
arxiv_id
用于识别论文detail_level
(简要/详细)控制摘要深度该服务器实现了几个工具类别:
模型工具
search-models
:使用查询、作者、标签和限制等过滤器搜索模型get-model-info
:获取特定模型的详细信息数据集工具
search-datasets
:使用过滤器搜索数据集get-dataset-info
:获取特定数据集的详细信息空间工具
search-spaces
:使用包括SDK类型在内的过滤器搜索空间get-space-info
:获取特定空间的详细信息论文工具
get-paper-info
:获取论文及其实现的信息get-daily-papers
:获取精选的每日论文列表集合工具
search-collections
:使用各种过滤器搜索集合get-collection-info
:获取特定集合的详细信息该服务器不需要配置,但支持可选的Hugging Face认证:
HF_TOKEN
环境变量为你的Hugging Face API令牌以:
要通过Smithery为Claude Desktop自动安装huggingface-mcp-server:
npx -y @smithery/cli install @shreyaskarnik/huggingface-mcp-server --client claude
在MacOS上:~/Library/Application\ Support/Claude/claude_desktop_config.json
在Windows上:%APPDATA%/Claude/claude_desktop_config.json
"mcpServers": {
"huggingface": {
"command": "uv",
"args": [
"--directory",
"/absolute/path/to/huggingface-mcp-server",
"run",
"huggingface_mcp_server.py"
],
"env": {
"HF_TOKEN": "your_token_here" // 可选
}
}
}

准备包以供分发:
uv sync

uv build
这将在dist/
目录中创建源代码和wheel分发。
uv publish
注意:你需要通过环境变量或命令标志设置PyPI凭据:
--token
或UV_PUBLISH_TOKEN
--username
/UV_PUBLISH_USERNAME
和--password
/UV_PUBLISH_PASSWORD
由于MCP服务器通过stdio运行,调试可能具有挑战性。为了获得最佳调试体验,我们强烈建议使用MCP Inspector。
你可以通过npm
使用以下命令启动MCP Inspector:
npx @modelcontextprotocol/inspector uv --directory /path/to/huggingface-mcp-server run huggingface_mcp_server.py
启动后,Inspector将显示一个URL,你可以在浏览器中访问它以开始调试。
使用此服务器与Claude时,可以尝试以下示例提示:
如果服务器出现问题:
检查Claude Desktop中的服务器日志:
~/Library/Logs/Claude/mcp-server-huggingface.log
%APPDATA%\Claude\logs\mcp-server-huggingface.log
对于API速率限制错误,考虑添加Hugging Face API令牌
确保你的机器有互联网连接以访问Hugging Face API
如果特定工具失败,尝试通过Hugging Face网站访问相同的数据以验证其是否存在