
OpenClaw 是一个开源的、可自行托管的 AI 助手平台,它可以连接到 LLM 提供商(如 OpenAI、Claude、Gemini),也可以通过 Ollama 在本地运行。安装过程通常只需约 5 分钟,适用于 macOS、Linux 和 Windows(通过 WSL2)。
本指南将带你了解从系统要求到安装和配置的全过程。
在安装 OpenClaw 之前,请确保你的环境满足以下要求:
安装过程中还需要稳定的互联网连接。
最简单的安装方法是使用一键安装脚本。运行以下安装命令:
Mac/Linux 终端:
curl -fsSL https://openclaw.ai/install.sh | bashWindows 的 PowerShell 或 WSL2 终端:
iwr -useb https://openclaw.ai/install.ps1 | iex该安装程序会自动完成以下操作:
安装通常在 5 分钟内完成。
npm install -g openclaw@latest这将在你的系统上全局安装 OpenClaw。然后运行以下命令启动配置向导:
openclaw onboard这种方法让你完全控制安装过程。
克隆仓库:
git clone https://github.com/openclaw/openclaw.git
cd openclaw安装依赖项:
npm install构建项目:
npm run build然后正常启动 OpenClaw。
适用于容器化环境:
git clone https://github.com/openclaw/openclaw
cd openclaw
docker-compose up -dDocker 安装适用于:
安装完成后,验证 OpenClaw 是否正常工作。运行:
openclaw --version如果安装成功,终端将显示已安装的版本号。如果出现“command not found”,请重启终端或检查 Node.js 是否在系统 PATH 中。
安装 OpenClaw 后,运行引导向导:
openclaw onboard设置向导将引导你完成以下步骤:
这个交互式配置会自动生成所需的配置文件。
引导完成后,启动 Web 界面:
openclaw dashboard打开浏览器访问:
http://127.0.0.1:18789现在你可以通过仪表板与你的 OpenClaw 助手进行交互。
OpenClaw 可以与消息平台集成,作为聊天机器人运行。支持的通道包括:
例如,连接 Telegram 的步骤:
openclaw channels login telegram
设置完成后,发送给机器人的消息将由 OpenClaw 处理。
OpenClaw 需要一个后端 AI 模型。你可以选择云 API 或本地模型。
云 API 提供商:
这些需要 API 密钥。
本地模型(可选): 你可以使用 Ollama 在本地运行模型,实现完全离线的 AI 体验。
其他模型包括:
使用本地模型可以避免 API 费用,但需要更强的硬件配置。
为了增强 OpenClaw 的文档处理能力,你可以集成文档处理的Skills,实现自动化的 PDF 处理。
安装 OpenClaw 非常简单,通常只需几分钟。最简单的方法是使用一键安装脚本,它会自动安装依赖项并配置环境。安装完成后,你可以运行引导向导、启动仪表板,并连接 AI 模型或消息平台,构建一个强大的私有化 AI 助手。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。