关键词: OpenClaw, AI Agent, 个人AI助理, Clawdbot, Moltbot, AI代理安装教程, Docker部署, Telegram Bot集成, 自动化订票, 智能卡路里计算, AItoAPI
摘要
在这个 AI Agent(智能体)爆发的时代,我们是否能拥有一个真正属于自己、运行在本地且能“干实事”的数字管家?本教程将深度实测近期在 GitHub 上爆火的 OpenClaw(原名 Clawdbot/Moltbot)。不同于只会聊天的 ChatGPT,OpenClaw 是一个能操控你电脑、管理日程、甚至自动买票的“行动派” AI。本文将从功能演示、核心架构解析、保姆级安装部署教学(涵 Docker 与源码安装)、以及如何通过 AItoAPI 接入免费大模型等维度,为你提供一份超 6000 字的骨灰级指南,带你亲手打造一个 24 小时待命的超级 AI 助理。
正文
1. 引言:从“聊天”到“做事”,AI Agent 的进化
在过去的一年里,我们习惯了和 AI 对话。我们问,它答。但在 2026 年的今天,这种被动的交互模式正在被打破。最近,GitHub 上一个名为 OpenClaw 的项目横空出世,在短短几天内 Star 数破 10 万(数据源自社区热度),被誉为“个人 AI 助理的终极形态”。
为什么 OpenClaw 会引起如此巨大的轰动?因为它不仅仅是一个聊天机器人,它是一只长了“手”的龙虾(Claw 意为钳子)。它可以连接你的 Telegram、Slack、Discord,钉钉,企业微信,甚至接管你的浏览器和终端。OpenClaw 可以帮你自动订高铁票、发送会议邀请、每天早上汇报天气与穿搭建议,甚至通过看一眼照片帮你计算食物卡路里。
本文将基于真实测试环境,手把手教你如何部署这套系统,并揭秘其背后的技术原理。无论你是技术小白还是资深极客,都能从中找到属于你的 AI 玩法。
2. OpenClaw 功能深度实测
在开始枯燥的安装教程前,我们先来看看 OpenClaw 到底能帮我们做什么。基于视频实测与官方文档,我们将 OpenClaw 的核心能力归纳为以下几个场景。
2.1 办公自动化:会议与日程管理
在演示中,最直观的功能就是会议管理。你只需要在 Telegram 上对 OpenClaw 说:“帮我约个下周二下午三点的会议,主题是项目复盘,参会人是 David。” OpenClaw 不会仅仅回复“好的”,而是会:
调用日历接口:读取你的 Google Calendar,检查该时间段是否有冲突。
生成邀请:自动填写标题、时间、描述。
发送邮件:直接向指定联系人发送会议邀请函。 整个过程无需你打开日历应用,完全通过对话完成。这背后的原理是 OpenClaw 内置了 Google Workspace 的 Skill(技能包),使其拥有了操作 API 的权限。
2.2 生活助手:天气、穿搭与票务
对于经常出差或需要通勤的人来说,OpenClaw 的自动化生活服务极具吸引力。
每日晨报:你可以设置一个定时任务(Cron Job),让 OpenClaw 每天早上 7 点自动查询当地天气,并结合你的衣柜数据(如果你喂给它过),推送“今日降温,建议穿羽绒服”的贴心提醒。
自动抢票:视频中展示了一个非常硬核的功能——订高铁票。OpenClaw 可以通过浏览器自动化工具(如 Puppeteer 或 Playwright)模拟用户登录票务网站,输入出发地、目的地、时间,甚至自动选座和提交订单。这对于节假日抢票来说,简直是物理外挂。
2.3 健康管理:AI 卡路里计算师
这是一个非常典型的多模态(Multimodal)应用场景。
场景:你午餐吃了一顿丰盛的便当,但不确定热量多少。
操作:拍一张照片,发送给 Telegram 上的 OpenClaw 机器人。
反馈:OpenClaw 调用具备视觉能力的模型(如 GPT-4o 或 Claude 3.5 Sonnet),识别出图中有“米饭 200g(约 260 大卡)、红烧肉 150g(约 700 大卡)、青菜 100g(约 30 大卡)”,并汇总告诉你:“这顿饭大约 990 大卡,晚餐建议吃点轻食。”
语音记账:你甚至可以直接发语音说:“我刚喝了一杯拿铁。”它会自动识别语音内容并记录热量。
2.4 开发者神器:管理 GitLab 与 编写代码
对于程序员来说,OpenClaw 更像是一个全天候待命的 DevOps 实习生。它可以对接 GitLab/GitHub 账号,帮你 Check 代码提交记录,甚至创建一个新的 Repository。更有趣的是,它具备自学习能力。你可以丢给它一段录音或文档,让它学习新的 Skill,它会自动编写并在本地安装相应的 Python 工具包,从而通过“自我进化”来掌握新技能。
3. 核心架构解析:OpenClaw 是如何工作的?
OpenClaw 之所以强大,在于其独特的架构设计。理解了架构,你才能在后续的安装中游刃有余。
3.1 "The Lobster Way":中枢与触角
OpenClaw 采用的是 Gateway(网关) + Agent(代理) 的架构。
Brain(大脑):OpenClaw 本身不产生智能,它需要连接一个 LLM(大语言模型),如 OpenAI 的 GPT 系列、Anthropic 的 Claude 系列,或者本地运行的 Ollama。
Gateway(网关):这是 OpenClaw 的本体,通常运行在你的服务器或本地电脑上(Docker 容器)。它负责接收指令、分发任务。
Channels(触角):这是你与 AI 交互的界面。OpenClaw 支持 Telegram、Discord、Slack、WhatsApp 等多种通讯软件。你在 TG 上发消息,Gateway 收到后转发给 Brain 处理,处理结果再回传给 TG。
Skills(钳子):这是 AI 的执行能力。通过 Python 脚本或 API 定义,OpenClaw 可以调用文件系统、浏览器、数据库等。
3.2 AItoAPI:低成本的大脑解决方案
一个关键组件 —— AItoAPI。 直接调用 GPT-4 或 Claude API 可能成本较高。AItoAPI 是一个中间层项目,它可以将一些网页版或低成本的 AI 服务(如 Kimi、Coze 等)转化为标准的 OpenAI 格式 API。
原理:模拟网页请求或利用逆向接口。
优势:由于许多国产大模型(如 Kimi、DeepSeek)在初期提供大量免费 Token 或低价 API,通过 AItoAPI 桥接,可以让 OpenClaw 以极低的成本运行,甚至白嫖算力。视频中提到的“Kro 账号”(推测可能指 Koyeb 部署的某种服务或 Key 平台)即是此类用途,利用免费额度实现 AI 自由。
4. 保姆级安装全攻略(Docker 版)
接下来进入最核心的实操环节。我们将采用最通用、干扰最少的 Docker 方式进行部署。更详细的部署方式请参照本博客的 OpenClaw 接入通义千问连接钉钉:构建企业级私有 AI 智能体实战指南,OpenClaw(原 Clawdbot)全能 AI 助理部署教程:从零打造你的私人数字员工 两篇教程
4.1 准备工作
在开始之前,请确保你拥有以下环境:
一台服务器或长期开机的电脑:推荐 Linux (Ubuntu 22.04+) 或 macOS。Windows 用户建议使用 WSL2。
Docker & Docker Compose:这是运行 OpenClaw 的容器环境。
Telegram 账号:用于创建机器人并作为交互界面。
AI 模型 API Key:你需要 OpenAI、Anthropic 或 DeepSeek 的 API Key。如果没有,可以使用下文介绍的 AItoAPI 方案。
4.2 第一步:获取代码
打开终端,从 GitHub 克隆 OpenClaw 的官方仓库(注:由于项目更新极快,请以官方最新分支为准)。
Bash
# 创建工作目录
mkdir -p ~/ai-assistant
cd ~/ai-assistant
# 克隆仓库
git clone https://github.com/openclaw/openclaw.git
cd openclaw
4.3 第二步:配置环境与密钥
OpenClaw 需要通过环境变量来配置各种 Key。官方通常提供了一个示例文件。
Bash
# 复制配置文件
cp .env.example .env
使用 vim 或 nano 编辑 .env 文件,填入关键信息:
代码段
# .env 文件示例
# 1. 基础设置
OPENCLAW_ENV=production
PORT=3000
# 2. 模型大脑配置 (以 OpenAI 格式为例)
LLM_PROVIDER=openai
OPENAI_API_KEY=sk-xxxxxxxxxxxxxxxxxxxxxxxx # 填入你的 Key
OPENAI_MODEL=gpt-4o # 或者使用 deepseek-chat
# 如果使用 AItoAPI 或其它中转服务,修改 Base URL
OPENAI_BASE_URL=https://api.your-relay-service.com/v1
# 3. Telegram 机器人配置
# 在 Telegram 中搜索 @BotFather,输入 /newbot 创建机器人获取 Token
TELEGRAM_BOT_TOKEN=123456789:ABCdefGHIjklMNOpqRSTuvwXYZ
TELEGRAM_ALLOWED_USERS=12345678 # 你的 TG 用户 ID,防止外人盗用
4.4 第三步:使用 Cloud Code 辅助配置(可选)
视频中提到,如果你对复杂的配置文件感到头大,可以利用 Cloud Code(或 Cursor、Windsurf 等 AI 编程工具)来辅助。 你可以将 .env 文件丢给 AI,并输入提示词:
"帮我检查这个配置文件,我想连接 DeepSeek 的 API,并且开启 Telegram 机器人功能,请帮我修改正确的环境变量。"
AI 会自动帮你纠正格式错误,比如 Base URL 是否需要加 /v1 后缀等常见坑点。
4.5 第四步:启动 Docker 容器
配置完成后,在项目根目录下运行 Docker Compose。
Bash
# 拉取镜像并启动
docker-compose up -d
启动过程中,Docker 会自动下载 OpenClaw 的核心镜像、数据库镜像(通常是 PostgreSQL 或 Redis 用于存储记忆)以及沙箱环境。 等待几分钟,当终端显示 Running 状态时,说明服务已启动。
4.6 第五步:初始化与连接
访问 Web 面板:在浏览器输入
http://localhost:3000(或你服务器的 IP)。初次配对:系统会提示你输入一个 Setup Token,这个 Token 通常会在
docker-compose logs的日志中显示。复制并填入,完成管理员认证。激活 Telegram:在 Web 面板的 "Channels" 页面,开启 Telegram 开关。此时,你向你的 TG 机器人发送
/start,它应该会回复你:“I am ready to serve, master.”
5. 进阶玩法:接入 AItoAPI 与 本地大模型
为了降低成本,我们来实现视频中提到的“免费 / 低成本”方案。
5.1 部署 AItoAPI
假设你不想支付高昂的 GPT-4 费用,想利用手头的 Kimi 或 DeepSeek 账号。 你需要部署一个 AItoAPI 服务。这是一个 Python 项目,可以将其部署在 Koyeb 或 Render 等提供免费层额度的 PaaS 平台上。
找到
WebAI-to-API的 GitHub 项目。一键部署到 Koyeb(通常项目 Readme 有 Deploy 按钮)。
在环境变量中填入你的 Refresh Token(从网页版 Cookie 获取)。
部署成功后,你会获得一个类似
https://my-aitoapi.koyeb.app的地址。
5.2 对接 OpenClaw
回到 OpenClaw 的 .env 配置,修改 LLM 部分:
代码段
LLM_PROVIDER=openai # 保持为 openai,因为 AItoAPI 模拟的是 OpenAI 格式
OPENAI_API_KEY=any-string-you-want # 既然是自建服务,Key 可能随意填
OPENAI_BASE_URL=https://my-aitoapi.koyeb.app/v1
OPENAI_MODEL=kimi-latest # 根据 AItoAPI 支持的模型填写
重启 OpenClaw 容器:docker-compose restart。 现在,你的 OpenClaw 就拥有了一个由 Kimi 驱动的“大脑”,而且调用成本几乎为零。
6. 安全与隐私:把 AI 关在笼子里
在享受便利的同时,我们必须谈谈安全。Kevin Xu 曾做过一个著名的实验,让 AI 代理自动炒股,结果 AI 在几小时内进行了疯狂的交易。OpenClaw 拥有极高的权限(文件读写、网络访问),如果被黑客入侵或 AI 出现幻觉(Hallucination),后果不堪设想。
6.1 必须遵守的安全原则
不要在公网裸奔:千万不要将 OpenClaw 的管理面板端口(如 3000)直接暴露在公网 IP 上。务必使用 Cloudflare Tunnel 或 VPN 来访问。Cloudflare Tunnel的配置请参照:Cloudflare Tunnel 内网穿透终极指南:从零开始,OpenWrt + NAS 完美部署教程 一文。
ID 限制:在 Telegram 配置中,严格限制
ALLOWED_USERS,只允许你自己的 ID 交互。否则任何人搜到你的机器人都能指挥它删除你的服务器文件。Docker 沙箱:OpenClaw 默认运行在 Docker 中,这已经是第一层防护。绝对不要在物理机上直接以 Root 权限运行
npm install或 Python 脚本。敏感数据隔离:不要在对话中直接发送银行卡密码、私钥等极度敏感信息,除非你非常确定日志是本地加密存储的。
6.2 隐私保护设置
根据之前的用户指令,如果你是公开发布教程,需要对截图中的 Token 进行打码。但在使用 OpenClaw 时,它会产生大量的 session memory(会话记忆)。建议定期清理 .openclaw/memory 文件夹,或配置定时任务归档旧的记忆文件,防止隐私数据无限积累。
7. 结语:你准备好拥有数字分身了吗?
OpenClaw 的出现,标志着 AI 从“内容生成”向“任务执行”的跨越。它不再是一个只会写诗的文弱书生,而是一个能帮你处理琐事、甚至编写代码的强力助手。虽然目前的安装过程对普通用户仍有一定门槛(需要懂 Docker、API),但其带来的效率提升是指数级的。
试想一下,当你还在睡梦中时,部署在旧电脑上的 OpenClaw 已经帮你查好了今天去公司的路况、整理好了昨晚未读的 50 封邮件摘要、并帮你抢到了一张回家的票。这不就是我们梦寐以求的未来吗?
现在,动手试试吧。也许第一步只是让它帮你报个天气,但这一步,是你迈向“人机共生”时代的一大步。
附录:资源与链接
OpenClaw GitHub 仓库:
https://github.com/openclaw/openclaw(注:如链接变动请搜索 GitHub)Docker 官网:
https://www.docker.com/BotFather (Telegram):
https://t.me/BotFatherAItoAPI 项目参考: 请在 GitHub 搜索
WebAI-to-API或One-API以获取最新的模型中转方案。
附录 A:Troubleshooting(排错指南)—— 遇到问题先看这
在折腾 OpenClaw 的过程中,报错是常态。基于社区反馈与实测,整理了以下高频“坑位”及解决方案,助你快速脱困。
1. 容器启动失败 (Container Exited)
症状:执行
docker-compose up后,容器跑了几秒就自动退出。诊断:通常是端口冲突或配置文件错误。
解法:
检查端口占用:确保 3000 端口未被其他服务(如 Grafana、Gitea)占用。修改
.env中的PORT=3000为其他端口(如PORT=3005)。检查日志:运行
docker-compose logs -f查看报错详情。如果是syntax error,请检查.env文件中是否有特殊字符未加引号。
2. AI 变“哑巴”或复读机 (No Response / Loop)
症状:在 Telegram 发送指令,机器人已读不回,或者一直重复“正在思考”。
诊断:LLM 的 API 连接超时,或模型不支持 Function Calling。
解法:
检查网络:如果你使用的是 OpenAI 或 Claude 官方接口,确保你的服务器网络环境可以访问
api.openai.com。国内服务器请务必配置HTTP_PROXY环境变量或使用 AItoAPI 中转地址。更换模型:某些旧模型(如 GPT-3.5-turbo 早期版本)对工具调用的支持极差。请务必使用
gpt-4o、claude-3-5-sonnet或deepseek-chat(V3) 等现代模型。
3. 工具调用失败 (Tool Execution Failed)
症状:AI 说“我已经帮你订好票了”,但实际上什么都没发生。
诊断:这是典型的“幻觉 (Hallucination)”,或者 Docker 权限不足。
解法:
权限检查:确保 OpenClaw 容器挂载了正确的 Volumes。如果是操作本地文件,检查
docker-compose.yml中的路径映射是否正确。沙箱限制:OpenClaw 默认在沙箱中运行 Python 代码。如果脚本需要访问外网(如爬虫),需确认 Docker 容器的网络模式(建议
network_mode: bridge并配置 DNS)。
4. Telegram 报错 409 Conflict
症状:日志显示
Terminated by other getUpdates request。诊断:你可能在本地运行了一个实例,服务器上又运行了一个,或者你手动在浏览器里访问了 webhook。
解法:Telegram Bot 同一时间只能有一个“耳朵”听消息。确保只保留一个运行中的 OpenClaw 实例,关闭所有其他的测试窗口。
附录 B:模型对比评测 —— 谁是 OpenClaw 最聪明的大脑?
OpenClaw 的执行力由 Skill 决定,但理解力与规划能力完全取决于你接入的 LLM。我们针对“Agent 场景”(特别是工具调用能力)对主流模型进行了横向测评。
评测总结:
如果你追求极致的稳定性:请闭眼选择 Claude 3.5 Sonnet。在 OpenClaw 的代码编写和复杂任务规划上,它目前的表现略微优于 GPT-4o,显得更像一个严谨的工程师。
如果你追求性价比:DeepSeek-V3 是目前的版本答案。通过 AItoAPI 接入,它的成本几乎可以忽略不计,且处理中文语境下的生活类任务(如“帮我写个请假条并发给老板”)表现极佳。
避坑指南:尽量避免使用主要针对“聊天”优化的模型(如 Gemini Pro 的早期版本或某些过分对齐的开源模型),它们往往会拒绝执行“操作电脑”的指令,导致 OpenClaw 无法工作。
本文首发于E路领航 (blog.oool.cc),转载请注明出处 (E路领航 (blog.oool.cc))