本篇文章来自社区开发者的投稿

作为一名AI coding专家,我用 3 天时间把 OpenClaw 部署上线并对接飞书,踩了一堆坑,也收获了不少经验。本文是我的完整实战记录,希望能帮助更多开发者少走弯路。

为什么选择 OpenClaw + 火山方舟

2026年1月,OpenClaw(原 Clawdbot/Moltbot)以不到两周突破 17 万 GitHub Stars 的速度爆火出圈,成为 GitHub 历史上增长最快的开源项目之一。它由 PSPDFKit 创始人 Peter Steinberger 开发,是一个可以 7×24 小时运行在自己服务器上的开源 AI 助手——不是单纯的聊天机器人,而是一个拥有"眼睛和双手"的智能体,能操作系统、浏览网页、管理文件、处理邮件、自动编写代码。

作为 OneOneTalk CTO,我每天要在多个平台之间切换:飞书处理团队协作、各种 IDE 写代码、浏览器查资料。我一直希望有一个统一的 AI 助手,能通过我常用的聊天工具接收指令,帮我处理那些重复性的工作。OpenClaw 恰好填补了这个空白。

为什么选火山方舟 Coding Plan? 此前,OpenClaw 默认需要 Anthropic Claude 或 OpenAI GPT 的 API,国内开发者面临网络和成本的双重门槛。火山方舟 Coding Plan 的推出彻底解决了这个问题——一个订阅即可接入 Doubao-Seed-Code、Kimi-K2.5、DeepSeek-V3.2、GLM-4.7 等多款顶级模型,方舟超大资源池保证稳定算力,告别排队和限速。

更关键的是,正好赶上新春特惠活动——原价 200 元档的 Pro 套餐,活动价只要 49.9 元。众所周知 OpenClaw 是个"Token 大户",agent 模式下每次对话的实际消耗远超表面看到的回复内容。这个价格入手 Pro 套餐,基本可以实现"Token 自由",放心让 AI 助手帮你干活,不用时刻盯着用量焦虑。

部署架构总览

最终跑通的架构如下:

┌─────────────────────────────────────────────────────┐
│              云服务器 (2C4G 即可)                     │
│                                                      │
│   OpenClaw 2026.1.25                                │
│   + 飞书内置 channel (WebSocket 长连接)              │
│   + 火山方舟 Coding Plan (Kimi-K2.5 / Doubao-Seed)  │
│                                                      │
│                       ↕                              │
│               飞书机器人应用                          │
│         (事件订阅 - 长连接模式)                       │
└─────────────────────────────────────────────────────┘

整个架构只需要一台 2C4G 的云服务器,不需要公网回调地址(飞书长连接模式),部署门槛很低。

第一步:安装 OpenClaw

OpenClaw 支持 Mac、Windows、Linux 多平台。服务器部署推荐 Linux,安装只需一行命令:

curl -fsSL https://openclaw.ai/install.sh | bash

安装脚本会自动检测环境、安装 Node.js(需要 ≥22 版本)、配置系统服务。安装完成后运行 openclaw --version 确认版本。

首次运行会进入 onboarding 向导,按提示选择:

  • Gateway Port:默认 18789 即可

  • Gateway Bind:选 Loopback(飞书长连接不需要公网可达)

  • AI Provider:先跳过,后面手动配置火山方舟

  • Chat Channel:先跳过,后面配置飞书

  • Skills:新手建议跳过,先跑通主流程

第二步:接入火山方舟 Coding Plan

这是整个部署的"发动机"。火山方舟 Coding Plan 兼容 OpenAI API 协议,接入 OpenClaw 非常丝滑。

2.1 订阅 Coding Plan

登录火山方舟控制台(ark.cn-beijing.volces.com),进入 Coding Plan 页面,选择 Lite 或 Pro 套餐完成订阅。然后在「API Key 管理」页面创建并复制你的 API Key。

套餐选择建议: Lite 套餐(首月 9.9 元)足够个人开发者尝鲜和日常使用;如果你打算让 OpenClaw 当日常工作助手、高强度使用,Pro 套餐更省心。

2.2 配置 Models Provider

OpenClaw 的配置文件位于 ~/.openclaw/openclaw.json(或旧版本的 ~/.clawdbot/clawdbot.json),添加火山方舟的 provider 配置:

{
  "models": {
    "providers": {
      "doubao": {
        "baseUrl": "https://ark.cn-beijing.volces.com/api/coding/v3",
        "apiKey": "你的API_KEY",
        "api": "openai-completions",
        "models": [
          { "id": "ark-code-latest", "name": "ark-code-latest" }
        ]
      }
    }
  },
"agents": {
    "defaults": {
      "model": {
        "primary": "doubao/ark-code-latest"
      },
      "models": {
        "doubao/ark-code-latest": {
          "alias": "doubao"
        }
      }
    }
  }
}

关键细节:

  • baseUrl 要用 /api/coding/v3(Coding Plan 专用端点),不要用 /api/v3(通用端点)

  • 建议使用 ark-code-latest 而不是指定具体的 preview 模型名,这样方舟升级模型时配置无需调整

  • 如果想手动指定模型,可以在方舟控制台的 Coding Plan 页面切换默认模型(如 Kimi-K2.5)

2.3 验证模型连通性

重启 gateway 并进入 TUI 测试:

openclaw gateway restart
openclaw tui

在 TUI 中发一条"你好,介绍一下你自己",看到模型正常回复就算成功。

模型选择踩坑经验: Coding Plan 的 Auto 模式会根据场景自动选择模型,这对编程任务很友好。但如果你主要用 OpenClaw 做日常对话和任务执行,Auto 选择的代码模型可能导致响应偏慢(实测偶发 150 秒+)。我的做法是在方舟控制台手动将默认模型切换到 Kimi-K2.5,它在对话理解和指令执行方面表现最均衡,响应速度也更稳定。

第三步:对接飞书机器人

OpenClaw 内置了飞书 channel 支持,采用 WebSocket 长连接方式通信,不需要配回调 URL,不需要验证公网 IP,配置比其他渠道简单一个量级。

3.1 创建飞书应用

登录飞书开放平台(open.feishu.cn),创建一个企业自建应用:

  1. 点击「创建企业自建应用」,填写应用名称(如"AI助手")和描述

  2. 进入应用 → 「添加应用能力」 → 选择「机器人」

  3. 配置机器人名称和头像

3.2 配置权限

进入「权限管理」,添加以下权限:

  • im:message - 获取与发送消息

  • im:message:send_as_bot - 以机器人身份发送消息

  • im:chat:readonly - 获取群列表

  • contact:user.id:readonly - 获取用户 ID

3.3 配置事件订阅(关键步骤)

进入「事件与回调」:

  1. 「回调配置」 → 订阅方式 → 选择 「使用长连接接收回调」 → 保存

  2. 「添加事件」 → 选择「消息与群组」 → 「接收消息 (im.message.receive_v1)」

⚠️ 重要:必须选择"长连接"模式! 这是让 OpenClaw 无需公网回调地址就能接收消息的关键。

3.4 发布应用

点击顶部「创建版本」→ 填写版本信息 → 提交发布。

3.5 配置 OpenClaw

获取应用的 App ID 和 App Secret(在「凭证与基础信息」页面),然后配置 OpenClaw:

openclaw config set channels.feishu.appId 'cli_xxxx'
openclaw config set channels.feishu.appSecret 'your_secret'
openclaw config set channels.feishu.enabled true
openclaw config set channels.feishu.groupPolicy 'open'  # 如果要在群里使用

重启 gateway:

openclaw gateway restart

查看日志确认飞书连接成功:

tail -f ~/.openclaw/logs/*.log | grep -i feishu

看到 feishu connected 或类似的连接成功日志就算配置完成。

3.6 测试

在飞书中搜索你的机器人应用,发送一条消息测试。如果一切正常,几秒钟后就能收到 AI 的回复。

踩坑记录与排错指南

三天折腾下来,我踩了不少坑,整理如下供参考:

坑点 1:不要让 OpenClaw 自己安装 Skills

这是我踩的最离谱的坑。我在飞书上随口跟 OpenClaw 说"帮我装一下 GitHub 和 Notion 的 skills",它非常积极地执行了——但安装了一堆需要额外 API 才能运行的无效配置。结果配置文件报错,之后所有消息都返回"(系统出错) agent error"。

解决方法: 手动清理 ~/.openclaw 下无效的 skills 配置项,删掉那些缺少认证信息的 skills 声明,重启后恢复正常。

教训: Skills 安装应该由人工在 CLI 中操作并确认配置完整,不要完全交给 AI 自主决定。

坑点 2:Gateway 进程残留

调试过程中频繁重启 gateway,偶尔会遇到端口占用或进程残留问题。

解决方法:

pkill -9 -f openclaw
sleep 2
openclaw gateway start

坑点 3:版本配置格式差异

OpenClaw 目前迭代极快,不同版本的配置字段位置可能不同。比如早期版本的 providers 字段放在根级别,新版本嵌套在 models 下。

解决方法: 配置前先 openclaw --version 查看版本,然后参照对应版本的官方文档。

坑点 4:模型响应慢

如果发现 AI 响应特别慢(>100 秒),很可能是模型选择不当。

解决方法: 日常对话和任务执行场景,建议选择 Kimi-K2.5,理解力强且响应稳定;如果追求极致速度,选择 Auto 模式即可,方舟会自动调度最快的可用模型。

快速排错清单

症状

可能原因

解决方案

gateway 启动失败

端口被占用

pkill -9 -f openclaw 后重启

飞书收不到消息

事件订阅未选长连接

检查飞书后台配置

agent error Skills

配置损坏

手动清理无效配置

响应特别慢

代码模型做对话

切换到 Kimi-K2.5

配置不生效

版本格式不匹配

检查版本,参照对应文档

成本与性能参考

成本方面: OpenClaw 的 agent 模式比普通对话更消耗 token——每次交互背后可能有多轮工具调用、上下文注入和 skills 执行。实测一天中等强度使用(约 50 次有效对话),token 消耗量是普通 ChatGPT 对话的 5-10 倍。火山方舟 Coding Plan Lite 套餐完全够用,重度用户建议 Pro。

性能方面: 飞书长连接模式下,从发送消息到收到回复,Kimi-K2.5 模型通常在 10-30 秒完成,复杂任务可能需要 1-2 分钟。体验流畅度取决于任务复杂度和模型选择。

写在最后

OpenClaw + 火山方舟 Coding Plan + 飞书的组合,让国内开发者以极低的门槛拥有了一个 7×24 小时在线、能真正执行任务的 AI 助手。虽然 OpenClaw 生态还在快速迭代中(项目一周内经历了三次改名),中文生态的支持深度也有待加强,但核心体验已经足够惊艳——在飞书上用语音发一条指令,几十秒后 AI 就帮你把事情办了,这种感觉确实像看到了个人计算的未来。

作为一个在 AI 教育科技领域创业的技术人,我看到了 OpenClaw 在企业内部效率工具、智能客服、自动化运维等场景的巨大潜力。接下来,我计划把 OpenClaw 集成到团队的内部工作流中,让它帮忙处理日常的代码审查、文档生成和消息管理。

如果你也想体验,我的建议路径是:火山方舟 Coding Plan Lite → 飞书渠道 → Kimi-K2.5 模型。 这是目前配置最简单、体验最好、成本最低的入门组合。

折腾的过程虽然曲折,但每一个跑通的瞬间都让人兴奋。正如 OpenClaw 的 logo 上那只龙虾一样——蜕壳虽然痛苦,但每一次蜕变都意味着成长。


作者简介: 彭超,OneOneTalk CTO & 联合创始人,ADG 广州社区 ADGL,TRAE Expert,14 年 IT 经验,专注 AI 教育科技与 Agent 开发。曾获科大讯飞 教育赛道全国总冠军、亚洲 AI 创业大赛香港教育赛道冠军。

Logo

DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。

更多推荐