OpenClaw小龙虾工具部署指南:从环境准备到插件安装,AI配置和飞书Telegram多平台接入全教程

Post Time: Mar 8, 2026
Update Time: Apr 9, 2026
Article.Summary

中国大陆用户专属OpenClaw部署指南!涵盖网络优化、国产大模型配置、插件安装及Telegram/WhatsApp/飞书多平台对接。解决GitHub访问慢、API支付难问题,助你快速搭建私有化AI智能体。

在AI智能体工具飞速发展的2026年,OpenClaw(原名Clawdbot,昵称“小龙虾”)凭借其开源、灵活的特性,成为了个人开发者与轻量级办公群体构建自动化助手的首选。然而,对于中国大陆的用户而言,直接部署OpenClaw往往面临着网络访问受限、海外API支付困难、依赖安装缓慢三大拦路虎 。 Openclaw安装教程

本文为你量身打造一套本地化通关攻略,从环境准备到插件安装,AI配置,再到微信/Telegram,WhatsApp,飞书等多平台接入,手把手带你绕过所有坑,轻松驯服这只“小龙虾”。

1. 部署前的核心准备:跨越第一道门槛

在国内部署OpenClaw,我们不能直接照搬海外的快速开始文档,必须先做好本地化适配的准备。

1.1 核心依赖与环境要求

在开始之前,请确保你的硬件或服务器满足以下最低要求,否则在运行多技能(Skills)时会明显卡顿:

  • 硬件:CPU≥2核,内存≥4GB,磁盘≥20GB(如果部署在云上,2核4GB是起点,2核2GB仅勉强能跑基础demo)。

  • 软件:Node.js ≥ 22.x(必装,2026版核心依赖)、Python ≥ 3.9、Docker(用于安全沙箱,建议安装)。

1.2 国内网络专项优化方案

由于OpenClaw的代码托管在GitHub,且依赖包分散在海外CDN,直接拉取极易超时。我们需要提前做好两件事:

1. 配置镜像源

2. 准备API-Key(最关键的一步):

OpenClaw本身只是一个“骨架”,AI能力需要调用大模型API。国内用户不建议尝试申请海外信用卡开通OpenAI或Claude(不仅被封概率高,且支付困难)。最稳妥的方案是使用国产大模型。

2. 两种主流部署方式(国内特供版)

针对不同需求,这里提供两种部署路径:零基础一键云部署(推荐,省心)和本地极速安装(适合开发者)。

2.1 方案A:阿里云/腾讯云一键部署(24小时在线首选)

如果你希望AI助手能7×24小时运行(比如处理消息、定时任务),部署在云服务器上是最佳选择。得益于阿里云和腾讯云的应用镜像,这个过程已经被简化到了“三步走”。

步骤1:选购服务器(地域选择有讲究)

  • 平台:访问阿里云OpenClaw一键部署专题页面腾讯云Lighthouse控制台

  • 镜像:选择 “OpenClaw 2026汉化版” 或 “OpenClaw安全版” 应用镜像。这些镜像已预装了Node.js、Docker及OpenClaw核心,甚至包含中文本地化配置 。

  • 地域:强烈建议选择中国香港或新加坡。原因有两点:一是无需ICP备案,购买即可用;二是避免国内地域的轻量应用服务器在某些时段访问海外资源时的网络限制 。

步骤2:配置大模型API

购买完成后,进入服务器控制台的“应用详情”页。

  • 找到 “模型配置” 或 “百炼API-Key配置” 入口。

  • 粘贴你提前在阿里云百炼平台创建的API-Key,点击应用。系统会自动将此Key写入配置文件 。

步骤3:放行端口与访问

2.2 方案B:本地PC或开发机部署(NPM极速版)

对于希望在本地开发、测试,或数据必须内网存储的用户,可以使用NPM方式进行安装,利用淘宝镜像源加速。 install npm in openclaw.ai

步骤1:安装Node.js 22+

访问Node.js官网下载LTS版本,或使用包管理器安装, 详细请看Node.js官网下载LTS版本

步骤2:配置全局工具(关键)

由于原版openclaw命令可能从海外源拉取,这里推荐使用社区专为国内优化的版本:

bash Copy
1# 使用淘宝镜像源全局安装中文社区版
2npm install -g openclaw-cn@latest --registry=https://registry.npmmirror.com
3
4

openclaw-cn是一个完全中文本地化的发行版,它解决了依赖包从GitHub下载慢的问题,CLI界面也是中文的

步骤3:运行安装向导

bash Copy
1# 运行安装向导,并安装守护进程(支持开机自启)
2openclaw-cn onboard --install-daemon
3
4

在向导中,模型提供商可以选择“Qwen”或自定义填入阿里云百炼的Base URL。其他配置如通道(Channel)可以先选择“Skip for now”跳过

步骤4:启动服务

bash Copy
1# 启动网关,Web UI默认运行在18789端口
2openclaw-cn gateway --port 18789
3

3. 核心配置:让AI学会“动手”

部署完成后,OpenClaw只是一个能聊天的空壳,真正的威力来自于工具(Tools)与技能(Skills)的配置。

3.1 理解Tool与Skill(安全必修课)

在配置任何功能前,请务必分清这两个概念,这直接关系到你的数据安全:

  • Tool(工具):是底层权限,决定AI能做什么。例如文件读写(file)、网络访问(network)、执行命令(exec)。建议默认关闭exec、file-delete等高危工具 。

  • Skill(技能):是调用工具的“教科书”,决定AI怎么做。例如“总结PDF”技能会调用文件读工具和文本处理逻辑 。

安全配置命令

bash Copy
1# 关闭高风险工具
2openclaw config set tools.deny ["exec", "network-write", "file-delete"]
3# 开启白名单模式,仅加载核心安全技能
4openclaw config set skills.allowBundled true
5openclaw config set skills.allowList ["summarize", "weather", "github", "healthcheck"]
6
7

3.2 插件安装:4种方法扩展能力

OpenClaw拥有丰富的插件生态(ClawHub),但国内用户在安装时同样需要注意网络问题

方法一:从Git仓库安装(推荐开发者)

这是最灵活的安装方式,OpenClaw会自动处理依赖:

bash Copy
1# 以安装钉钉通道插件为例
2openclaw plugins install https://github.com/soimy/openclaw-channel-dingtalk.git
3

国内如果访问GitHub慢,可以先将其导入Gitee,再用Gitee地址安装

方法二:通过NPM安装(针对纯JS插件)

如果插件发布在NPM上,配置好淘宝源后安装会非常快:

bash Copy
1npm install -g openclaw-plugin-[插件名]
2

方法三:手动安装(内网环境)

  • 在联网电脑下载插件源码(或Release压缩包)。

  • 通过U盘或内网传输工具将其拷贝到目标机器的 ~/.openclaw/extensions/ 目录下解压。

  • 执行 openclaw plugins list 确认加载 。

方法四:使用国内镜像源加速安装

在安装依赖较多的技能时,可以在技能目录下手动设置镜像:

bash Copy
1# 进入技能目录后,先设置镜像再安装
2npm config set registry https://registry.npmmirror.com
3npm install
4

3.3 实战案例:安装“中国开发者必备技能包”

针对国内开发者的痛点(如镜像源切换、中文编码),社区有专门定制的技能包 。 你可以直接向OpenClaw下达指令:“帮我安装中国开发者必备技能包,包含国内镜像源和中文编码规范。” AI会自动寻找对应仓库并执行安装。安装后,当你遇到pip下载慢的问题,AI就会自动调用镜像源技能,使用清华或阿里云的镜像来加速 。

4 如何安装“AI大脑”:模型接入全攻略

OpenClaw本身只是一个空壳,真正让它变聪明的,是背后的大语言模型。对于中国大陆用户,主要有云端API(最简单)和本地模型(最私密)两种接入方式。本部分将手把手教你如何配置。 ai model selection

方案一:云端API接入(推荐新手,零硬件成本)

这是最快捷的方式,OpenClaw通过调用云端API获取智能回复。我们强烈推荐国产模型,因为它们网络延迟低、中文支持好,且支付方便。

首选:阿里云百炼(通义千问)

这是目前国内生态最完善、与OpenClaw适配最好的选择。

获取密钥:登录阿里云百炼控制台,在“密钥管理”中创建一个API-Key并复制。 配置Base URL: 如果你在国内或新加坡有服务器,建议使用国际站地址以获得更低延迟:https://dashscope-intl.aliyuncs.com/compatible-mode/v1。 如果你的服务器在美国,则使用:https://dashscope-us.aliyuncs.com/compatible-mode/v1。 选择模型ID:推荐使用 qwen3-max-2026-01-23 或 qwen3-plus,它们的中文理解能力和工具调用能力都非常出色。 配置方法:你可以选择命令行或Web UI两种方式。 Web UI方式(推荐新手):运行 openclaw dashboard 打开Web控制台(地址通常是 http://127.0.0.1:18789),依次进入 Settings -> Advanced -> Raw,在 models.providers 下添加如下配置:

json Copy
1{
2  "bailian": {
3    "baseUrl": "https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
4    "apiKey": "你的API-Key",
5    "api": "openai-completions",
6    "models": [
7      { "id": "qwen3-max-2026-01-23", "name": "qwen3-max", "reasoning": false }
8    ]
9  }
10}
11

关键点:务必设置 "reasoning": false,否则AI可能会返回空内容。 命令行方式:执行以下命令完成配置:

bash Copy
1openclaw config set 'models.providers.bailian' --json '{
2  "baseUrl": "https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
3  "apiKey": "你的API-Key",
4  "api": "openai-completions",
5  "models": [{ "id": "qwen3-max-2026-01-23", "name": "千问Max" }]
6}'
7openclaw models set bailian/qwen3-max-2026-01-23
8openclaw gateway restart
9
10

备选:腾讯云混元

如果你已经是腾讯云用户,混元也是个不错的选择。OpenClaw对接混元同样简单。

登录腾讯云大模型API控制台,开通服务并创建API Key。 在终端执行配置命令:

bash Copy
1openclaw config set 'models.providers.hunyuan' --json '{
2  "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1",
3  "apiKey": "你的API-Key",
4  "api": "openai-completions",
5  "models": [
6    { "id": "hunyuan-turbos-latest", "name": "混元 Turbo" }
7  ]
8}'
9openclaw config set models.mode merge
10openclaw models set hunyuan/hunyuan-turbos-latest
11openclaw gateway restart
12

5. 如何对接指令平台:从Web UI到Telegram/WhatsApp/

OpenClaw的一大优势就是支持多平台接入,让你可以在熟悉的聊天软件中直接与AI助手对话。本节将详细介绍如何配置OpenClaw自带的Web UI对话功能,以及如何对接Telegram、WhatsApp和飞书等主流平台。

5.1 OpenClaw自带Web UI:最简单的对话方式

OpenClaw提供了友好的Web控制台界面,无需任何额外配置即可开始对话。

启动Web UI

在部署完成后,通过以下任一方式启动Web UI:

bash Copy
1# 方式1:直接运行仪表盘命令
2openclaw dashboard
3
4# 方式2:启动网关服务后手动访问
5openclaw gateway --port 18789
6

启动后,在浏览器中访问 http://你的服务器IP:18789 即可打开Web控制台。

配置网关令牌(首次访问必需)

首次访问Web UI时,会看到一个需要输入令牌的页面。这是因为OpenClaw默认开启了安全认证。

  1. 获取令牌:在服务器终端执行以下命令:
bash Copy
1openclaw token generate
2

执行后会生成一串字符,如 oc_xxxxxxxxxxxxxxxx。

  1. 填写令牌:将生成的令牌复制粘贴到Web UI的输入框中,点击“连接”。

  2. 开始对话:连接成功后,点击左侧的“聊天”按钮,即可在Web界面中与AI助手对话。

5.2 对接Telegram:随时随地发指令

Telegram是OpenClaw最常用的接入渠道之一,适合移动办公场景。

步骤1:在Telegram中创建机器人

  1. 打开Telegram,搜索 @BotFather 并进入对话

  2. 发送 /newbot 命令

  3. 按照提示输入机器人名称(如 MyOpenClawBot)

  4. 输入机器人用户名(必须以 _bot 结尾,如 myopenclaw_bot)

  5. 创建成功后,BotFather会返回一个令牌(Token),格式如 1234567890:ABCdefGHIjklMNOpqrsTUVwxyz

注意:此令牌是机器人的唯一凭证,务必妥善保存,切勿泄露。

步骤2:在OpenClaw中配置Telegram渠道

方法A:使用初始化向导(推荐新手)

如果你还没有完成OpenClaw的初始化配置,可以直接在向导中配置Telegram:

bash Copy
1openclaw onboard --install-daemon
2
3

在向导的“选择渠道”步骤中:

  • 用箭头键选择 Telegram (Bot API)

  • 回车确认

  • 粘贴之前从BotFather获取的机器人令牌

  • 继续完成后续配置

方法B:手动配置(已有OpenClaw运行)

如果OpenClaw已经配置完成,可以手动添加Telegram渠道:

bash Copy
1# 1. 进入OpenClaw配置目录
2cd ~/.openclaw
3
4# 2. 编辑配置文件
5nano openclaw.json
6
7# 3. 在channels部分添加Telegram配置
8
9

在配置文件中添加以下内容:

json Copy
1{
2  "channels": {
3    "telegram": {
4      "enabled": true,
5      "botToken": "你的Telegram机器人令牌"
6    }
7  }
8}
9
10

步骤3:重启服务使配置生效

bash Copy
1openclaw gateway restart
2
3

步骤4:配对操作(首次对话必需)

首次在Telegram中向机器人发送消息时,OpenClaw出于安全考虑会要求配对。

  1. 在Telegram中打开你创建的机器人,点击 START

  2. 机器人会回复一条包含配对码的消息

  3. 在服务器终端执行配对命令:

bash Copy
1openclaw pairing approve telegram <收到的配对码>
2
3

例如:openclaw pairing approve telegram 123456

  1. 配对成功后,即可在Telegram中正常与AI助手对话

注意事项

  • OpenClaw 2026.1.24及以上版本已预装Telegram插件,低于此版本需先升级

  • 如果使用Bun运行OpenClaw,Telegram渠道可能存在兼容性问题,建议使用Node.js

  • 服务器地域建议选择海外(新加坡、美国等),避免Telegram API被阻断

5.3 对接WhatsApp:跨境办公利器

WhatsApp是全球覆盖最广的即时通讯工具,OpenClaw对接WhatsApp后,可以实现“WhatsApp发指令,AI自动执行”的跨境办公模式。 具体WhatsApp配置步骤如下:

步骤1:准备WhatsApp Business API凭证

对接WhatsApp需要使用Business API,需提前准备以下凭证:

  • Phone Number ID:绑定的WhatsApp企业号码ID

  • Access Token:API访问令牌

  • Business Account ID:企业账号ID

这些凭证需通过Meta for Developers平台申请,具体流程:

  1. 登录 Meta for Developers

  2. 创建应用,选择“WhatsApp Business”类型

  3. 完成企业认证(需提供海外营业执照等,审核1-3个工作日)

  4. 在“WhatsApp”→“Configuration”页面获取上述凭证

步骤2:安装WhatsApp渠道插件

bash Copy
1# 进入OpenClaw容器环境(如果使用Docker部署)
2docker exec -it openclaw-core /bin/bash
3
4# 下载WhatsApp渠道插件
5git clone https://github.com/openclaw-community/whatsapp-plugin.git /root/.openclaw/plugins/whatsapp
6
7

步骤3:配置WhatsApp渠道

编辑OpenClaw配置文件:

bash Copy
1nano ~/.openclaw/openclaw.json
2添加WhatsApp配置:
3
4json
5{
6  "channels": {
7    "whatsapp": {
8      "enabled": true,
9      "phoneNumberId": "你的Phone Number ID",
10      "accessToken": "你的Access Token",
11      "businessAccountId": "你的Business Account ID",
12      "webhook": {
13        "url": "/whatsapp/callback",
14        "verifyToken": "自定义验证令牌"
15      }
16    }
17  }
18}
19
20

步骤4:配置Webhook回调地址

在Meta开发者平台的WhatsApp → Webhooks页面:

步骤5:跨境网络优化

为确保WhatsApp API访问稳定,建议优化DNS配置:

bash Copy
1# 编辑DNS配置文件
2nano /etc/resolv.conf
3
4# 添加Meta官方DNS
5nameserver 66.220.11.22
6nameserver 66.220.11.21
7
8# 测试连通性
9curl -I https://graph.facebook.com/v18.0/你的Phone Number ID/messages
10# 返回200 OK即为正常
11
12

步骤6:重启服务并测试

bash Copy
1openclaw gateway restart
2
3

测试方法:在WhatsApp中向绑定的企业号码发送消息,观察AI是否响应。

适用场景:

  • 跨境团队协作:生成会议纪要、多语言翻译

  • 海外客户服务:自动回复常见问题

  • 个人办公:查询汇率/天气、文件格式转换

6. 其他MI接入,请查看

7. 常见问题排查(避坑指南)

即使按照上述步骤,新手也可能遇到问题。以下是针对国内用户的专属排坑手册:

Q1:部署后Web UI无法访问?

  • 原因:云服务器防火墙未放行 18789 端口,或OpenClaw服务未监听 0.0.0.0。

  • 解决:检查云服务商控制台的安全组策略;修改配置文件确保 host: "0.0.0.0" 。

Q2:AI模型无响应或超时?

  • 原因:如果你在海外服务器上配置了国内模型的API(如阿里云百炼),或者在国内服务器上配置了OpenAI的API,都可能导致网络延迟或阻断。

  • 解决:遵循“就近原则”——国内服务器配国内模型,海外服务器配海外模型。如果必须在海外机用国内模型,可以尝试在配置中调整超时时间 。

Q3:安装插件时提示“Connection timed out”?

  • 原因:插件依赖了GitHub或者海外NPM包。

  • 解决:启用npm淘宝镜像源(npm config set registry)。如果是Docker镜像拉取失败,检查Docker Daemon的Mirrors配置 。

Q4:关闭终端后,机器人就停止工作了?

  • 原因:本地部署时没有将OpenClaw注册为系统服务。

  • 解决:使用 openclaw-cn onboard --install-daemon 安装守护进程,或者使用 nohup、screen、pm2 等工具保持后台运行 。

8. 总结

对于中国大陆用户来说,部署OpenClaw不再是难事。总结起来就是三句话:

  1. 网络靠镜像:无论npm、pip还是Docker,先换源再操作。
  2. 模型选国产:阿里云百炼(通义千问)是目前最稳、最省心的“大脑”选择。
  3. 部署上云端:利用阿里云/腾讯云的一键镜像,选择中国香港地域,可以规避掉90%的网络和备案烦恼。
  4. AI部署,包括阿里千文和腾讯AI.
  5. Telegram,OpenClaw UI或WhatsApp, 微信,飞书,QQ等聊天工具对接.

本文为中国大陆用户提供了一套完整的OpenClaw部署方案,从环境准备、网络优化到国产大模型接入,再到Web UI、Telegram、WhatsApp、飞书,微信等多平台对接。通过本地化配置,轻松跨越网络障碍,实现7×24小时稳定运行的私有化AI智能体,让“小龙虾”真正成为你得力的自动化助手。


参考文章如下

Consent Preferences