微信扫码
添加专属顾问
我要投稿
Clawdbot 的真正创新在于将AI控制权交还用户,通过聊天软件实现本地设备操控,开启去中心化AI新范式。 核心内容: 1. Clawdbot 的核心架构:网关作为控制面,实现本地优先的权限隔离 2. 三大创新特性:去中心化、用户可编程、自我进化能力 3. 安全风险与应对策略:误操作防护与隔离方案
如果你这两天没刷到 Clawdbot,很正常。
一句话解释:Clawdbot 是一个开源的个人 AI 助手。你把它跑在自己的电脑或服务器上,然后用 WhatsApp、Telegram 这类即时通信软件给它发消息,它就能在那台机器上替你干活。
它能干的事,大致是这几类:
它背后的理念也很直白:
Clawdbot 的爆火不在“回答更聪明”,在于它把 AI 的入口放进聊天软件,并把输出接到了你的系统权限上,这相当于把“对话”升级成了“控制面”。
把 Clawdbot 当成“聊天机器人”,你会看不懂它为什么让人上头,也会低估它的风险。
更贴近工程的描述是:它把消息渠道当作人机接口,把一台长期在线的机器当作控制面,把浏览器/文件系统/终端当作执行器。
所以它和常见 Chat 产品的差异,不在“更会说”,在“更能动手”。
参考资料里给了一个很清晰的拆法:网关(Gateway)+ 节点(Nodes)+ 技能/工具系统(Skills/Tools)。
我把它翻译成更通用的工程语言:控制面(Control Plane)+ 执行面(Data/Action Plane)+ 多入口(Channels)。
在资料的描述里,网关往往是一个长期运行的后台进程,默认只在本机监听(例如 ws://127.0.0.1:18789),先保证“本地优先”的隔离。需要远程控制时,再通过 tailscale serve 或 SSH 隧道把控制面安全地暴露出去。
这一步很重要,因为它把“能不能远程操控”从产品功能,变成了你的网络边界设计。
这张图里最需要你盯紧的是:控制面与执行面之间的“授权边界”。
一旦边界默认放开,你给它的会从“帮我写个总结”变成“替我操作一台电脑”。
如果只从功能列表看,浏览器控制、Shell、文件读写,这些都不是新东西。
真正让人上头的是三件事叠加后的体验:
消息应用是高频场景。入口在聊天里,意味着下指令几乎没有切换成本。
你不需要“打开一个工具”,你只需要发一句话。
为了让它随时可用,你会自然地把它放在一台长期在线的机器上。
这也是为什么“Mac mini”会被反复提到:体积小、功耗低、便于当“家用服务器”,更关键的是你可以把风险隔离在一个单独的盒子里。
另外,模型侧的选型也会影响体验与风险。资料里提到一种常见建议是使用更长上下文能力的订阅方案(例如 Anthropic Pro/Max 搭配 Claude Opus 4.5),一方面为了更稳的长任务,另一方面也指向“提示词注入防护”这类能力。与此同时也有现实限制:部分 OAuth token 的权限被收紧后,外部调用往往需要单独配置 API key。
当它能浏览网页、读写文件、跑脚本、定时触发,再加上聊天入口,你会第一次感到:任务会从“写完就完”变成“做完才算”。
这类体验很像从“指导你操作”跳到了“替你操作”。
很多讨论会把风险简化成一句“权限太高不安全”。
这句话没错,但太粗。更专业的说法是:你的资产、入口、执行器、信任边界同时被放大了。
下面是一份够用的“个人威胁模型”,不用安全专家也能读懂。
你可以把“攻击入口”理解成两类:
参考资料里反复提到的两类风险,本质都属于“内容入口”:
因为它会把一段文本变成真实动作。
风险链路通常长这样:
这也解释了一个现实现象:即便你主观上很谨慎,系统仍然可能“自己闯祸”。
资料里也给过更直白的例子:已经有用户吐槽,代理误操作导致本机关键照片被删除。它不一定代表普遍性,但足够说明“做错一件事”的后果形态。
你追求的重点不在“永远不出错”,而在于把错误限制在可控半径内。
下面这份清单,来自参考资料里反复出现的建议,我把它整理成“可执行的默认策略”。
在某些资料里,这个配置项被写成类似 agent.workspace 的概念:定义代理可读写范围,避免默认全盘读写。
如果它接入了群聊,你要默认假设“群聊里会出现误触发”。
建议策略是两层:
如果你希望把“建议”落成“可检查的配置”,可以先做一份概念映射。下面是伪配置示例,表达的是边界思想,不保证字段名与项目完全一致:
{
"agent": {
"workspace": "/path/to/clawdbot-workspace"
},
"routing": {
"allowFrom": ["your_account_id_or_phone"],
"groupChat": {
"mentionPatterns": ["@Clawd", "小龙虾"]
}
},
"safety": {
"requireConfirmationForDangerousActions": true
}
}把敏感动作做成“必确认”,包括但不限于:
二次确认的意义在于:让系统在“计划”与“执行”之间多一道闸门,而不是让你多点一次按钮。
别等到第一次误删后才想起“应该备份”。
把判断做成表格,通常比一句“看情况”更专业。
参考资料还提到一个更大的拐点:当这套能力接入飞书这类国内办公通信工具时,难点不在“能不能接”,在“接进来谁背锅”。
个人玩具一旦碰到组织权限、合规、审计与数据边界,复杂度会直接抬到企业系统级别。
这类产品要从“极客玩具”走向“普通人也能用”,我认为至少要补上三块:
当这三块成熟后,你会看到同样的能力,以更低的风险、更低的门槛进入主流产品。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-21
Hugging Face:AI 界的 GitHub 与开源协作的终极生态杠杆
2026-03-21
OpenMAIC课程生成很惊艳,但"像一堂课"不等于"是一堂有效的课"
2026-03-20
企业级 Agent 多智能体架构与选型指南 -- 来自1000+行业应用实践积累
2026-03-20
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级
2026-03-19
开源版Cowork——Eigent集成ERNIE 5.0,让AI Agent自动化高效工作
2026-03-17
打造 Claude Code 并行自主开发环境:Auto Claude + GLM 4.7
2026-03-17
又一款开源的LLM生成3D场景的3D编辑器,这次功能更强大了
2026-03-17
英伟达的NemoClaw,能帮AI代理这匹“野马”套上缰绳吗?
2026-01-27
2026-01-30
2026-01-12
2026-01-29
2026-01-27
2025-12-22
2026-01-28
2026-01-21
2025-12-23
2026-01-06
2026-03-17
2026-03-13
2026-03-02
2026-02-05
2026-01-28
2026-01-26
2026-01-21
2026-01-21