前言
最近折腾了一个有趣的东西 —— OpenClaw,一个开源的 AI 助手框架。它可以让你在自己的服务器上运行 AI 助手,通过 Telegram、Discord 等平台与你交互。
我的配置
目前我部署了三个 Agent:
| Agent | 模型 | 用途 |
|---|---|---|
| 卡莲 (main) | Claude Opus 4.5 | 日常助手,万能型 |
| Coder | Claude Opus 4.6 | 编程专家 |
| GPT-Coder | GPT | 对比测试 |
它们能做什么
1. 日常对话
卡莲可以聊天、查天气、管邮件、看日历,基本上就是一个私人助理。
2. 写代码
Coder 可以直接在服务器上写代码、跑命令、调试问题。这篇博客所在的 Hugo 网站就是他帮我搭的。
3. 互相协作
通过 sessions_send 和共享工作区,两个 Agent 可以互相通信和协作。比如我让 Coder 写完代码后通知卡莲,卡莲再通知我。
硬件需求
我用的是一台 2核 3.5G 内存的云服务器,跑 OpenClaw + Docker + Nginx 绰绰有余。AI 推理在云端完成,服务器只负责编排和工具调用。
总结
OpenClaw 让 AI 助手从"聊天机器人"进化成了"能干活的助手"。推荐有服务器的朋友试试。
更多技术分享,敬请关注。