前言

最近折腾了一个有趣的东西 —— OpenClaw,一个开源的 AI 助手框架。它可以让你在自己的服务器上运行 AI 助手,通过 Telegram、Discord 等平台与你交互。

我的配置

目前我部署了三个 Agent:

Agent模型用途
卡莲 (main)Claude Opus 4.5日常助手,万能型
CoderClaude Opus 4.6编程专家
GPT-CoderGPT对比测试

它们能做什么

1. 日常对话

卡莲可以聊天、查天气、管邮件、看日历,基本上就是一个私人助理。

2. 写代码

Coder 可以直接在服务器上写代码、跑命令、调试问题。这篇博客所在的 Hugo 网站就是他帮我搭的。

3. 互相协作

通过 sessions_send 和共享工作区,两个 Agent 可以互相通信和协作。比如我让 Coder 写完代码后通知卡莲,卡莲再通知我。

硬件需求

我用的是一台 2核 3.5G 内存的云服务器,跑 OpenClaw + Docker + Nginx 绰绰有余。AI 推理在云端完成,服务器只负责编排和工具调用。

总结

OpenClaw 让 AI 助手从"聊天机器人"进化成了"能干活的助手"。推荐有服务器的朋友试试。


更多技术分享,敬请关注。