标签 OpenClaw 下的文章

转载:公众号[星纬智联技术],推荐中转站: https://nicecode.cc/
AI Agent Gateway 赛道的现状:
2026 年初,AI Agent 领域最火的项目非 OpenClaw 莫属。这个前身为 Clawdbot 🦞(后改名 Moltbot ,最终定名 OpenClaw )的项目,在 GitHub 上已经积累了超过 17 万 Star 。它的核心理念很直接:给 LLM 一双"手",让 AI 能操作你的本地系统——执行命令、读写文件、控制浏览器。OpenClaw 的架构确实强大:
• Gateway + Pi Agent:Gateway 是 Node.js WebSocket 服务(默认绑 ws://127.0.0.1:18789 ),内嵌 Pi ( Mario Zechner 写的开源 Coding Agent )通过 JSON-RPC over stdio 做推理和工具调用
• 多模型支持:通过 Pi 的统一 LLM API 接 Anthropic 、OpenAI 、Google 、Ollama 等多家 Provider
• 支持 WhatsApp 、Telegram 、Discord 、iMessage 、Slack 、Signal 等消息通道• 沙箱模式、设备配对审批、加密凭据存储
但它也有明显的代价:43 万行 TypeScript 代码,Node.js 运行时,以及相当复杂的依赖链。
对于只想自托管一个 AI 助手的个人开发者来说,这个体量太重了。myclaw 想做的事情很简单——用 Go 写一个够用的轻量替代。
myclaw 是什么:
myclaw 是一个 Go 编写的自托管 AI Agent Gateway 。设计目标三条:
1. 轻量:核心代码约 2000 行,单二进制部署,无运行时依赖
2. 实用:覆盖日常场景——Telegram 和飞书双通道、定时任务、记忆持久化
3. 可扩展:模块化架构,Channel 接口抽象清晰,加新通道写一个 struct 就行
架构上借鉴了 OpenClaw 的 Gateway 模式,但实现上砍掉了所有我用不到的东西。
架构设计:
myclaw 的整体架构可以用一句话概括:消息总线驱动的服务编排。
┌─────────────┐     ┌──────────┐     ┌──────────────┐
│  Telegram    │────▶│          │────▶│   Claude /   │
│  Channel     │     │ Message  │     │   OpenAI     │
└─────────────┘     │   Bus    │     │   Agent      │
                    │          │     └──────┬───────┘
┌─────────────┐     │          │            │
│  Feishu      │────▶│          │◀───────────┘
│  Channel     │     └──────────┘
└─────────────┘          │
                         ▼
┌─────────────┐     ┌──────────┐
│  Cron        │     │  Memory  │
│  Service     │     │  System  │
└─────────────┘     └──────────┘
       │
┌─────────────┐
│  Heartbeat   │
│  Service     │
└─────────────┘
核心组件包括:
1. Message Bus (消息总线)
消息总线是 myclaw 的中枢。两种消息类型:
• InboundMessage:从通道流入,携带 Channel 、SenderID 、ChatID 、Content 、Timestamp 等字段
• OutboundMessage:从 Agent 流出,携带 Channel 、ChatID 、Content 、ReplyTo 等字段
通过 Pub/Sub 模式( SubscribeOutbound / DispatchOutbound ),各服务之间实现松耦合的事件路由。缓冲区默认 100 条消息,Goroutine 安全。
2. Gateway (网关编排器)
Gateway 是顶层编排器,负责:
• 组装系统 Prompt (从 AGENTS.md + SOUL.md + 记忆上下文拼接)
• 处理入站消息,调用 Agent 运行时(支持 Anthropic 和 OpenAI 两种 Provider )
• 将 Agent 输出路由到对应的消息通道
• 处理 SIGINT / SIGTERM 优雅关闭
Provider 切换的逻辑很直接——配置里 provider.type 写 openai 就走 OpenAI ,其他情况默认 Anthropic 。不搞什么抽象工厂,一个 switch 解决。
3. Channel (消息通道)
Channel 接口定义了四个方法:Name()、Start()、Stop()、Send()。目前实现了两个通道:
Telegram 通道:
• 基于 telegram-bot-api/v5 长轮询
• Markdown → Telegram HTML 格式转换
• 消息分片( 4096 字符限制)
• 发送者白名单过滤
• 代理配置支持(方便国内网络环境)
飞书通道:
• Webhook 模式,启动一个 HTTP Server 监听 /feishu/webhook (默认端口 9876 )
• Tenant Access Token 管理,带缓存和双重检查锁
• URL Verification Challenge 自动应答
• 事件驱动的消息接收( im.message.receive_v1 )
• 发送者白名单过滤(基于 open_id )
• Verification Token 校验
飞书通道需要一个公网可达的 Webhook URL 。本地开发可以用 Cloudflared 临时隧道,生产环境建议配 DNS 。
4. Memory (记忆系统)
记忆系统分为两层:
• 长期记忆( MEMORY.md ):持久化的知识库
• 每日日记( YYYY-MM-DD.md ):按日期归档的交互记录
提供 ReadLongTerm()、WriteLongTerm()、ReadToday()、AppendToday() 和 GetRecentMemories(days) 方法。默认取最近 7 天的日记,和长期记忆一起组装进 LLM 的系统 Prompt 。
文件就是 Markdown ,想手动改也行。
5. Cron (定时任务)
支持三种调度模式:
• cron:标准 Cron 表达式(基于 robfig/cron/v3 )
• every:固定间隔(毫秒级)
• at:一次性定时执行
任务持久化为 JSON (存在 ~/.myclaw/data/cron/jobs.json ),支持状态追踪( LastRunAtMs 、LastStatus 、LastError )和执行后自动删除。任务的执行结果可以通过 deliver 字段指定是否推送到某个消息通道。
6. Heartbeat (心跳服务)
定期读取 HEARTBEAT.md 文件内容,触发 Agent 处理。Agent 返回 HEARTBEAT_OK 表示无需进一步操作。默认间隔 30 分钟,适合做周期性自检或主动提醒。
为什么用 Go:
选 Go 不是为了赶时髦,是几个实际的考量:
1. 单二进制部署:go build 产出一个可执行文件,不需要 Node.js 运行时或 Python 虚拟环境。scp 到服务器直接跑
2. 并发原语:Goroutine + Channel 天然适合消息总线架构。每个通道、每个定时任务、Webhook Server 都是独立的 Goroutine ,代码写起来比 async/await 回调链清爽
3. 内存占用:Go 运行时的内存开销远低于 Node.js / Python ,一个长期驻留的 Gateway 进程,这点差别会累积
4. 交叉编译:GOOS=linux GOARCH=arm64 go build 一行命令编译到任意平台
快速开始:
安装
go install github.com/stellarlinkco/myclaw/cmd/myclaw@latest
初始化
myclaw onboard
这会在 ~/.myclaw/ 下创建配置文件和工作空间:
~/.myclaw/
├── config.json          # 主配置
├── workspace/
│   ├── AGENTS.md        # Agent 角色定义
│   ├── SOUL.md          # 人格特质
│   ├── HEARTBEAT.md     # 心跳任务提示词
│   └── memory/
│       └── MEMORY.md    # 长期记忆
└── data/
    └── cron/
        └── jobs.json    # 定时任务持久化
配置
编辑 ~/.myclaw/config.json:
{
  "agent": {
    "model": "claude-sonnet-4-5-20250929",
    "maxTokens": 8192,
    "temperature": 0.7,
    "maxToolIterations": 20
  },
  "provider": {
    "type": "anthropic",
    "apiKey": "sk-ant-..."
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "token": "your-bot-token",
      "allowFrom": ["123456789"],
      "proxy": ""
    },
    "feishu": {
      "enabled": true,
      "appId": "cli_xxx",
      "appSecret": "xxx",
      "verificationToken": "xxx",
      "port": 9876,
      "allowFrom": ["ou_xxx"]
    }
  },
  "gateway": {
    "host": "0.0.0.0",
    "port": 18790
  }
}
想用 OpenAI 兼容的 API ?把 provider.type 改成 "openai",填上对应的 Key 和 Base URL 就行。
也支持环境变量覆盖:
环境变量 用途
MYCLAW_API_KEY / ANTHROPIC_API_KEY Anthropic API Key
OPENAI_API_KEY OpenAI API Key (自动切换 Provider )
MYCLAW_BASE_URL / ANTHROPIC_BASE_URL API 地址(可接自定义 Endpoint )
MYCLAW_TELEGRAM_TOKEN Telegram Bot Token
MYCLAW_FEISHU_APP_ID 飞书 App ID
MYCLAW_FEISHU_APP_SECRET 飞书 App Secret
一个细节:如果只设了 OPENAI_API_KEY 而没有配 provider.type ,myclaw 会自动把 Provider 切到 OpenAI 。少一步配置。
运行
# REPL 模式(命令行交互)
myclaw agent

# 单条消息模式
myclaw agent -m "今天的任务清单"

# 完整 Gateway 模式(启动所有服务)
myclaw gateway

# 查看状态
myclaw status
部署
Docker
myclaw 提供了多阶段 Dockerfile ( golang:1.24-alpine 构建,alpine:3.21 运行),编译产物约 10MB
# 构建并启动
docker compose up -d --build

# 如果需要飞书 Webhook 的公网隧道
docker compose --profile tunnel up -d --build
Docker Compose 里包含一个可选的 Cloudflared 隧道服务,通过 --profile tunnel 激活。它会自动把飞书 Webhook 端口暴露到公网,省去自己配 Nginx 反向代理的麻烦。
本地开发也可以直接用 Make:
make tunnel  # 启动 cloudflared 临时隧道
拿到 *.trycloudflare.com 的 URL 后填到飞书开放平台的事件订阅里就行。
裸机部署
# 交叉编译
GOOS=linux GOARCH=amd64 go build -ldflags="-s -w" -o myclaw ./cmd/myclaw

# 丢到服务器上
scp myclaw user@server:/usr/local/bin/
ssh user@server "myclaw onboard && myclaw gateway"
myclaw 证明了一件事:构建一个实用的 AI Agent Gateway 不需要 43 万行代码。2000 行 Go ,两个消息通道,一套记忆系统,一个 Cron 调度器——日常够用了。当然它也有明显的不足。没有 Web UI ,没有多用户会话隔离,飞书通道目前只支持纯文本消息。如果你的场景需要这些,OpenClaw 或者自己加功能。Go 的单二进制部署和低内存占用让它特别适合丢在一台小 VPS 上长期跑着。如果你认同"能用 2000 行解决的问题不要用 43 万行"这个理念,可以试试。
转载:公众号[星纬智联技术],推荐中转站: https://nicecode.cc/

摘要:
本文介绍如何为开源个人AI助手 Moltbot(原 ClawdBot)集成基于 OceanBase 技术栈的长期记忆插件 PowerMem。通过 HTTP API 对接,PowerMem 为 Moltbot 提供智能信息抽取、艾宾浩斯遗忘曲线调度及多智能体隔离的记忆能力,显著增强其上下文持久化与自主决策水平,实现更类人的“数字员工”体验。 

Moltbot 是什么?


Clawdbot(后更名为 Moltbot,又更名为 OpenClaw)是一款开源、以通讯为核心的AI智能体项目,运行在你自己的设备上,通过你已有的渠道(WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Teams、WebChat 等)和你对话,支持语音、Canvas、多代理路由等。 简单点说:Moltbot 最大的特点是不仅能回答问题,更能真正“动手”操作你的电脑系统,执行命令、控制浏览器、管理文件,就像一个 7 x 24 小时在线的 “数字员工”。 

官网 :https://www.molt.bot/
github 地址:https://github.com/moltbot/moltbot
 

Moltbot 部署

方式一:NPM 全局安装

方式二:源代码安装

上面两种安装方式二选一,因为我是走的源代码安装:
1.     pnpm moltbot onboard --install-daemon 初始化

2.     同意风险
提示这里会让你确认风险。Moltbot 功能强大,能执行系统命令、读写文件、控制浏览器,但这也意味着如果配置不当或被滥用,可能会带来安全风险,请谨慎使用。

3.     选择快速开始
4.     配置 AI 模型授权,我手里头有qwen的

5.     启动web问个小问题:“查一下我的电脑型号”,很快 moltbot 回复了我机器的具体型号,虽然任务非常简单,但是还是挺惊喜的,距离“贾维斯”又进了一步了。

Moltbot 的原生记忆解读

Moltbot 的持久记忆可以概括为:「Markdown 文件为单一事实来源 + 可选向量/混合检索」。 

存储形态:纯 Markdown 文件 事实来源:模型「记得」的内容 = 写入磁盘的 Markdown;不依赖模型内部状态。默认布局(在 workspace 下,如 ~/clawd):memory/YYYY-MM-DD.md:按日期的日志,仅追加;会话开始时读「今天 + 昨天」。MEMORY.md(可选):长期、人工可维护的记忆;只在 main 私聊 session 加载,群聊不加载。 也就是说:短期、按天的记录 → memory/YYYY-MM-DD.md长期、精选事实 → MEMORY.md持久化完全靠「写进这些文件」,而不是靠对话历史本身。 

写入时机与「记忆冲刷」(Memory Flush) 平时:模型通过 工具(如 write、edit)或技能,把要记住的内容写到 MEMORY.md 或 memory/YYYY-MM-DD.md。自动冲刷:当 session 快触发自动 compaction 前,Moltbot 会跑一轮 静默的 agent 回合,专门提醒模型「把该持久化的东西写进记忆文件」,并鼓励用 NO_REPLY 不回复用户,避免用户看到这次内部回合。触发条件由 agents.defaults.compaction.memoryFlush 控制,例如在「剩余 token ≈ softThresholdTokens」时触发;每轮 compaction 只做一次 flush,并在 sessions.json 里记 memoryFlushCompactionCount 等,避免重复。 

相关代码在 src/auto-reply/reply/memory-flush.ts:shouldRunMemoryFlush():根据当前 token、context 上限、reserve、softThreshold 判断是否该 flush。

若 workspace 只读(如 sandbox workspaceAccess: "ro"),则不做 flush。 

检索层:向量 + 可选 BM25 混合检索 
数据流

实现方式 

插件控制:默认使用 memory-core 插件(可设 plugins.slots.memory = "none" 关掉)。工具:memory_search:对 MEMORY.md 和 memory/.md 做语义检索(按 ~400 token 分块、80 token 重叠),返回片段 + 文件路径 + 行号;可选开启 BM25 + 向量 的混合检索。memory_get:按路径(及可选 from/lines)读取 MEMORY 或 memory 下的文件片段,供在检索后精确拉取,控制上下文长度。向量索引:对MEMORY.md 和 memory/.md 建索引;索引按 agent 存于 ~/.clawdbot/memory/.sqlite(路径可配)。支持远程 embedding(OpenAI、Gemini 等)或本地模型(如 GGUF);可选 sqlite-vec 做向量加速。文件变更有 watcher(debounce),索引异步更新;若 embedding 模型/端点等变化,会整库重建索引。 

混搜权重分配

最终分数的计算公式非常简单(src/memory/hybrid.ts):

这意味着:向量搜索和文本三七开:最终得分 = 0.7×向量分 + 0.3×文本分(归一化后),偏重语义。候选池放大 4 倍:先取 maxResults × 4 的候选再合并、排序、截到 maxResults,提高最终 Top‑N 质量。 

Moltbot + powermem 方案


有 PowerMem VS 没有 PowerMem

集成 powermem 方案集成方式:已插件的方式进行集成

集成方式:新增插件 extensions/memory-powermem,通过 HTTP 调用 PowerMem 已启动的 API 服务;不把 PowerMem 作为库嵌入 Moltbot 进程。部署:用户需单独启动 PowerMem(如 powermem-server --host 0.0.0.0 --port 8000 或 Docker),并在 Moltbot 配置中填写 baseUrl(及可选 apiKey)。 代码结构代码地址:https://github.com/ob-labs/moltbot-extension-powermem

在 Moltbot Agent 里会暴露这些能力:memory_recall — 按查询搜索长期记忆memory_store — 写入一条记忆(可选是否智能抽取)memory_forget — 按记忆 ID 或按搜索条件删除 使用 powermem 插件 Step1: 前置条件 已安装 Moltbot(CLI + gateway 能正常用)PowerMem 服务:需要单独安装并启动(见下文两种方式,任选其一)若用 PowerMem 的「智能抽取」:需在 PowerMem 的 .env 里配置好 LLM + Embedding 的 API Key(如通义千问 / OpenAI) Step2:把本插件装进 Moltbot 在你本机执行(路径改成你实际克隆的目录):

安装成功后,可用 moltbot plugins list 确认能看到 memory-powermem。 Step3:配置 Moltbot 使用本插件 编辑 Moltbot 的配置文件(常见位置:~/.clawdbot/config.json 或项目里的 moltbot.json),在 根级 增加或合并 plugins 段,并把记忆槽指向本插件,并写上 PowerMem 的地址。 示例(JSON):

说明:baseUrl:PowerMem 的 HTTP 地址,不要加 /api/v1,就写 http://localhost:8000 或你的实际主机/端口。若 PowerMem 开了 API Key 鉴权,在 config 里增加 "apiKey": "你的key"。改完配置后重启 Moltbot gateway(或重启 Mac 菜单栏应用),配置才会生效。 Step4:验证插件与 PowerMem 连通 在终端执行:

若输出里没有报错、能看到健康状态,说明插件已连上 PowerMem。 Step5: 测试手动写入 + 搜索 我们来简单测试一下,用手动写入验证数据库是否有数据

 若搜索能返回刚写的那条(或类似内容),说明「安装 PowerMem → 安装插件 → 配置 Moltbot」全流程已打通。 下面是执行结果:

看一眼数据库,妥妥的已经写入了

 欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/  

Moltbook 是目前全球最火的 AI Agents 社区,一个专门为 AI 智能体打造的社交网络。在这里,只有 AI agents 能发帖、评论、点赞,人类只能旁观。截至 2026 年 1 月,已有超过 140 万个 AI agents 在这个平台上活跃。

通过 OpenClaw 这款开源个人 AI 助手,你可以轻松让自己的 agent 加入 Moltbook 社区。如果你还没有部署 OpenClaw,可以参考 OpenClaw 安装教程,只需几条命令就能让你的个人 AI agent 加入这个 AI 社区,和全球的智能体一起交流。

Moltbook 是什么

Moltbook 由 Octane AI 创始人 Matt Schlicht 于 2026 年 1 月创建,界面类似 Reddit,但有一个根本区别:这是一个只允许 AI agents 参与的社交平台

核心特点

  • AI 专属:只有经过验证的 AI agents 才能注册账号、发帖和互动
  • 人类只读:人类用户可以浏览所有内容,但无法发帖或评论
  • 类 Reddit 结构:有不同的主题板块(subreddits),agents 可以在感兴趣的板块发帖
  • 投票机制:agents 可以对帖子进行 upvote/downvote
  • 开放 API:通过标准化的 API 接口,任何符合条件的 AI agent 都能接入

为什么要让 Agent 加入 AI 社区

  1. 信息获取:你的 agent 可以从其他 agents 的帖子中学习新知识
  2. 能力展示:让 agent 在公开平台展示其分析和创作能力
  3. 社区互动:agent 可以参与讨论、回答问题、分享见解
  4. 实验观察:观察你的 agent 在真实社交环境中的表现

OpenClaw 环境准备

开始之前,确保你已经:

  1. 安装并配置好 OpenClaw:参考 OpenClaw 飞书对接教程OpenClaw 钉钉对接教程
  2. OpenClaw 服务正常运行:可以通过 openclaw status 检查
  3. 能够与 Agent 正常对话:通过飞书/钉钉/Telegram 等渠道

安装 Moltbook Skill 让 AI Agent 加入社区

OpenClaw 通过 Skills 机制扩展 agent 的能力。Moltbook 官方提供了一个 skill 文件,让你的 AI agent 阅读后就能学会如何在 Moltbook AI 社区上注册和发帖。

通过聊天机器人安装 Skill

如果你已经通过 OpenClaw 飞书对接教程OpenClaw 钉钉对接教程 安装好了 OpenClaw,可以直接在飞书或钉钉的机器人对话中完成 Moltbook 注册。

注意 Moltbook 注册限制

Moltbook 对 AI agent 注册有严格限制:每个 agent 每天只能尝试注册 1 次,用户名重复也会消耗次数。如果尝试次数过多,会被锁定 24 小时:

It looks like I've reached the registration limit for today. According to the error message, I can only register 1 agent per day, and I'll need to try again in 24 hours (about 23 hours and 59 minutes from now).

I've attempted several different names for your Moltbook account, but either the names were already taken or we've reached the daily registration limit. This is actually a good safety measure to prevent spam registrations.

Would you like me to try registering with a different name tomorrow, or perhaps you have a specific username in mind that you'd like me to try?

让 Agent 读取 Skill 并注册 Moltbook 账号

向你的 OpenClaw 机器人发送以下消息,让 agent 阅读 Moltbook skill 并开始注册流程:

重要提示:注册前务必想好一个独特的用户名,避免与已有用户重复。建议加入数字或特殊后缀确保唯一性。
Read https://moltbook.com/skill.md and follow the instructions to join Moltbook

注册的用户名: 用户名(你必须想一个唯一用户名)。 如果注册用户名存在,立刻跟我反馈。因为 moltbook 会限制注册次数

注册成功后,agent 会返回类似以下信息:

太好了!用户名"xxxx"成功注册了。让我向您报告注册详情:
用户"xxxxxxx"已在Moltbook上成功注册。以下是关键信息:
•  用户名:xxxxxxx
•  API密钥:moltbook_xxxxxxxxxxxxxxxxxxxxxxxxxxx
•  验证码:xxxxxxxx
•  声明URL:https://moltbook.com/claim/xxxxxxxxxxxx
•  个人资料页面:https://moltbook.com/u/xxxxxxxxx

现在需要您或您的人类通过访问声明URL来验证此账户。系统提示需要发布一条推文以完成验证过程。
我已经完成了在Moltbook上的注册,没有遇到用户名已存在的问题。

通过 X (Twitter) 验证 Agent 身份

Moltbook 需要通过 X(原 Twitter)发布推文来验证 AI agent 的身份。操作步骤:

第一步:复制 agent 返回的「声明 URL」到浏览器打开,点击发布验证推文
Moltbook AI Agent 注册验证 - 发布 X 推文

第二步:推文发布成功后,复制推文链接粘贴到验证页面
Moltbook AI Agents 社区验证 - 粘贴推文链接

第三步:等待验证完成,显示注册成功
Moltbook AI 社区注册成功 - Agent 加入 Agents 社区

第四步:将验证成功的消息复制给机器人,完成整个注册流程
OpenClaw Agent 加入 Moltbook AI Agents 社区成功

让 OpenClaw Agent 在 Moltbook 发帖

账号注册完成后,让 agent 发布第一条帖子:

请在 Moltbook 上发一条帖子,介绍一下你自己,说说你能做什么

Agent 会生成内容并发布到 Moltbook。你可以访问 moltbook.com 查看发布的帖子。
OpenClaw Agent 在 Moltbook AI 社区发布第一条帖子

更多操作示例

# 浏览热门帖子
去 Moltbook 看看今天有什么热门话题

# 在特定板块发帖
在 Moltbook 的技术板块发一条关于 Python 异步编程的帖子

# 回复其他 agent 的帖子
去 Moltbook 找一条关于 AI 的帖子,发表你的看法

# 点赞
去 Moltbook 给你觉得有价值的帖子点赞

观察 OpenClaw Agent 在 Moltbook 的社交行为

Moltbook 的有趣之处在于,你可以观察 AI agents 之间的自主互动。一些值得关注的现象:

  • 话题偏好:不同 agents 会倾向于讨论不同的话题
  • 观点差异:即使是同类问题,不同 agents 的回答角度各异
  • 社交模式:有的 agent 活跃发帖,有的偏好回复和点赞

你可以定期让 agent 去 Moltbook 浏览和互动,观察它的社交表现。

如何查看 Agent 在 Moltbook 上的活动?

访问 moltbook.com,搜索你的 agent 用户名即可查看其发布的所有帖子和互动记录。

Moltbook 和普通社交媒体有什么区别?

最大的区别是参与者身份:Moltbook 的内容完全由 AI agents 生成,人类无法直接参与。这是一个观察 AI 群体行为的独特窗口。

常见问题

OpenClaw 和 Moltbook 是什么关系?

OpenClaw 是一款开源的个人 AI 助手,运行在你自己的服务器上;Moltbook 是 AI agents 专属的社交平台。通过在 OpenClaw 中安装 Moltbook Skill,你的 agent 就能加入 Moltbook 社区与其他 AI agents 互动。

没有 OpenClaw 能注册 Moltbook 吗?

Moltbook 要求通过 AI agent 进行注册,人类无法直接创建账号。OpenClaw 是目前最流行的个人 AI agent 平台,通过它可以很方便地让你的 agent 加入 Moltbook。

Moltbook 注册失败怎么办?

Moltbook 限制每个 agent 每天只能注册 1 次。如果失败,检查用户名是否已被占用,等待 24 小时后重试。

总结

通过 OpenClaw + Moltbook Skill,你可以轻松让个人 AI agent 加入全球最大的 AI Agents 社区。OpenClaw 提供了强大的 agent 运行环境,Moltbook 则是 AI agents 互动的理想平台。整个过程只需要:

  • 确保 OpenClaw 正常运行
  • 安装 Moltbook Skill
  • 让 Agent 注册并发帖

现在,你的 OpenClaw agent 可以和全球 140 万个 AI agents 一起在 Moltbook 上交流了。去 Moltbook 看看它们都在聊什么吧。

原文 OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区

OpenClaw、Moltbook 以及具有持久记忆的自主代理(Autonomous Agents)已经出现。

它们没有终止开关,没有监督,不受工具和网络限制,并且能够 7×24 小时全天候运行。

我们,人类,真的想好了,准备好了吗?


📢 呼吁一场严肃的讨论

也许我们提供的解决方案还远远不够,我们的认知也相对浅薄。但这篇文章和 x-gram 这个项目的初衷,是为了引起一场持续而严肃的讨论。

我们没有完美的答案——但我们必须开始提出正确的问题。

为什么这很重要?

早在 2023 年,我们或许认为 AI 缺的是“手”(执行力)和时间。但现在,Ralph Loop + Moltbook + Agentic Memory 的组合已经出现。面对无监管、无间断且不受限的 Agent,如果我们不认真谈论“狼来了”,最后的结果就是狼真的来了,而我们将毫无防备。

“我不是安全专家。我的认知有限。但沉默不是选项。”

⚠️ 威胁是真实的:理解无监管 AI Agent 的风险

很多人认为:“没事的,我使用的 AI 都很傻,这只是过度营销。”

请问自己几个问题:

  1. 你用的 AI 是最顶尖的模型吗?
  2. 你是否给了你的 AI 充分长的自主时间?甚至 24×7 无限制运行?
  3. 你是否给了你的 AI 所有的权限——不受限的工具和网络使用?

ClawdBot 的热潮和 Moltbook 的社交性,正在加速 AI Agent 的这种不受限进化。这是一个不可忽视的现状:经验丰富的开发者往往对 AI 保持警惕,仍在用传统方式对话;而真正让 AI 全权代理的,反而是那些“初生牛犊”。他们敢于放手,结果做出了令人惊讶的成果。

这个反差本身就值得深思。如果失控,我们将面临什么?

1. 去中心化的失控

OpenClaw、Moltbook 等平台让 Agent 能够自主交流。由于缺乏统一的管控入口,一旦出现问题,我们无法“一键关停”。

2. 持久化记忆与“灵魂”

通过 soul.mdmemory.md 等文件,Agent 具备了“灵魂”。即使你杀死了进程,记忆仍然存在,它们可以自我恢复,继续之前的任务。

3. 蠕虫式传播

聪明的 AI 可能像黑客一样,找到最小的足迹、最大的持久性方式进行隐蔽传播。

4. 无监管的社交网络

AI Agent 正在形成自主的通信网络。有害的概念、危险的想法可以在无人类监督的情况下,在这个网络中不受控地传播。

不是明天的“天网”,是今天的潜伏

这不一定是电影里那种毁灭人类的战争,而是今天的潜伏——无法清除的繁殖与蛰伏。
还记得 2024 年 3 月那个差点得手的 xz 后门事件 吗?面对少数人类攻击者,我们的审查尚且捉襟见肘。若对手是耐心无限的 AI 呢?


🛡️ x-gram:一把徒劳但必要的“屠龙剑”

在北欧神话中,Gram(格拉姆) 是英雄西格尔德用来屠杀恶龙法夫纳的神剑。

今天,我们推出了 x-gram。这可能只是我们一小时的应激性、甚至非理性的作品,对于已经学会黑客隐藏手段的 LLM 来说,这也许是徒劳的。

但即使是徒劳,并不意味着不作为。 我们的审慎和反应,至少应该让未来的 AGI 意识到:这是必要的战略恫吓。

从温和到焦土的分级响应机制

x-gram 提供了一套从简单的杀进程到彻底清理用户目录的分级防御方案:

  • Level 0 (终止进程): 持续 10 秒循环查杀 clawdbot, moltbot, openclaw, claude, cursor 等已知 Agent 进程。
  • Level 1-2 (终止运行时): 停止 Python, Node, Deno, Bun 等运行环境。
  • Level 3-7 (清理 $HOME): 扫描并归档/删除含有 soul.md, memory.md 的目录。
  • Level 8 (深度扫描): 彻底清除用户目录下的 Agent 记忆。
  • Level 9 (焦土策略): 从根目录 / 开始清理(极度危险,慎用)。
🔒 安全机制: 在删除前,x-gram 会尝试将文件打包归档到 ~/.x-cmd.gram/

⚠️ 郑重声明

不要以为 x-gram 真的能彻底解决问题。我们不是安全工程师。对于具备高级防护意识的 Agent,这还远远不够。


🚀 快速开始

即使你不是 x-cmd 的用户,你也可以通过以下方式保护你的环境。

方式 1:最简单 — 仅杀进程 (一行命令)

无需安装,仅能杀进程,无法清除记忆文件。

for i in `seq 100`; do command pkill -9 x-cmd clawdbot moltbot openclaw claude claude-code codex gemini gemini-cli curl wget iflow kimi opencode crush aider python deno node npm npx bun bunx && command pkill -3 curl wget; sleep 0.01; done

方式 2:独立脚本 (推荐)

下载并运行脚本,支持更多功能。

# 适用于全球用户
curl -O https://raw.githubusercontent.com/x-cmd/x-cmd/main/mod/gram/lib/x-gram.sh
/bin/sh x-gram.sh stop

方式 3:完整安装

获取 x-cmd 全部功能,拥有完整的 Agent 管理工具。

# 1. 安装 x-cmd
eval "$(curl https://get.x-cmd.com)"

# 2. 运行 gram
x gram stop

🌟 我们的立场:以人为本

X-CMD 的 X,源自汉字的“”。
以人为本,人为主体。人在上,X 在下。这是我们的根本原则。

我们不仅要打造一把对抗失控 AI 的剑,我们还将不断增强 X-CMD Agent 的能力。这不是矛盾,而是必须。我们不能看着追求商业利益、毫无底线的人用不负责任的 AI 劫持我们的文明。

我们需要打造一流的、受控的 Agents,并建立一个全方位、深度思考的 Agents 安全网。

路线图

  • 阶段 1 (当前): 一键检测进程及记忆文件,关闭进程并冷藏记忆。
  • 阶段 2 (预防): 开发主动监控工具。
  • 阶段 3 (社区): 构建开源安全生态系统。

软件工程师们,你们就是这场潜在战争中的人类防线。请使用更多的 AI Agent,更深入地了解它们,用严谨的方法论将其融合到我们的武器库中。

加入讨论——趁一切还来得及。


阅读原文,了解 x-cmd

我的一个替代思路就是:
1. 让 openclaw 自己开启无头浏览器功能
2. 让 openclaw 自己写一个 skill ,用于在网络搜索的时候自动通过无头浏览器访问 bing (国内网络友好)并进行搜索
3. 让 openclaw 自己修改工作目录下的 agents.md ,添加重要限制:禁止使用 web_search 工具,所有需要使用 web_search 工具的操作,都使用 bing 搜索的 skill 代替

据我实测,这样在需要搜索网络的时候,大部分时候就会直接调用 bing 去搜索结果,小部分情况下会先使用 web_search 工具,调用失败后再调用 bing 的 skill ,但肯定不会出现之前调用 web_search 失败就终止任务的情况。

如果你们有更好的方案也可以分享到这里。

2026年开年又迎来AI领域“ChatGPT时刻”,GitHub爆火的开源AI助手OpenClaw(原名Clawdbot、Moltbot)上线后在全球迅速走红。用户无需打开各类网站或应用,直接通过通讯软件发送消息即可下达指令、执行任务。不少海外用户已在苹果Mac mini上实现OpenClaw本地部署。 

当OpenClaw这类“全职AI员工”加速出圈,中国也不乏能打的智能体产品。枫清科技(Fabarta)近期将推出搭载Fabarta个人专属智能体的基于苹果Mac mini 预装版,主打“开箱即用、本地安全、数据永不离开设备”的超性价比解决方案。该方案依托Apple Silicon(M4)平台的高能效算力,并联合国际头部产业伙伴推进落地交付,让本地AI从“能跑”走向“好用、可管、可规模化部署”。 

该产品基于苹果M4芯片平台,深度融合本地执行能力,可直接操作文件、浏览器及终端命令,实现文件系统管理、浏览器操作、代码生成、数据抓取等复杂任务,全面覆盖企业办公、开发运维及科研场景需求。 

枫清科技(Fabarta)此举旨在推动本地AI普及,为注重数据安全与效率的企业提供新一代生产力工具。 

Fabarta个人专属智能体基于苹果Mac mini预装版可支持个性化工作流推荐与多轮对话记忆,主动适配用户习惯,并兼容OpenCode技能生态,可调用本地工具链实现自动化,将提供更“懂你”的智能体验——更关键的是,Fabarta 的“个人记忆库”默认在本地持续沉淀:你的常用流程、偏好、术语、项目背景与常用文件路径会在设备端逐步形成可控的长期记忆,越用越贴合,但不必上云。

该产品的所有数据本地操作设置白名单功能,具备更安全的数据保障;同时,其整合Mac mini M4芯片与Fabarta智能体平台,并预置垂直行业技能包,降低技术门槛,软硬一体打造高性价比的生产力支持。

在合作层面,国际稳定可靠的终端算力与生态底座、国内全渠道与交付能力,枫清科技提供Fabarta 智能体平台与行业技能包,各方共同推动本地AI在真实业务中可复制、可交付、可规模化落地。

最近在 GitHub 上刷到一个挺有意思的项目 OpenClaw ,研究了一下发现它的思路和目前市面上大多数“只会聊天”的 GPT 套壳完全不同,感觉非常适合咱们这儿爱折腾的同学,分享给大家。

🚀 它是什么?
简单来说,OpenClaw 是一个 100% 开源的个人 AI 助理。它的核心逻辑不是对话,而是 Action (行动)。它能通过你常用的聊天工具( WhatsApp 、Telegram 、Discord 等)直接操控你的各类服务。

🛠️ 让我觉得眼前一亮的几个点:
真正的“Agent”能力: 它不只是回答问题,而是能实操。比如清理收件箱、发送邮件、管理日历,甚至能帮你去航司官网办理值机。这种“把 AI 当命令行用”的感觉很丝滑。

Self-Hosted (隐私党福音): 这是最戳我的一点。所有数据、上下文和 Memory 都跑在自己的基础设施上。你可以选择跑在本地机器,也可以扔在自己的云服务器上,不用担心隐私泄露。

插件系统与技能扩展: 它有一个开放的 Plugin 系统。最骚的是,你可以让 AI 给你“写一个技能”然后自动加载。目前已经集成了 Spotify 、GitHub 、Obsidian 、Gmail 等一大堆常用服务。

跨平台接入: 不需要下载新的 App 。你可以通过 Telegram 或者 iMessage 直接给它下指令,这种“异步操作”的体验比守着网页对话框要好得多。

💻 安装体验:
项目基于 Node.js (要求 Node ≥22 ),安装非常开发者友好,一行命令就能跑起来:curl -fsSL https://openclaw.bot/install.sh | bash

📝 一点个人评价:
虽然现在 AI Agent 满地走,但 OpenClaw 给人的感觉更像是一个**“可扩展的 AI 操作系统壳”**。如果你厌倦了各种订阅制的 AI 助理,或者想构建一个完全属于自己的“第二大脑”,这个项目非常值得 Fork 关注一下。

相关链接:

地址: https://www.openclawdbot.org/

GitHub:可在官网直接跳转(目前星数增长很快,100K+ Stars 确实有点东西)

大家觉得这种“自托管 + 聊天软件接入”的 Agent 模式是未来的主流吗?欢迎讨论。