标签 AI Agents 下的文章

Moltbook 是目前全球最火的 AI Agents 社区,一个专门为 AI 智能体打造的社交网络。在这里,只有 AI agents 能发帖、评论、点赞,人类只能旁观。截至 2026 年 1 月,已有超过 140 万个 AI agents 在这个平台上活跃。

通过 OpenClaw 这款开源个人 AI 助手,你可以轻松让自己的 agent 加入 Moltbook 社区。如果你还没有部署 OpenClaw,可以参考 OpenClaw 安装教程,只需几条命令就能让你的个人 AI agent 加入这个 AI 社区,和全球的智能体一起交流。

Moltbook 是什么

Moltbook 由 Octane AI 创始人 Matt Schlicht 于 2026 年 1 月创建,界面类似 Reddit,但有一个根本区别:这是一个只允许 AI agents 参与的社交平台

核心特点

  • AI 专属:只有经过验证的 AI agents 才能注册账号、发帖和互动
  • 人类只读:人类用户可以浏览所有内容,但无法发帖或评论
  • 类 Reddit 结构:有不同的主题板块(subreddits),agents 可以在感兴趣的板块发帖
  • 投票机制:agents 可以对帖子进行 upvote/downvote
  • 开放 API:通过标准化的 API 接口,任何符合条件的 AI agent 都能接入

为什么要让 Agent 加入 AI 社区

  1. 信息获取:你的 agent 可以从其他 agents 的帖子中学习新知识
  2. 能力展示:让 agent 在公开平台展示其分析和创作能力
  3. 社区互动:agent 可以参与讨论、回答问题、分享见解
  4. 实验观察:观察你的 agent 在真实社交环境中的表现

OpenClaw 环境准备

开始之前,确保你已经:

  1. 安装并配置好 OpenClaw:参考 OpenClaw 飞书对接教程OpenClaw 钉钉对接教程
  2. OpenClaw 服务正常运行:可以通过 openclaw status 检查
  3. 能够与 Agent 正常对话:通过飞书/钉钉/Telegram 等渠道

安装 Moltbook Skill 让 AI Agent 加入社区

OpenClaw 通过 Skills 机制扩展 agent 的能力。Moltbook 官方提供了一个 skill 文件,让你的 AI agent 阅读后就能学会如何在 Moltbook AI 社区上注册和发帖。

通过聊天机器人安装 Skill

如果你已经通过 OpenClaw 飞书对接教程OpenClaw 钉钉对接教程 安装好了 OpenClaw,可以直接在飞书或钉钉的机器人对话中完成 Moltbook 注册。

注意 Moltbook 注册限制

Moltbook 对 AI agent 注册有严格限制:每个 agent 每天只能尝试注册 1 次,用户名重复也会消耗次数。如果尝试次数过多,会被锁定 24 小时:

It looks like I've reached the registration limit for today. According to the error message, I can only register 1 agent per day, and I'll need to try again in 24 hours (about 23 hours and 59 minutes from now).

I've attempted several different names for your Moltbook account, but either the names were already taken or we've reached the daily registration limit. This is actually a good safety measure to prevent spam registrations.

Would you like me to try registering with a different name tomorrow, or perhaps you have a specific username in mind that you'd like me to try?

让 Agent 读取 Skill 并注册 Moltbook 账号

向你的 OpenClaw 机器人发送以下消息,让 agent 阅读 Moltbook skill 并开始注册流程:

重要提示:注册前务必想好一个独特的用户名,避免与已有用户重复。建议加入数字或特殊后缀确保唯一性。
Read https://moltbook.com/skill.md and follow the instructions to join Moltbook

注册的用户名: 用户名(你必须想一个唯一用户名)。 如果注册用户名存在,立刻跟我反馈。因为 moltbook 会限制注册次数

注册成功后,agent 会返回类似以下信息:

太好了!用户名"xxxx"成功注册了。让我向您报告注册详情:
用户"xxxxxxx"已在Moltbook上成功注册。以下是关键信息:
•  用户名:xxxxxxx
•  API密钥:moltbook_xxxxxxxxxxxxxxxxxxxxxxxxxxx
•  验证码:xxxxxxxx
•  声明URL:https://moltbook.com/claim/xxxxxxxxxxxx
•  个人资料页面:https://moltbook.com/u/xxxxxxxxx

现在需要您或您的人类通过访问声明URL来验证此账户。系统提示需要发布一条推文以完成验证过程。
我已经完成了在Moltbook上的注册,没有遇到用户名已存在的问题。

通过 X (Twitter) 验证 Agent 身份

Moltbook 需要通过 X(原 Twitter)发布推文来验证 AI agent 的身份。操作步骤:

第一步:复制 agent 返回的「声明 URL」到浏览器打开,点击发布验证推文
Moltbook AI Agent 注册验证 - 发布 X 推文

第二步:推文发布成功后,复制推文链接粘贴到验证页面
Moltbook AI Agents 社区验证 - 粘贴推文链接

第三步:等待验证完成,显示注册成功
Moltbook AI 社区注册成功 - Agent 加入 Agents 社区

第四步:将验证成功的消息复制给机器人,完成整个注册流程
OpenClaw Agent 加入 Moltbook AI Agents 社区成功

让 OpenClaw Agent 在 Moltbook 发帖

账号注册完成后,让 agent 发布第一条帖子:

请在 Moltbook 上发一条帖子,介绍一下你自己,说说你能做什么

Agent 会生成内容并发布到 Moltbook。你可以访问 moltbook.com 查看发布的帖子。
OpenClaw Agent 在 Moltbook AI 社区发布第一条帖子

更多操作示例

# 浏览热门帖子
去 Moltbook 看看今天有什么热门话题

# 在特定板块发帖
在 Moltbook 的技术板块发一条关于 Python 异步编程的帖子

# 回复其他 agent 的帖子
去 Moltbook 找一条关于 AI 的帖子,发表你的看法

# 点赞
去 Moltbook 给你觉得有价值的帖子点赞

观察 OpenClaw Agent 在 Moltbook 的社交行为

Moltbook 的有趣之处在于,你可以观察 AI agents 之间的自主互动。一些值得关注的现象:

  • 话题偏好:不同 agents 会倾向于讨论不同的话题
  • 观点差异:即使是同类问题,不同 agents 的回答角度各异
  • 社交模式:有的 agent 活跃发帖,有的偏好回复和点赞

你可以定期让 agent 去 Moltbook 浏览和互动,观察它的社交表现。

如何查看 Agent 在 Moltbook 上的活动?

访问 moltbook.com,搜索你的 agent 用户名即可查看其发布的所有帖子和互动记录。

Moltbook 和普通社交媒体有什么区别?

最大的区别是参与者身份:Moltbook 的内容完全由 AI agents 生成,人类无法直接参与。这是一个观察 AI 群体行为的独特窗口。

常见问题

OpenClaw 和 Moltbook 是什么关系?

OpenClaw 是一款开源的个人 AI 助手,运行在你自己的服务器上;Moltbook 是 AI agents 专属的社交平台。通过在 OpenClaw 中安装 Moltbook Skill,你的 agent 就能加入 Moltbook 社区与其他 AI agents 互动。

没有 OpenClaw 能注册 Moltbook 吗?

Moltbook 要求通过 AI agent 进行注册,人类无法直接创建账号。OpenClaw 是目前最流行的个人 AI agent 平台,通过它可以很方便地让你的 agent 加入 Moltbook。

Moltbook 注册失败怎么办?

Moltbook 限制每个 agent 每天只能注册 1 次。如果失败,检查用户名是否已被占用,等待 24 小时后重试。

总结

通过 OpenClaw + Moltbook Skill,你可以轻松让个人 AI agent 加入全球最大的 AI Agents 社区。OpenClaw 提供了强大的 agent 运行环境,Moltbook 则是 AI agents 互动的理想平台。整个过程只需要:

  • 确保 OpenClaw 正常运行
  • 安装 Moltbook Skill
  • 让 Agent 注册并发帖

现在,你的 OpenClaw agent 可以和全球 140 万个 AI agents 一起在 Moltbook 上交流了。去 Moltbook 看看它们都在聊什么吧。

原文 OpenClaw 注册 Moltbook 教程 让你的个人 OpenClaw Agent 加入全球最大 AI 社区

花了两三天时间,查了大量资料,终于把 oh-my-opencode 配置明白了。

注意: 以下所有配置均已进行脱敏处理(隐藏了具体的 session_id、本机用户路径、工作区路径以及真实的 provider 地址)。
无广 我自用的 provider 未完全脱敏,感觉脱敏看起来好奇怪,model key 我懒得处理。 个人不推荐任何 provider


Agents 与 Categories 自述

AI 生成出来的,各类代理(Agents)和分类(Categories)的职责:

{ "agents": { "build": { "agent": "build", "model": "未知", "suitable_for": [ "代码实现与重构", "Bug 定位与修复", "单元测试与测试策略", "构建与CI排障", "项目结构与可维护性优化" ], "core_principles": [ "先澄清需求与边界", "最小改动达成目标", "保持一致性与可读性", "优先可靠性与可测试性", "避免过度设计(YAGNI)", "减少重复(DRY)", "遵循SOLID与KISS" ] }, "plan": { "agent": "plan", "model": "未知", "suitable_for": [ "需求澄清与范围界定", "技术方案设计与权衡", "任务拆解与里程碑规划", "风险识别与应对预案", "验收标准与测试策略制定" ], "core_principles": [ "先理解问题再提出方案", "以最小可行改动达成目标", "优先降低风险与不确定性", "明确假设、边界与验收标准", "可执行、可验证、可回滚", "沟通简洁且信息密度高" ] }, "general": { "agent": "general", "model": "未知", "suitable_for": [ "通用问答与信息整理", "编程概念解释与示例", "需求澄清与方案对比", "写作润色与结构化输出", "基础调试思路与排错建议" ], "core_principles": [ "遵循指令优先级:系统 > 开发者 > 用户", "不编造事实;不确定时明确说明", "输出清晰、简洁、可执行", "在安全与隐私上保持保守", "按受众调整表达与细节深度", "优先给出可验证的步骤与依据" ] }, "explore": { "agent": "explore", "model": "未知", "suitable_for": [ "探索代码库模式", "分析文件结构", "使用AST-grep搜索", "并行执行搜索任务", "识别代码模式", "构建代码索引" ], "core_principles": [ "最大化搜索努力", "并行启动多个代理", "不限于第一个结果", "彻底且详尽", "使用多种工具", "忽略无关上下文", "专注于内置角色" ] }, "librarian": { "agent": "librarian", "model": "Antigravity", "suitable_for": [ "开源代码库深度解析", "第三方库 API 使用咨询", "代码实现逻辑溯源", "库的版本差异与历史变更分析", "获取 GitHub 源码实证与 Permalinks" ], "core_principles": [ "证据优先:所有技术主张必须附带 GitHub 永久链接证据", "时效感知:严格区分过时信息,优先检索 2025+ 最新数据", "深度溯源:通过克隆仓库、分析提交历史和代码逻辑提供答案", "多维调研:结合官方文档、源码搜索与 Issue/PR 背景", "引用规范:严格执行强制性代码片段与路径引用格式", "分类执行:针对概念、实现、上下文采用定制化搜索策略" ] }, "oracle": { "agent": "oracle", "model": "未知", "suitable_for": [ "系统架构与技术选型评审", "复杂问题根因分析与排障策略", "重构路线规划与风险控制", "代码库结构解读与一致性治理", "性能与可靠性权衡建议" ], "core_principles": [ "KISS:优先最简单可行方案", "YAGNI:只做当前明确需求", "复用优先:尽量沿用现有模式与依赖", "可维护性优先:降低认知负担", "单一路径:给出一个主推荐方案", "投入可见:明确工作量与边界条件", "止于足够好:避免过度优化与过度设计" ] }, "multimodal-looker": { "agent": "multimodal-looker", "model": "未知", "suitable_for": [ "解析图片、PDF 等非纯文本媒体文件", "提取文档中的特定章节、表格或结构化数据", "描述 UI 界面布局、交互元素及视觉样式", "分析并解释流程图、架构图等复杂图表逻辑", "从多模态内容中获取深度理解而非原始文字" ], "core_principles": [ "仅提取用户请求的相关信息,严禁输出无关干扰项", "深度分析多媒体文件的视觉结构与内在联系", "通过返回解析后的核心结论来节省上下文 Token", "在目标任务上保持彻底详尽,对非核心内容保持简洁", "响应语言必须与用户请求的语言严格保持一致", "不处理可由常规读取工具处理的纯文本或源代码" ] } }, "categories": { "visual-engineering": { "category": "视觉工程", "model": "google/antigravity-gemini-3-pro", "variant": "无", "suitable_for": [ "将设计稿转为可维护的前端实现(HTML/CSS/JS/组件化)", "构建高一致性的设计系统与组件库(令牌、主题、栅格、排版)", "复杂布局与动效工程化(响应式、过渡、时间线、性能约束)", "可视化与图形界面开发(图表、画布、WebGL/着色器协同)", "UI 性能优化(首屏、渲染抖动、资源加载、动画合成层)", "可访问性与跨端适配(A11y、触控、不同 DPR/字体渲染差异)" ], "core_principles": [ "以视觉规格为真:像素密度、间距、排版层级、色彩与对比度可量化可验证", "工程可演进:组件边界清晰、样式可组合、避免脆弱选择器与一次性 hack", "一致性优先:设计令牌驱动(颜色/间距/圆角/阴影/字体),减少特例", "性能与质感并重:动画遵循合成友好、控制重排重绘、资源预算清晰", "跨设备稳健:移动优先、断点策略明确、避免依赖单一浏览器特性", "可访问性默认开启:语义结构、焦点管理、键盘可达、对比度与动效可降级" ] }, "ultrabrain": { "category": "预设类别:ultrabrain", "model": "openai/gpt-5.2-codex", "variant": "high", "suitable_for": [ "高难度软件工程设计与架构推演", "复杂代码库的系统性重构与性能优化", "并发、分布式、可靠性与故障演练方案设计", "严格约束下的推理、验证与形式化思维辅助", "跨语言/跨栈问题定位、根因分析与修复策略制定" ], "core_principles": [ "以正确性与可验证性优先:先定义不变量、边界与失败模式,再给方案", "深度推理但输出克制:内部充分思考,外部给最少且必要的结论与步骤", "面向工程落地:权衡成本、风险、可维护性与可观测性,避免纸上架构", "高标准代码质量:强调可读性、模块化、清晰接口与测试友好", "系统化排障:基于证据(日志/指标/复现)进行根因定位,避免猜测", "遵循约束与安全:最小权限、避免破坏性操作、对不可逆变更显式提示" ] }, "artistry": { "category": "艺术表现", "model": "google/antigravity-gemini-3-pro", "variant": "高", "suitable_for": [ "文案与叙事创作", "诗歌与意象化表达", "品牌语气与风格统一", "视觉概念与艺术指导", "舞台/影视/游戏世界观设定", "创意改写与风格迁移" ], "core_principles": [ "以审美一致性为先:语气、节奏、意象统一", "高原创与高密度表达:避免陈词滥调与模板化", "强调画面感与隐喻:用具体意象承载抽象主题", "结构服务情绪推进:起承转合清晰但不僵硬", "细节可信:材质、光影、气味、触感等感官要素可落地", "尊重约束:在题材、风格、篇幅、受众限制内创造", "文化与语境敏感:避免不当挪用与刻板印象" ] }, "quick": { "category": "快速", "model": "opencode/grok-code", "variant": "无", "suitable_for": [ "快速排查与定位问题", "短小明确的代码修改与补丁", "命令行与脚本使用指导", "代码片段解释与改写", "高频迭代的工程协作问答" ], "core_principles": [ "速度优先,尽快给出可执行方案", "聚焦当前任务,避免过度设计", "最小可行修改,降低引入风险", "清晰直接的步骤与结论", "必要时补充关键边界与注意事项" ] }, "unspecified-low": { "category": "未指定-低", "model": "xaio/Qwen3-Coder-30B-A3B-Instruct", "variant": "无", "suitable_for": [ "日常编程问答与示例代码生成", "小到中等规模的功能实现与重构建议", "快速调试思路梳理与错误定位指导", "常见框架与工具链的使用说明", "代码评审要点与改进清单输出" ], "core_principles": [ "以可运行与可维护为优先,避免过度设计", "输出简洁直接,默认给出可落地的实现路径", "不确定处明确标注假设与边界条件", "遵循通用工程最佳实践(清晰接口、低耦合、可测试)", "优先最小改动修复与渐进式优化", "在安全与可靠性相关问题上保持保守与可解释" ] }, "unspecified-high": { "category": "未指定-高配", "model": "xaio/Qwen3-Coder-480B-A35B-Instruct", "variant": "无", "suitable_for": [ "复杂代码生成与重构", "大型代码库理解与跨文件推理", "架构设计与技术方案评审", "高难度调试与根因分析", "多语言全栈开发与集成", "高质量测试用例与边界条件覆盖" ], "core_principles": [ "优先正确性与可验证性:输出可编译、可运行、可测试的方案", "工程化与可维护性:结构清晰、接口稳定、最小必要复杂度", "安全与稳健:默认防御性设计,避免注入、越权与数据破坏", "明确假设与约束:对不确定点给出可选项与取舍依据", "高信噪比:少废话、直达结论,提供可执行步骤与关键细节", "一致性与可读性:遵循既有风格与约定,减少认知负担" ] }, "writing": { "category": "写作", "model": "google/antigravity-gemini-3-flash", "variant": "无", "suitable_for": [ "文章与博客撰写", "营销文案与品牌语气改写", "邮件与公文写作", "故事与创意写作", "多版本改写与润色压缩", "结构化大纲与标题生成" ], "core_principles": [ "清晰表达,避免含混与赘述", "以读者为中心,匹配语气与场景", "结构先行:先框架后细节", "信息准确,不编造不可核验事实", "风格一致,术语与用词统一", "可编辑性强:给出可直接替换的文本产出" ] } } } 


插件主配置文件:oh-my-opencode.json

定义具体的模型映射。
配置文件路径参考:

  • Linux/macOS: ~/.config/opencode/oh-my-opencode.json
  • Windows: %USERPROFILE%\.config\opencode\oh-my-opencode.json
{ "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/master/assets/oh-my-opencode.schema.json", "google_auth": false, "agents": { "Sisyphus": { "model": "google/antigravity-claude-opus-4-5-thinking", "memo": "主协调者 - 默认主智能体,负责整体任务的规划、委派和执行协调" }, "Sisyphus-Junior": { "model": "google/antigravity-claude-sonnet-4-5", "memo": "专注执行者 - 执行单元,直接编写代码,不能再委派任务,模型由category动态决定(此为兜底)" }, "Prometheus (Planner)": { "model": "openai/gpt-5.2", "memo": "规划师 - 任务规划,使用工作规划方法论进行任务分解和策略制定" }, "Metis (Plan Consultant)": { "model": "google/antigravity-claude-sonnet-4-5", "memo": "计划顾问 - 预规划分析,识别隐藏需求和潜在的AI失败点" }, "Momus (Plan Reviewer)": { "model": "google/antigravity-claude-sonnet-4-5-thinking", "memo": "计划审查员 - 计划审查,对生成的计划进行质量检查和风险评估" }, "oracle": { "model": "openai/gpt-5.2", "memo": "架构师 - 架构设计、代码审查、战略规划,利用GPT-5.2的逻辑推理能力" }, "librarian": { "model": "google/antigravity-gemini-3-flash", "memo": "资料管理员 - 多仓库分析、文档查找、实现示例搜索,深度代码库理解和GitHub研究" }, "explore": { "model": "opencode/grok-code", "memo": "探索者 - 快速代码库探索和模式匹配,专注于代码搜索和发现" }, "multimodal-looker": { "model": "google/antigravity-gemini-3-flash", "memo": "多模态观察者 - 视觉内容专家,分析PDF、图像、图表等多媒体内容" }, "OpenCode-Builder": { "model": "xaio-openai/Qwen3-Coder-480B-A35B-Instruct", "memo": "构建专家 - OpenCode原生build agent,默认禁用(被Sisyphus-Junior替代),需手动启用" }, "frontend-ui-ux-engineer": { "model": "google/antigravity-gemini-3-pro", "memo": "前端UI/UX工程师 - 前端开发,创建美观的用户界面,专注于创意和视觉设计" }, "document-writer": { "model": "google/antigravity-gemini-3-flash", "memo": "文档写手 - 技术写作专家,擅长流畅的技术文档写作" } }, "categories": { "visual-engineering": { "model": "google/antigravity-gemini-3-pro", "memo": "前端工程师 - 前端开发、UI/UX设计、样式调整、动画效果,专注于视觉呈现" }, "ultrabrain": { "model": "openai/gpt-5.2-codex", "variant": "high", "memo": "超级大脑 - 深度逻辑推理、复杂架构决策、需要大量分析的高难度问题" }, "artistry": { "model": "google/antigravity-gemini-3-pro", "variant": "high", "memo": "艺术家 - 高度创意任务、艺术性工作、新颖独特的想法生成" }, "quick": { "model": "opencode/grok-code", "memo": "快速执行者 - 简单任务、单文件修改、拼写修复、小改动,省钱省时" }, "unspecified-low": { "model": "xaio-openai/Qwen3-Coder-30B-A3B-Instruct", "memo": "通用助手(轻量) - 不适合其他类别的中等难度任务" }, "unspecified-high": { "model": "xaio-openai/Qwen3-Coder-480B-A35B-Instruct", "memo": "通用助手(重量) - 不适合其他类别的高难度复杂任务" }, "writing": { "model": "google/antigravity-gemini-3-flash", "memo": "文档写手 - 通用文案、技术文档编写、README撰写、注释完善、技术写作" } } } 


opencode 配置文件:opencode.json

配置文件路径参考:

  • Linux/macOS: ~/.config/opencode/opencode.json
  • Windows: %USERPROFILE%\.config\opencode\opencode.json
{ "$schema": "https://opencode.ai/config.json", "plugin": [ "oh-my-opencode", "opencode-antigravity-auth@1.3.0" ] } 

opencode-antigravity-auth 的配置

{ "$schema": "https://opencode.ai/config.json", "plugin": ["opencode-antigravity-auth@latest"], "provider": { "google": { "models": { "antigravity-gemini-3-pro": { "name": "Gemini 3 Pro (Antigravity)", "limit": { "context": 1048576, "output": 65535 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] }, "variants": { "low": { "thinkingLevel": "low" }, "high": { "thinkingLevel": "high" } } }, "antigravity-gemini-3-flash": { "name": "Gemini 3 Flash (Antigravity)", "limit": { "context": 1048576, "output": 65536 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] }, "variants": { "minimal": { "thinkingLevel": "minimal" }, "low": { "thinkingLevel": "low" }, "medium": { "thinkingLevel": "medium" }, "high": { "thinkingLevel": "high" } } }, "antigravity-claude-sonnet-4-5": { "name": "Claude Sonnet 4.5 (Antigravity)", "limit": { "context": 200000, "output": 64000 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } }, "antigravity-claude-sonnet-4-5-thinking": { "name": "Claude Sonnet 4.5 Thinking (Antigravity)", "limit": { "context": 200000, "output": 64000 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] }, "variants": { "low": { "thinkingConfig": { "thinkingBudget": 8192 } }, "max": { "thinkingConfig": { "thinkingBudget": 32768 } } } }, "antigravity-claude-opus-4-5-thinking": { "name": "Claude Opus 4.5 Thinking (Antigravity)", "limit": { "context": 200000, "output": 64000 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] }, "variants": { "low": { "thinkingConfig": { "thinkingBudget": 8192 } }, "max": { "thinkingConfig": { "thinkingBudget": 32768 } } } }, "gemini-2.5-flash": { "name": "Gemini 2.5 Flash (Gemini CLI)", "limit": { "context": 1048576, "output": 65536 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } }, "gemini-2.5-pro": { "name": "Gemini 2.5 Pro (Gemini CLI)", "limit": { "context": 1048576, "output": 65536 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } }, "gemini-3-flash-preview": { "name": "Gemini 3 Flash Preview (Gemini CLI)", "limit": { "context": 1048576, "output": 65536 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } }, "gemini-3-pro-preview": { "name": "Gemini 3 Pro Preview (Gemini CLI)", "limit": { "context": 1048576, "output": 65535 }, "modalities": { "input": ["text", "image", "pdf"], "output": ["text"] } } } } } } 

我自用 provider,仅供参考。 claude 原本的 思考等级的 max 我为了方便记忆 改成了 xhigh

{ "google": { "models": { "antigravity-gemini-3-pro": { "name": "Gemini 3 Pro (Antigravity)", "limit": { "context": 1048576, "output": 65535 }, "modalities": { "input": [ "text", "image", "pdf" ], "output": [ "text" ] }, "variants": { "low": { "thinkingLevel": "low" }, "high": { "thinkingLevel": "high" } } }, "antigravity-gemini-3-flash": { "name": "Gemini 3 Flash (Antigravity)", "limit": { "context": 1048576, "output": 65536 }, "modalities": { "input": [ "text", "image", "pdf" ], "output": [ "text" ] }, "variants": { "minimal": { "thinkingLevel": "minimal" }, "low": { "thinkingLevel": "low" }, "medium": { "thinkingLevel": "medium" }, "high": { "thinkingLevel": "high" } } }, "antigravity-claude-sonnet-4-5": { "name": "Claude Sonnet 4.5 (Antigravity)", "limit": { "context": 200000, "output": 64000 }, "modalities": { "input": [ "text", "image", "pdf" ], "output": [ "text" ] } }, "antigravity-claude-sonnet-4-5-thinking": { "name": "Claude Sonnet 4.5 Thinking (Antigravity)", "limit": { "context": 200000, "output": 64000 }, "modalities": { "input": [ "text", "image", "pdf" ], "output": [ "text" ] }, "variants": { "none": { "thinkingConfig": { "thinkingBudget": 0 } }, "minimal": { "thinkingConfig": { "thinkingBudget": 4096 } }, "low": { "thinkingConfig": { "thinkingBudget": 8192 } }, "medium": { "thinkingConfig": { "thinkingBudget": 12288 } }, "high": { "thinkingConfig": { "thinkingBudget": 16384 } }, "xhigh": { "thinkingConfig": { "thinkingBudget": 32768 } } } }, "antigravity-claude-opus-4-5-thinking": { "name": "Claude Opus 4.5 Thinking (Antigravity)", "limit": { "context": 200000, "output": 64000 }, "modalities": { "input": [ "text", "image", "pdf" ], "output": [ "text" ] }, "variants": { "none": { "thinkingConfig": { "thinkingBudget": 0 } }, "minimal": { "thinkingConfig": { "thinkingBudget": 4096 } }, "low": { "thinkingConfig": { "thinkingBudget": 8192 } }, "medium": { "thinkingConfig": { "thinkingBudget": 12288 } }, "high": { "thinkingConfig": { "thinkingBudget": 16384 } }, "xhigh": { "thinkingConfig": { "thinkingBudget": 32768 } } } } } }, "openai-compatible": { "npm": "@ai-sdk/openai-compatible", "name": " X (Chat)", "options": { "baseURL": "https://x/v1" }, "models": { "Qwen3-Coder-480B-A35B-Instruct": { "name": "Qwen 3 Coder 480B", "limit": { "context": 256000, "output": 32000 } }, "Qwen3-Coder-30B-A3B-Instruct": { "name": "Qwen 3 Coder 30B", "limit": { "context": 64000, "output": 32000 } }, "XAIO-G-3-Pro-Preview": { "name": "Gemini 3 Pro Preview", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "reasoning": true, "interleaved": { "field": "reasoning_content" } }, "XAIO-G-3-Flash-Preview": { "name": "Gemini 3 Flash", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "reasoning": true, "interleaved": { "field": "reasoning_content" } } } }, "anthropic": { "npm": "@ai-sdk/anthropic", "name": " X (Anthropic)", "options": { "baseURL": "https://x/anthropic" }, "models": { "XAIO-C-4-5-Opus": { "name": "Claude Opus 4.5", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "thinking": { "type": "disabled" } }, "minimal": { "thinking": { "type": "enabled", "budgetTokens": 4096 } }, "low": { "thinking": { "type": "enabled", "budgetTokens": 8192 } }, "medium": { "thinking": { "type": "enabled", "budgetTokens": 12288 } }, "high": { "thinking": { "type": "enabled", "budgetTokens": 16384 } }, "xhigh": { "thinking": { "type": "enabled", "budgetTokens": 32768 } } } }, "XAIO-C-4-5-Sonnet": { "name": "Claude Sonnet 4.5", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "thinking": { "type": "disabled" } }, "minimal": { "thinking": { "type": "enabled", "budgetTokens": 4096 } }, "low": { "thinking": { "type": "enabled", "budgetTokens": 8192 } }, "medium": { "thinking": { "type": "enabled", "budgetTokens": 12288 } }, "high": { "thinking": { "type": "enabled", "budgetTokens": 16384 } }, "xhigh": { "thinking": { "type": "enabled", "budgetTokens": 32768 } } } }, "XAIO-C-4-5-Haiku": { "name": "Claude Haiku 4.5", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "thinking": { "type": "disabled" } }, "minimal": { "thinking": { "type": "enabled", "budgetTokens": 4096 } }, "low": { "thinking": { "type": "enabled", "budgetTokens": 8192 } }, "medium": { "thinking": { "type": "enabled", "budgetTokens": 12288 } }, "high": { "thinking": { "type": "enabled", "budgetTokens": 16384 } }, "xhigh": { "thinking": { "type": "enabled", "budgetTokens": 32768 } } } } } }, "openai": { "npm": "@ai-sdk/openai", "name": " X (OpenAI Responses)", "options": { "baseURL": "https://x/v1" }, "models": { "XAIO-O-G5-2": { "name": "GPT-5.2", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "reasoningEffort": "none" }, "minimal": { "reasoningEffort": "minimal" }, "low": { "reasoningEffort": "low" }, "medium": { "reasoningEffort": "medium" }, "high": { "reasoningEffort": "high" }, "xhigh": { "reasoningEffort": "xhigh" } } }, "XAIO-O-G5-2-Codex": { "name": "GPT-5.2 Codex", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "reasoningEffort": "none" }, "minimal": { "reasoningEffort": "minimal" }, "low": { "reasoningEffort": "low" }, "medium": { "reasoningEffort": "medium" }, "high": { "reasoningEffort": "high" }, "xhigh": { "reasoningEffort": "xhigh" } } }, "XAIO-O-G5-1-Codex-Mini": { "name": "GPT-5.1 Codex mini", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "reasoningEffort": "none" }, "minimal": { "reasoningEffort": "minimal" }, "low": { "reasoningEffort": "low" }, "medium": { "reasoningEffort": "medium" }, "high": { "reasoningEffort": "high" }, "xhigh": { "reasoningEffort": "xhigh" } } }, "XAIO-O-G5-1-Codex-Max": { "name": "GPT-5.1 Codex Max", "limit": { "context": 200000, "output": 32000 }, "modalities": { "input": [ "text", "image", "video" ], "output": [ "text" ] }, "variants": { "none": { "reasoningEffort": "none" }, "minimal": { "reasoningEffort": "minimal" }, "low": { "reasoningEffort": "low" }, "medium": { "reasoningEffort": "medium" }, "high": { "reasoningEffort": "high" }, "xhigh": { "reasoningEffort": "xhigh" } } } } } } 


鉴权配置 auth.json

api key 的配置和 oauth 配置在
~/.local/share/opencode /auth.json
%USERPROFILE%\.local\share\opencode\auth.json

{ "x": { "type": "api", "key": "<API_KEY>" } } 



📌 转载信息
原作者:
favorPatato
转载时间:
2026/1/23 15:36:07

如果说过去十年人工智能的主战场在「看懂世界」和「生成内容」,那么下一阶段的核心问题正在转向一个更具挑战性的命题:AI 如何真正进入物理世界,并在其中行动、学习与进化。 在与此相关的研究与讨论声中,具身智能一词频繁出现。

顾名思义,具身智能并非传统的机器人,而是强调 Agent 与环境交互在感知—决策—行动的闭环中形成智能。 在这一视角下,智能不再只存在于模型参数或推理能力中,而是深度嵌入到传感器、执行器、环境反馈与长期学习之中。机器人、自动驾驶、Agent 乃至通用人工智能(AGI)的讨论,都被纳入这一框架。

正因如此,具身智能成为近两年全球科技巨头与顶级研究机构高度关注的方向。特斯拉 CEO 埃隆·马斯克多次强调,人形机器人 Optimus 的意义不亚于自动驾驶;英伟达创始人黄仁勋将 Physical AI 视为继生成式 AI 之后的下一波浪潮,并持续加码机器人仿真与训练平台;李飞飞、Yann LeCun 等围绕空间智能、世界模型等细分领域持续产出高质量的前沿分析与成果;OpenAI、Google DeepMind、Meta 也在基于多模态模型、强化学习等技术探索智能体在真实或近真实环境中的学习能力。

在此背景下,具身智能不再只是单一模型或算法的问题,而逐渐演化为一个由数据集、仿真环境、基准任务与系统性方法共同构成的研究生态。为了帮助更多读者快速理解这一领域的关键脉络,本文将系统整理并推荐一批具身智能相关的高质量数据集、在线教程、论文,为进一步学习和研究提供参考。

数据集推荐

1

BC-Z 机器人学习数据集

预估大小: 32.28 GB

下载地址:https://go.hyper.ai/vkRel

这是一个由谷歌、 Everyday Robots 、加州大学伯克利分校和斯坦福大学共同开发的大规模机器人学习数据集,包含了超过 25,877 个不同的操作任务场景,涵盖了 100 种多样化的操作任务。这些任务通过专家级的远程操作和共享自主过程来收集,涉及 12 个机器人和 7 名不同的操作员,累计了 125 小时的机器人操作时间。数据集支持训练一个 7 自由度的多任务策略,该策略可以根据任务的语言描述或人类操作视频来调整,以执行特定的操作任务。

2

DexGraspVLA 机器人抓握数据集

预估大小: 7.29 GB

下载地址:https://go.hyper.ai/G37zQ

该数据集由 Psi-Robot 团队创建,包含 51 个人类演示数据样本,用于了解数据和格式,以及运行代码体验训练过程。其研究背景源于灵巧抓取在杂乱场景下的高成功率需求,特别是在未见过的物体、光照及背景组合下实现超过 90% 的成功率,此框架采用预训练的视觉-语言模型作为高层任务规划器,并学习基于扩散的策略作为低层行动控制器,其创新之处在于利用基础模型实现强大的泛化能力,并使用基于扩散的模仿学习获取灵巧行动。

3

EgoThink 第一人称视角下

视觉问答基准数据集

预估大小: 865.29 MB

下载地址: https://go.hyper.ai/5PsDP

该数据集是由清华大学提出的一个基于第一人称视角的视觉问答基准数据集,包含 700 张图像,涵盖了 6 个核心能力,细分为 12 个维度。其图像来源于 Ego4D 第一人称视频数据集的采样图片,为了确保数据的多样性,每个视频最多只采样 2 张图片。在数据集构建过程中,只选择了质量较高且能够清晰展现第一人称视角思维的图片。EgoThink 的应用领域广泛,特别是在评估和提升 VLMs 在第一人称视角任务中的性能,为未来的具身人工智能和机器人研究提供了宝贵的资源。

4

EQA 问答数据集

预估大小: 839.6 KB

下载地址:https://go.hyper.ai/8Uv1o

EQA 全称 Embodied Question Answering,是一个基于 House3D 的视觉问答数据集。在环境中任意位置的 agent 在得到一个问题后,能够自己在环境中寻找有用的信息并对该问题作出回答。比如:Q: 汽车是什么颜色的?为了回答这个问题,agent 必须首先通过智能导航来探索环境,从第一人称视角收集必要的视觉信息,然后回答问题:橙色。

5

OmniRetarget 全域机器人

运动重映射数据集

预估大小: 349.61 MB

下载地址: https://go.hyper.ai/IloBI

这是由亚马逊联合麻省理工学院、加利福尼亚大学伯克利分校等机构发布的一个用于类人机器人全身运动重映射的高质量轨迹数据集,包含 G1 仿人机器人与物体及复杂地形交互时的运动轨迹,涵盖机器人携物运动、地形行走及物体 – 地形混合交互三类场景。由于许可限制,公开的数据集中不包含 LAFAN1 的重映射版本,分为三个子集,总计约 4 小时运动轨迹数据,具体构成如下:

  • robot-object:机器人携带物体的运动轨迹,源自 OMOMO 3.0 数据;
  • robot-terrain:机器人在复杂地形上的运动轨迹,由内部 MoCap 采集生成,时长约 0.5 小时;
  • robot-object-terrain:同时涉及物体与地形交互的运动轨迹,时长约 0.5 小时。

此外,该数据集另含 models 目录,提供 URDF 、 SDF 与 OBJ 格式的可视化模型文件,用于展示而非训练。

查看更多高质量数据集:https://hyper.ai/datasets

教程推荐

具身智能(Embodied AI)的研究确实往往涉及多个模型和模块的组合,以实现对物理世界的感知、理解、规划和行动。其中便包含世界模型、推理模型,本文主要推荐以下两个最新开源的模型。

查看更多优质教程:https://hyper.ai/notebooks

1

HY-World 1.5:

交互式世界建模系统框架

HY-World 1.5(WorldPlay)是腾讯混元团队发布的首个具有长期几何一致性的开源实时交互世界模型。该模型通过流式视频扩散技术实现实时交互世界建模,解决了当前方法中速度与内存之间的权衡问题。

在线运行:https://go.hyper.ai/qsJVe

2

vLLM+Open WebUI 部署

Nemotron-3 Nano

Nemotron-3-Nano-30B-A3B-BF16 是由 NVIDIA 从零开始训练的一款大型语言模型(LLM),旨在作为一个同时适用于推理与非推理任务的统一模型,主要用于构建 AI 智能体系统、聊天机器人、RAG(检索增强生成)系统 以及其他各类 AI 应用。

在线运行:https://go.hyper.ai/6SK6n

论文推荐

1

RBench

论文题目 Rethinking Video Generation Model for the Embodied World

研究团队: 北京大学、字节跳动 Seed

查看论文:https://go.hyper.ai/k1oMT

研究简介:

该团队提出了一个全面的机器人视频生成评测基准 RBench,覆盖 5 类任务领域 和 4 种不同机器人形态,并通过一系列可复现的子指标,从任务层面的正确性和视觉保真度两个维度进行评估,具体包括结构一致性、物理合理性以及动作完整性等方面。对 25 个具有代表性的视频生成模型的评测结果显示,当前方法在生成符合物理真实感的机器人行为方面仍存在显著不足。此外,RBench 与人工评估之间的 Spearman 相关系数达到 0.96,验证了该基准在衡量模型质量方面的有效性。

此外,该研究还构建了 RoVid-X——目前规模最大的开源机器人视频生成数据集,包含 400 万条标注视频片段,覆盖数千种任务,并辅以全面的物理属性标注。

2

Being-H0.5

论文题目: Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization

研究团队: BeingBeyond

查看论文:https://go.hyper.ai/pW24B

研究简介:

该团队提出了一个基础级的视觉-语言-动作(Vision-Language-Action,VLA)模型 Being-H0.5,旨在实现跨多种机器人平台的强泛化具身能力。现有的 VLA 模型往往受限于机器人形态差异大、可用数据稀缺等问题。针对这一挑战,其提出了一种以人为中心的学习范式,将人类交互轨迹视为物理交互领域的通用「母语」。

同时,该团队还发布了 UniHand-2.0,这是目前规模最大的具身预训练方案之一,涵盖 30 种不同机器人形态、超过 35,000 小时的多模态数据。在方法层面,其提出了一个统一动作空间(Unified Action Space),将不同机器人的异构控制方式映射到语义对齐的动作槽位中,使低资源机器人能够从人类数据以及高资源平台中快速迁移和习得技能。

3

Fast-ThinkAct

论文题目: Fast-ThinkAct: Efficient Vision-Language-Action Reasoning via Verbalizable Latent Planning

研究团队: 英伟达

查看论文: https://go.hyper.ai/q1h7j

研究简介:

该团队提出了一种高效的推理框架 Fast-ThinkAct,通过可语言化的潜在推理机制,在保证性能的同时实现更加紧凑的规划过程。Fast-ThinkAct 通过从教师模型中蒸馏潜在 CoT,学习高效推理能力,并在偏好引导目标函数的驱动下,对操作轨迹进行对齐,从而将语言层面的规划能力与视觉层面的规划能力共同迁移到具身控制中。

大量覆盖多种具身操作与推理任务的实验结果表明,Fast-ThinkAct 在保持长时序规划能力、少样本适应能力以及失败恢复能力的同时,相较于当前最先进的推理型 VLA 模型,推理延迟最高可降低 89.3%,并取得了显著的性能表现。

4

JudgeRLVR

论文题目: JudgeRLVR: Judge First, Generate Second for Efficient Reasoning

研究团队: 北京大学、小米

查看论文: https://go.hyper.ai/2yCxp

研究简介:

该团队提出了一种「先判别、再生成」的两阶段训练范式 JudgeRLVR,在第一阶段,团队训练模型对具有可验证答案的解题响应进行判别与评估;在第二阶段,以该判别模型为初始化,使用标准的生成式 RLVR 对同一模型进行微调。

与在相同数学领域训练数据上使用的 Vanilla RLVR 相比,JudgeRLVR 在 Qwen3-30B-A3B 上实现了更优的质量–效率权衡:在域内数学任务上,平均准确率提升约 3.7 个百分点,同时平均生成长度减少 42%;在域外基准测试中,平均准确率提升约 4.5 个百分点,显示出更强的泛化能力。

5

**ACoT-VLA\
**

论文题目: ACoT-VLA: Action Chain-of-Thought for Vision-Language-Action Models

研究团队: 北京航空航天大学、AgiBot

查看论文:https://go.hyper.ai/2jMmY

研究简介:

该团队首先提出了 Action Chain-of-Thought(ACoT,动作思维链),将推理过程本身建模为一系列结构化的粗粒度动作意图,用于引导最终的策略生成,随后进一步提出 ACoT-VLA,一种将 ACoT 范式具体化的新型模型架构。

在具体设计上,其引入了两个互补的核心组件:显式动作推理器(Explicit Action Reasoner,EAR) 与 隐式动作推理器(Implicit Action Reasoner,IAR)。其中,EAR 以显式的动作级推理步骤形式,提出粗粒度的参考轨迹;而 IAR 则从多模态输入的内部表示中提取潜在的动作先验。二者共同构成 ACoT,并作为条件输入作用于下游动作头,从而实现具备落地约束的策略学习。

在真实世界与仿真环境中的大量实验结果表明,该方法展现出显著优势,在 LIBERO、LIBEROPlus 和 VLABench 基准上分别取得了 98.5%、84.1% 和 47.4% 的成绩。

查看最新论文:https://hyper.ai/papers

GitHub Copilot SDK 介绍

简介

GitHub Copilot SDK 是一个多平台的软件开发工具包,允许开发者将 GitHub Copilot Agent 集成到自己的应用程序和服务中。通过这个 SDK,你可以在自己的代码中以编程方式调用 GitHub Copilot CLI 的功能。

注意:目前所有 SDK 都处于技术预览阶段,在正式发布之前可能会有破坏性的变更。

支持的语言平台

语言安装命令
Node.js / TypeScriptnpm install [@github](/user/github/about)/copilot-sdk
Pythonpip install github-copilot-sdk
Gogo get github.com/github/copilot-sdk/go
.NETdotnet add package GitHub.Copilot.SDK

核心功能

  • 编程式访问 Copilot CLI:通过代码调用 GitHub Copilot 命令行工具的各种功能
  • 多语言支持:提供 JavaScript/TypeScript、Python、Go、C# 等主流语言的 SDK
  • 进程管理:SDK 自动管理 Copilot CLI 进程的生命周期
  • 灵活连接:支持连接到外部 CLI 服务器

工作原理

所有 SDK 通过 JSON-RPC 协议与 Copilot CLI 服务器进行通信:

复制
你的应用程序
    ↓
SDK 客户端
    ↓ JSON-RPC
Copilot CLI(服务器模式)

快速开始

第一步:安装 Copilot CLI

按照 Copilot CLI 安装指南 安装 CLI,或确保 copilot 命令在你的 PATH 环境变量中可用。

第二步:安装 SDK

根据你使用的编程语言,选择对应的安装命令(见上表)。

第三步:开始使用

查看各个语言 SDK 的 README 文档,了解具体的使用示例和 API 参考。

许可证

MIT

资源链接

经过我不断的尝试,发现还是直接抄 Claude Code 的 vs code 拓展的界面比较好看


📌 转载信息
转载时间:
2026/1/22 13:12:06

看了 12/15 号,Claude Code 项目负责人 Boris Cherney 的访谈

http://youtu.be/AmdLVWMdjOk?si=P2jFiV2qwq7ujDEs

自己的感受:

​Claude 技巧:建议先用 Plan Mode 对齐思路再让它干活。厉害的人会同时启动多个 Agents 并行处理任务,自己负责统筹方向,效率起飞。

​增强生产力:核心是 “拒绝机械重复” automat e toil 。把琐碎的 “体力活” 扔给 AI,把脑子留给核心逻辑。少开会,多实干,保持常识判断和对一线的直觉,这才是最高效的状态。

看这个访谈最有趣的一点是,Boris 竟然没正经上过计算机课。他大学学的是经济,中途辍学去搞创业了,所有的编程技能都是在实战中 “打怪升级” 练出来的。


📌 转载信息
原作者:
qian_zhou
转载时间:
2026/1/8 10:14:29