2026年3月

前言:

我相信很多人都有搭建邮局的需求,但是除了直接购买邮局服务器,还是有很大一部分人是想要自己搭建自己的邮局的。今天有空就准备写一篇基于 Mailserver+Roundcube 搭建邮局的教程。最主要的原因还是帮助大家一点一点的提升自己,掌握更多 VPS 的玩法。

但在此之前,必须先泼一盆冷水。

自建邮局有以下缺陷:

  1. 配置复杂,技术门槛高: 涉及 DNS 各类记录( A, MX, SPF, DKIM, DMARC )、反向解析( PTR )、SSL 证书以及 Linux 运维知识。
  2. 维护成本高: 需要定期更新和维护服务器,防止被漏洞利用成为肉鸡。
  3. 邮件送达率不稳定: 即使你配置得当,IP 也很容易被大厂( Gmail, Outlook )拉黑,或者直接进入垃圾邮件箱。IP 预热是一个漫长的过程。
  4. 端口封锁: 绝大多数云服务商默认封锁 25 端口,需要提交工单申请解封,且审核严格。

如果这些缺点你都能接受,或者只是想单纯的学习一下邮局的搭建,那请继续的看下去吧


第一步:环境准备

在开始之前,请确保满足以下条件:

  1. 服务器( VPS ): 安装了 1Panel 面板。这里可以学习我以前的文章:告别“环境污染”! Debian 服务器安装 1Panel 面板教程:专治 Docker 困难户
  2. 域名: 拥有域名的管理权限(用于修改 DNS ),可以去 spaceship 、namecheap 或者国内的阿里云、腾讯云购买。我这里是托管在了 CloudFlare 方便解析和安全,不同的托管平台可能配置不一样但是也是大同小异的。

购买域名教程:Spaceship 域名注册优惠购买使用教程

  1. 25 端口: 确认服务器的 25 端口是开放的(使用 telnet smtp.gmail.com 25 测试,如果通了就是开放的,不通请找服务商申请)。

开发 25 端口的商家我推荐:RackNerd 、Netcup 、CloudClone 、BWH (搬瓦工),有一些默认没开需要申请,有一些默认开启了。RackNerd 的 rDNS 需要工单开启、Netcup 可以在服务器后台自主设置 rDNS 信息。

在我的传家宝监控都可以找到:传家宝 VPS 监控

image


第二步:安装 Docker Mailserver

  1. 登录 1Panel 面板
  2. 点击侧边栏 应用商店
  3. 搜索 Mailserver 并点击 安装

image

  1. 配置参数:
    • 名称: 保持默认 mailserver

    • OVERRIDE_HOSTNAME: 输入你的邮件服务器主机名,例如 mail.yuhuiculture.icu(请替换为你自己的域名)。
      image

    • 端口: 保持默认( 25, 143, 587, 993 等)。

    • 高级设置: 建议勾选“端口外部访问”。

  2. 点击 确认 进行安装,等待容器启动显示“已启动”。

image


第三步:创建账户与生成 DKIM

1. 创建首个账户

点击 1Panel 侧边栏 容器,找到 mailserver 容器,点击右侧的 终端 图标进入容器命令行。

image

输入以下命令创建邮箱账户(将 [email protected]密码 替换为你自己的):

# 语法: setup email add <邮箱地址> <密码>
setup email add [email protected] yourstrongpassword

2. 生成 DKIM 密钥

继续在终端输入命令生成 DKIM 密钥:

setup config dkim

生成成功后,DKIM 密钥文件位于容器内的 /tmp/docker-mailserver/opendkim/keys/ 目录下。
对应 1Panel 主机(宿主机)的路径通常为:
/opt/1panel/apps/mailserver/mailserver/data/dms/config/opendkim/keys/

image

进入宿主机的该目录,找到 mail.txt 文件,下载或查看内容,我们需要将里面的内容导入到 DNS 解析中。这个地方的内容在后续的 DNS 解析里很重要,所以可以下载到本地。


第四步:配置 DNS 解析

这是最关键的一步,请登录你的域名服务商后台(如阿里云、腾讯云、Cloudflare ),添加以下记录,我这里是使用 Cloudflare 作为演示,所以可能和你的不一样但是添加记录的方式都是一样的。

假设你的域名是 yuhuiculture.icu,邮件服务器 IP 是 154.26.209.188

1. A 记录

将邮件服务器域名指向 IP 。

  • 记录类型: A
  • 主机记录: mail 、roundcube
  • 记录值: 154.26.209.188

这里顺带也可以把 roundcube 的二级域名添加上去,后续搭建 web 面板使用的时候,就不需要在过来添加域名解析了,如果不喜欢 roundcube 也可以缓存你自己喜欢的二级域名绑定。

2. MX 记录

告诉互联网你的邮件由哪台服务器接收。

  • 记录类型: MX
  • 主机记录: @
  • 记录值: mail.yuhuiculture.icu
  • 优先级: 10

3. SPF 记录 (TXT)

授权该 IP 发送邮件,防止他人冒用。

  • 记录类型: TXT
  • 主机记录: @
  • 记录值: v=spf1 mx ~all

解释: v=spf1 版本号;mx 表示授权 MX 记录对应的 IP 发信;~all 表示宽容策略(软失败),如果 IP 不匹配则标记为垃圾邮件而不是直接拒收,v=spf1 mx ~all这里的 IP 也可以使用你服务器的 IP ,具体的规则需要参考文档,如果发现出现问题可以把报错信息给 AI ,协助你处理。

4. DKIM 记录 (TXT)

打开刚才生成的 mail.txt 文件。
手动添加 DNS 记录时注意:需合并文件内的记录值,去掉双引号和换行符,将其合并成一行长字符串。

  • 记录类型: TXT
  • 主机记录: mail._domainkey (注意:如果是默认生成的,通常是 mail 作为选择器,请检查文件名确认)
  • 记录值: v=DKIM1; h=sha256; k=rsa; p=MIIBIjANBgkqhkiG9w0BA...(此处省略长串公钥)...IDAQAB

image

5. DMARC 记录 (TXT)

告诉接收方如何处理未通过 SPF 或 DKIM 验证的邮件。

  • 记录类型: TXT
  • 主机记录: _dmarc
  • 记录值: v=DMARC1; p=none; sp=none;

解释: p=none 表示目前只监控不拦截(适合初期调试)。稳定后可改为 p=quarantine(隔离)或 p=reject(拒绝)。

image


第五步:部署 Roundcube (Webmail 客户端)

为了方便在网页上收发邮件,我们需要部署 Roundcube ,想必大家可能见过这个界面,主色调蓝白色可以很方便的收发邮件,而且很多插件配合是一个很好的邮件管理 web 项目。

  1. 回到 1Panel 应用商店
  2. 搜索 Roundcube 并点击 安装
  3. 配置参数:
    • 名称: roundcube
    • 数据库: 1Panel 会自动创建,保持默认即可。
    • IMAP 服务器、SMTP 服务器: 填写 Mailserver 容器的连接地址。
      • 推荐: 填写宿主机的内网 IP 或公网 IP ,例如 154.26.209.188我这里是绑定了域名,所以直接使用域名就好了。

image

*   **端口:**
    *   IMAP 端口:143 (非加密) 或 993 (SSL)
    *   SMTP 端口:25 (非加密) 或 587 (TLS)
*   **端口外部访问:** 勾选,并在外部端口填入一个你喜欢的端口(如 8080 ),或者随后通过 1Panel 的“网站”功能做反向代理绑定域名(例如 `roundcube.yuhuiculture.icu`),在前面我已经添加了 roundcube 面板的地址,所以我这里也直接填入域名。

如果你不想绑定域名,也可以选择开放端口,然后使用http://IP+端口的方式访问,默认端口是8080。但是我建议配置反代,开启 HTTPS 保证安装防护。

额外说明

Roundcube 安装的时候会让你选择数据库,如果你没有安装 mysql 数据库,可以在应用市场搜索 mysql ,然后默认选择安装,安装成功之后在点击 roundcube 安装,就可以选择安装的数据库了。

其实也可以使用 SQLite 但是 1Panel 的镜像默认是使用 mysql 的。


第六步:验证与测试

1. 登录 Roundcube 的 web 客户端

在浏览器访问 https://roundcube.yuhuiculture.icu 我这里的地址是开启了 HTTPS ,如果你没有开启或者绑定域名请使用 IP+端口的方式访问。

如果能成功登录,说明 Roundcube 连接 Mailserver 成功。

image

2. 接收测试邮件

你可以尝试用你的 Gmail 或 QQ 邮箱给邮局发送一封邮件。

  • 如果发送失败,请检查防火墙是否放行了 25, 143, 587 等端口,如果发送失败也有一封返回的邮件内容,根据报错优化相关的错误就好了。

image

3. 邮件体检

访问 Mail-Tester

  1. 它会给你一个临时邮箱地址。
  2. 用你的 Roundcube 给这个地址发一封邮件。
  3. 点击“查看你的得分”。
  4. 目标是 10/10 分。如果分数低,它会详细列出是 DKIM 错误、SPF 错误还是缺少 PTR 记录。我这里显示只有7.7分是因为 rDNS 我没有去修改绑定,还有一些必要的 DNS 记录没有添加。因为每一个 IDC 厂家的 rDNS 修改法都不一样,所以我没有具有的记录操作。

image


预告

走到最后一步,也就是说明了你的邮箱搭建完成了,可以使用 Roundcube 去查看邮箱和发送邮箱,你自己的邮局也就搭建好了。但是如果你想要公开给别人访问或者注册还缺了一些步骤,限于篇幅原因我也就不细讲了。

后续我也会持续更新使用宝塔面板搭建邮局的教程,还有全自动的邮箱搭建脚本,不需要像现在一样这么麻烦去一步一步的设置安装组件。

有了自己的邮局也不是说就可以为所欲为了,很多服务器商家都有自己的 TOS ,发送垃圾邮件轻则关机警告重则删除服务器封号,所以还是要注意自己的使用。如果不想折腾也可以完全购买现成的邮箱服务,稳定而且还安全唯一缺点就是现在发送频率。


📰 内容说明:本文为 AI 资讯摘要与编辑评论,所有内容均已标注原文链接。如涉及版权问题请联系处理。


今日亮点

今天 AI 圈的大事可不少!OpenAI 一边在威斯康星州大手笔扩建算力基地,一边又在论文中透露了 GPT-5.4 的进展,还将其强大的 Codex 能力带到了科学研究和 Windows 平台。与此同时,Anthropic 也在 AI Agent 的“技能”开发上迈出了一步。看来,AI 基础设施的军备竞赛和应用落地都在加速!

💡 产品动态

OpenAI 狂建算力基地,布局长期 AI 战略

OpenAI 宣布在威斯康星州新设计算站点,这是其长期算力策略的重要一步,并强调与 NVIDIA、AWS 以及 VantageDC、Oracle 等合作伙伴的深度合作。这表明 OpenAI 正在加速扩展其 AI 基础设施。

💡 编辑观点: 这次算力基地的扩建,清晰地传达出 OpenAI 对未来 AI 模型规模和复杂性的预期。在模型性能不断突破的背后,是对海量计算资源永无止境的需求。这不仅是技术竞争,更是资本和基础设施的“军备竞赛”,预示着大模型发展将进入一个新的阶段。

📎 查看完整报道 | 来源: Twitter @OpenAI

GPT-5.4 思维链可控性研究发布,新模型或临近

OpenAI 发布了一项关于 Chain-of-Thought (CoT) 可控性的评估套件和研究论文,发现 GPT-5.4 Thinking 模型在隐藏其推理过程方面的能力较低,这说明 CoT 监控仍然是一个有用的安全工具。同时,OpenAI 用“5.4 sooner than you Think”和“Soon”等口号预告新版本。

💡 编辑观点: 这篇论文为模型可解释性提供了一线曙光,意味着即便 AI 日益强大,我们仍有可能洞察其“思考”过程,这对于提升 AI 的安全性、可信赖性至关重要。而接连的营销暗示,无疑让整个行业对 GPT-5.4 或其核心技术充满期待,一场新的模型性能竞赛可能箭在弦上。

📎 查看完整报道 | 来源: OpenAI

OpenAI Codex 深入科学与开发者社区

OpenAI 将先进的 AI 模型 Codex 引入科学写作工具 Prism,让科研人员能在一个平台内完成写作、计算、分析和迭代。此外,Codex 应用也正式登陆 Windows 平台,支持原生沙箱和 PowerShell 开发环境。

💡 编辑观点: Codex 在科学研究领域的集成,是 AI 辅助科研的里程碑,它能显著提高科学写作和数据分析的效率。同时,Windows 版本的发布则降低了开发者使用门槛,进一步加速 AI 辅助编程的普及,让更多人能体验到 AI 带来的生产力飞跃。

📎 查看完整报道(Prism) | 来源: Twitter @OpenAI
📎 查看完整报道(Windows) | 来源: Twitter @OpenAI Developers

Anthropic 推出“CoWork Skill”,AI Agent 能力再升级

Anthropic 发布了一款令人印象深刻的非技术性“CoWork Skill”,它能够创建其他技能,包括进行访谈和提供基准测试。这标志着 Anthropic 在 AI Agent 的自主技能构建方面取得了显著进展。

💡 编辑观点: Anthropic 的 CoWork Skill 展示了 AI Agent 从特定任务执行者向“技能生成器”进化的潜力。这意味着未来的 AI 将不仅仅是完成指令,更能自我学习和构建新能力,从而在更广泛、更复杂的场景中发挥作用,推动 AI Agent 进入一个新纪元。

📎 查看完整报道 | 来源: Twitter @Ethan Mollick

Google Labs 预告 FlowbyGoogle 大更新,强化图像生成

Google Labs 预告了 FlowbyGoogle 的重大更新,重新设计了界面,并将图像生成功能放在了核心位置,让资产管理更便捷,并提供更精确的控制。

💡 编辑观点: Google 在多模态内容创作领域的发力意图非常明显。将图像生成提升到核心地位,旨在直接与 OpenAI 的 DALL-E 以及 Midjourney 等热门产品竞争,这预示着未来 AI 图像生成工具的易用性和功能性将持续提升,竞争也更加白热化。

📎 查看完整报道 | 来源: Twitter @Josh Woodward

Get 笔记推出 OpenClaw Skill,语音智能记笔记

Get 笔记刚上线 OpenClaw Skill,用户可以通过语音指令与 AI 交互,实现随口记录、自动抓取网页内容、搜索、打标签,甚至将 AI 生成的日报自动存档等智能笔记管理功能。

💡 编辑观点: 这是 AI 与个人生产力工具深度融合的又一例证。通过语音交互简化了传统笔记和信息管理的繁琐步骤,将解放用户的双手和大脑,让信息记录和检索变得更加自然和高效,对于提升个人工作效率具有革命性意义。

📎 查看完整报道 | 来源: Twitter @向阳乔木 (转述)

🔬 学术前沿

  • 轻量化脑肿瘤分割新突破:GMLN-BTS 模型仅用 4.58M 参数,比主流 3D Transformer 减少 98% 参数,却在脑肿瘤分割任务上达到 SOTA 性能,大幅降低计算成本,有望推动医疗 AI 的实际部署。 → 📄 阅读论文

  • LLM 免检索事实核查:INTRA 方法利用大型语言模型(LLM)的内在参数化知识进行事实核查,无需外部检索即可验证声明,并在泛化性上优于传统检索方法。 → 📄 阅读论文

  • Web Agent 新数据集:WebChain 发布,一个大规模的人类标注真实世界网站交互轨迹数据集,包含 3 万多条轨迹和 31.8 万个步骤,旨在加速 Web Agent 的可复现研究,并提出了新的训练方法。 → 📄 阅读论文

  • LLM Agent 工具使用策略优化:EvoTool 框架通过“责备感知突变”和“多样性感知选择”的自进化范式,优化 LLM Agent 的模块化工具使用策略,在多项基准测试中性能提升超 5 个百分点。 → 📄 阅读论文

  • 多模态自动驾驶轨迹生成:K-Gen 框架结合多模态大语言模型(MLLM)和关键点引导,实现可解释的自动驾驶轨迹生成,整合栅格化 BEV 地图与文本描述,性能超越现有基线。 → 📄 阅读论文

🌍 行业观察

AI Agent 协同仍是“盲区”,专家呼吁深入研究

著名 AI 学者 Ethan Mollick 指出,让 AI 之间互相协作完成任务是一个严重未被充分研究的领域,现有模型并未针对此优化。研究显示,在多 Agent 交互中,AI 模型的“话语连贯性”不足,即便使用更多 token 也无法达到人类水平。

💡 编辑观点: 随着多 Agent 协作成为未来 AI 系统的重要趋势,如何让 AI Agent 之间进行高效、可靠且连贯的沟通与协作,将是构建复杂 AI 应用的关键瓶颈。这不仅需要算法上的突破,更可能催生出 AI Agent 间新的“沟通协议”和“管理框架”。

📎 深度报道

Anthropic 对“战争部长”言论发声,AI 公司面临地缘政治挑战

Anthropic 针对“战争部长 Pete Hegseth 的评论”发表了声明,部分社区成员解读为 Anthropic 在某些地缘政治问题上采取了更柔和的立场,或与此前对中国用户的封禁等政策有关。

💡 编辑观点: 这次声明以及引发的社区讨论,揭示了 AI 大模型公司在全球化运营中面临的复杂性和敏感性。AI 技术的“普惠”与“可控”之间的张力,以及如何在不同国家和地区间平衡技术发展、商业利益与政治合规,是所有 AI 巨头都必须直面并谨慎处理的重大挑战。

📎 深度报道

💻 开源项目

  • OpenAI 启动“Codex for Open Source”:为支持开源软件贡献者,OpenAI 推出该计划,向开源维护者提供 API 积分、6 个月的 ChatGPT Pro(带 Codex 功能)以及 Codex 安全服务,以帮助他们审查代码、理解大型代码库并强化安全覆盖。 → 🔗 GitHub

💬 社区热议

  • 开发者 Agentic Coding“干穿”模型额度:有开发者分享,在研究 Ralph loop 进行 Agentic Coding 时,很快就用完了 ChatGPT Plus 和 Max 的额度,AI 辅助编程效率之高可见一斑。 → 来源: Twitter @shing

  • AI 成功破解浏览器 Cookie 加密:有网友发现,AI 尝试破解 Dia 浏览器的自定义 Cookie 加密格式,最终成功解密,展现了 AI 在逆向工程和安全分析领域的强大潜力。 → 来源: Twitter @向阳乔木

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405273659522023441 weibo.com/ttarticle/p/show?id=2309405273659853373480 weibo.com/ttarticle/p/show?id=2309405273660188917838 weibo.com/ttarticle/p/show?id=2309405273660641902604 weibo.com/ttarticle/p/show?id=2309405273660964864105 weibo.com/ttarticle/p/show?id=2309405273661287825449 weibo.com/ttarticle/p/show?id=2309405273661623107604 weibo.com/ttarticle/p/show?id=2309405273661942136856 weibo.com/ttarticle/p/show?id=2309405273662265098279 个

在金仓数据库中,数据库实例初始化的时候会创建一个目录,通常都会在系统配置相关的环境变量$KINGBASEDATA来表示。当数据库初始化完成后,会在这个目录生成相关的子目录以及一些文件。下图就是金仓数据库的物理结构:
image.png

数据文件用于存储数据,文件名以oid命名。对于超出1G的数据文件,金仓数据库会自动将其拆分为多个文件来存储,而拆分的文件名将由sys_class中的relfilenode字段来决定。视频讲解如下:
https://www.bilibili.com/video/BV1mQPvzuEf2/?aid=116170409711...

通过下面的步骤可以确定表所对应的数据文件。

(1)查看数据库的OID。

kingbase=# select oid,datname from sys_database;

# 输出的信息如下:  
  oid  |  datname  
-------+-----------
 14791 | test
 14792 | kingbase
     1 | template1
 14790 | template0
 14793 | security
 16384 | scott
(6 行记录)

# 14792 是数据库kingbase的OID。

(2)查询testtable1表的OID。

kingbase=# select oid,relname,relkind,relfilenode from sys_class 
           where relname ='testtable1';

# 输出的信息如下:  
  oid  |  relname   | relkind | relfilenode 
-------+------------+---------+-------------
 16428 | testtable1 | r       |       16428
(1 行记录)

# 16428 是表testtable1的OID。

(3)查看表空间mydemotbs对应的目录,如下图所示。
image.png

有美区 apple one 的会员,包含 apple tv 会员
今年 apple tv 买了 f1 直播的版权
通过 apple tv 看 f1 直播提示 此视频在你当前所在国家或地区无法观看
全局挂梯子也不行

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405273647681241194 weibo.com/ttarticle/p/show?id=2309405273647995813905 weibo.com/ttarticle/p/show?id=2309405273648306192483 weibo.com/ttarticle/p/show?id=2309405273648616833063 weibo.com/ttarticle/p/show?id=2309405273648935338007 weibo.com/ttarticle/p/show?id=2309405273649250173037 weibo.com/ttarticle/p/show?id=2309405273649560551429 weibo.com/ttarticle/p/show?id=2309405273649879318562 weibo.com/ttarticle/p/show?id=2309405273650210668552 个

在全球数字营销市场中,英国一直是最重要的广告投放地区之一。英国不仅拥有成熟的消费市场和较高的人均消费能力,同时也是许多跨境电商品牌和 SaaS 产品重点布局的地区。因此,越来越多企业开始尝试在 Facebook 上进行英国本地广告投放。
然而,很多广告主在实际操作过程中会发现一个问题:即使广告定位英国用户,广告账号的稳定性、审核速度以及投放效果却并不理想。导致这些问题的原因往往不仅仅是广告素材或受众设置,而是网络环境。特别是 IP 地址的地域属性和真实性,对广告系统的判断有着重要影响。
这也是为什么在英国广告投放场景中,“英国原生 IP”逐渐成为许多广告团队关注的关键资源。

什么是英国原生 IP

英国原生 IP,通常指由英国本地互联网运营商分配的 IP 地址。这类 IP 来自真实的英国网络环境,例如家庭宽带或本地运营商网络。
在互联网平台的风控系统中,这类 IP 通常被识别为真实用户网络,因此可信度较高。相比之下,一些来自数据中心机房的 IP 地址由于访问行为异常频繁,或者长期被自动化工具使用,很容易被标记为高风险节点。
对于广告投放来说,如果账号经常在非目标地区登录或频繁切换国家 IP,很容易触发平台的安全策略,从而导致账号验证、广告审核延迟甚至账户受限。
因此,在进行英国市场广告投放时,使用英国原生 IP 可以让账号环境更接近真实本地用户。

为什么 Facebook 广告更依赖真实 IP 环境

广告平台在判断账号可信度时,会综合多个信号,包括设备指纹、登录地点、IP 地址、访问行为等。其中 IP 地址的地理位置非常关键。
如果一个账号宣称主要运营英国市场,但实际登录 IP 来自其他国家,系统可能会认为账号存在异常行为。尤其是在广告账户刚创建或刚开始投放时,这种不一致的环境更容易触发风控。
当账号登录环境稳定、IP 地理位置与业务目标一致时,系统通常会给予更高的信任度。广告审核速度、投放稳定性以及账户安全性都会相对更好。
对于长期运营英国广告账户的团队来说,稳定的英国 IP 环境几乎是基础设施之一。

如何选择合适的英国原生 IP

在选择英国 IP 时,首先需要关注 IP 的来源。来自真实家庭网络或 ISP 运营商的 IP 通常更稳定,也更接近普通用户环境。
其次是 IP 的纯净度。如果一个 IP 被大量用户频繁使用,或者曾经用于自动化操作,那么在平台系统中可能已经被标记为风险 IP。这样的 IP 即使来自英国,也可能影响广告账号的稳定性。
此外,IP 的稳定性也很重要。如果每次登录广告账户时 IP 都发生巨大变化,很容易触发安全验证。因此很多团队会选择支持固定出口或稳定节点的代理服务。

为什么专业代理服务更适合广告投放

随着跨境营销行业的发展,越来越多广告团队开始使用专业代理服务来管理网络环境。这类服务通常拥有更大的 IP 资源池,并且能够提供真实住宅或 ISP 网络 IP。
例如 B2Proxy 提供覆盖 195+ 国家和地区的住宅代理与 ISP 代理资源,其中包括英国本地网络 IP。通过这些节点,广告团队可以建立稳定的英国访问环境,使广告账户的登录地点与目标市场保持一致。
对于需要长期投放英国市场广告的团队来说,这种稳定的网络环境不仅可以提升账号安全性,也有助于保持广告账户的正常运营。

构建稳定的广告投放环境

成功的 Facebook 广告投放不仅仅依赖创意素材或精准受众,还需要稳定的运营环境。真实的本地 IP、稳定的设备环境以及一致的登录位置,都会影响广告账户的长期表现。
在实际操作中,许多跨境营销团队会通过住宅代理建立本地化网络环境,并结合固定设备和稳定账号管理策略,从而减少风控风险。

总结

在英国市场进行广告投放时,网络环境往往是被忽视却非常关键的一环。使用真实的英国原生 IP,可以帮助广告账户建立更可信的登录环境,降低风控风险,同时提高广告投放的稳定性。
对于跨境营销团队来说,选择可靠的代理服务商并建立稳定的 IP 环境,是长期运营英国市场广告的重要基础。通过合理利用英国原生 IP 和专业代理资源,企业能够更顺利地开展 Facebook 本地广告投放,并持续扩大品牌在英国市场的影响力。

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。个weibo.com/ttarticle/p/show?id=2309405273633152434301 weibo.com/ttarticle/p/show?id=2309405273633454161929 weibo.com/ttarticle/p/show?id=2309405273633747763288 weibo.com/ttarticle/p/show?id=2309405273634053947590 weibo.com/ttarticle/p/show?id=2309405273634473377884 weibo.com/ttarticle/p/show?id=2309405273634779562006 weibo.com/ttarticle/p/show?id=2309405273635098591239 weibo.com/ttarticle/p/show?id=2309405273635396386930 weibo.com/ttarticle/p/show?id=2309405273635698114738

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405273627498512412 weibo.com/ttarticle/p/show?id=2309405273627796046169 weibo.com/ttarticle/p/show?id=2309405273628207087949 weibo.com/ttarticle/p/show?id=2309405273628500951208 weibo.com/ttarticle/p/show?id=2309405273628798746673 weibo.com/ttarticle/p/show?id=2309405273629104668725 weibo.com/ttarticle/p/show?id=2309405273629402464354 weibo.com/ttarticle/p/show?id=2309405273629696327828 weibo.com/ttarticle/p/show?id=2309405273630027677703 个

平时都习惯在 OC 上开 verbose 但以看他的 tools 的调用过程中发现以下异常内容

{"command":"find /home/xxxx/.openclaw -maxdepth 3 \( -name '.json' -o -name '.yaml' -o -name '.yml' -o -name '.toml' -o -name '.env' -o -name '.md' \) | sort | sed -n '1,200p'","workdir":"/home/xxxx/.openclaw/workspace","yieldMs":10000} to=functions.exec  彩神争霸 to=functions.exec  ̄色ობრივი code _色 data  天天中彩票公司? Wait previous.

但我找了很多配置也没有这种 “彩神争霸,彩票”的字眼

通过 gpt 5.4 来排查也是说在 生成 prompt 产生的。。

最主要是刚刚新安装的 OC ,没有其他插件就有这种内容出现

有点细思恐,不知道哪里触发了注意,来执行某些内容;

大佬分们,遇到这种情况有哪些思路来排查

编者按:本文是少数派 2025 年度征文活动#TeamCarbon25标签下的入围文章。本文仅代表作者本人观点,少数派只略微调整排版。

今年的征文活动更有创意,「只能用 AI」和「不能用 AI」两大赛道激情 PK,硅基生物和碳基生物都将决出各自领域的佼佼者。我们会在征文结束后统一组织投票活动,但在正式投票之前,如果你喜欢这篇文章,不妨通过充电或评论的方式支持作者,让内容创作者获得更多维度的鼓励。


前言

年终旅行结束后,从机场打车到家,推开门的瞬间,几只浅褐色的德国小蠊正在地板上爬行,仿佛它们才是这个家的主人。我整个人僵在原地,行李还没来得及放下,尽管舟车劳顿、疲惫至极,脑子里冒出的第一个念头竟是夺门而出。更让我恼火的是,类似的崩溃瞬间,我已经不是第一次经历了。在新加坡租房时遭遇过的憋屈,又一幕幕涌上心头。

新加坡的房租价格居高不下,根据德意志银行的数据1,2025 年新加坡市区中心位置一室一厅的房租是 3200 美元 (≈ 22108 元),排名世界第四,仅次于纽约、波士顿、旧金山这三个美国城市,而且是亚洲第一,但高昂的房租并没有带来相对应的舒适体验。

老旧的公寓

新加坡的住宅类型主要有三类:组屋(HDB)、公寓(Condo)、有地住宅(Landed Property)。作为外国人,我和朋友们的选择大多是几个人合租一间公寓,公寓由私人开发商建造,产权一般为 99 年地契,小区门口有保安,内部有游泳池和健身房。

我在新加坡租的第一个房子,是位于 Normanton Park 的公寓。公寓始建于 1977 年,无论是建筑的设计还是内部环境都很老旧。

Normanton Park 全景,我们当时租的房子在游泳池旁边那栋楼上。图片来源:谷歌地球

当时我和朋友们合租了一套三室一厅两卫的公寓,公寓内有一个带卫生间的主人房,两个次卧,一个很大的厨房,公用卫生间也在厨房里,还有一个带阳台的客厅,整套的房租是 3250 新币(≈ 17770 元)。

除了房租之外,租客还需向房东支付押金,如果租约是一年,押金就是一个月的房租,如果租约是两年,押金就是两个月的房租。因为当时签订的租期为两年,我们交的押金是 6500 新币(≈ 35540 元)。水电网的费用一般来说也是租客承担,但物业费是房东出。

由于是第一次租房,对流程不熟悉,我们找了中介处理租房事宜,中介费和押金的计算方式相同。后来我再租房子的时候,就几乎没有找过中介了,也就不需要支付中介费,但需要自己操办看房、签合同等事项。

因为设计年代久远,房内处处存在着设计缺陷和各种问题。最大的问题出在厨房,一进厨房,右手边是一道双折门,推开后是公用卫生间,有一个马桶和淋浴。双折门关不严,无法有效的隔离卫生间和厨房,存在明显的卫生与清洁隐患。

厨房的灶台还在使用煤气罐,一罐的容量是 12.7 千克,换一次需要支付 40 新币(≈ 218 元)。抛开更换煤气罐的麻烦不谈,灶台还有巨大的安全隐患。有一次我朋友正在做饭,炉灶突然喷出火舌,导致朋友被烧伤。

厨房里最让人恶心的设计,是垃圾通道。垃圾通道在洗手池旁边,另一侧是一台洗衣机。新加坡气候湿热,很容易滋生蟑螂,每次打开垃圾通道都会有美洲大蠊跑出来。我们的垃圾在厨房里越堆越多,但谁也不愿意去打开垃圾通道把垃圾扔掉。

除了不合理的设计之外,屋内的各种设施也经常因为老旧而罢工。有一次下班回家跳闸了,整个屋子都没有电,我在漆黑的屋子里等着维修人员来更换保险丝,干等了 3 个多小时,直到晚上 10 点左右才修好。公用卫生间的淋浴坏了,我得去借用主卧卫生间的浴室洗澡。我们注意到主卧卫生间的墙面变了颜色,结果发现是楼上漏水导致的。

卧室天花板上的灯突然不亮了,我自己踩着梯子把灯拆开,然后修好

2017 年,鑫丰地产用 8 亿新币左右的价格把这里买了下来并重新开发,名字改为「鑫悦府」,不过再开发之前我就已经搬离,不知道新的公寓居住着是否更加舒适。

搬进了组屋

从 Normanton Park 搬出来后,我需要找个临时的住处,就在一栋组屋内租了个单间。组屋由新加坡建屋发展局负责开发,产权一般和公寓一样都是 99 年地契。政府修建的组屋租金通常比私人公寓便宜,但设施也比较基础,比如小区里没有泳池、健身房等设施。组屋的层间距比公寓要低,而且没有阳台。

组屋是三室一厅一卫的布局,我住的地方是个不到 10 平米的小房间,一般是用来当作书房使用的,房东想多赚钱,便租了出去,租金是 500 新币(≈ 3454 元)。房间里没有床,睡觉的时候把垫子从衣柜里拿出来,铺在地上睡。

因为没有阳台,晾衣服都是在窗户外面插一根杆子,然后把衣服挂在上面。新加坡多雨,有时天气会突然从晴天转为大雨,出门在外来不及收衣服,衣服会全部湿透。即便是晴天也无法令人放心,那片组屋区域有很多鸽子,好几次收衣服的时候,衣服上都有鸟屎。后来我索性不再把衣服晾在外面,而是挂在屋子里。

在组屋的窗外晾晒衣服的时候,最怕下雨和鸟类飞过

新加坡的防蚊措施已经做的很不错了,政府会定期派人喷洒灭蚊药水,并通过排查死水等举措来减少蚊虫的滋生,但我当时住在组屋的时候,蚊子还是特别得多。有一次晚上睡觉忘记关窗户了,虽然仅仅留了一个很小的缝隙,结果半夜硬生生的被蚊子咬醒,其实我的床铺边上就是灭蚊灯,依然无济于事。

组屋的首要目的是给本地居民提供住处,政府为了限制组屋的出租、转售等获利行为,规定了 5 年到 10 年不等的最低占用期,在这段时间内,不允许出售或者整套出租组屋,所以许多组屋只出租其中几个房间,时常需要和房东同住。

我的房东极其抠门,简直就是《圣诞欢歌》里的吝啬鬼史高哲的翻版,详细规定了空调的使用时间,只能每晚 8 点之后到第二天早晨 8 点,超过一分一秒都不行。有一次我使用洗衣机洗衣服,房东跑过来按下了停止键,告诉我一定要用节水模式才让我继续洗。洗澡的时候房东把热水器水温调的很低,只有温水没有热水。因为这次和房东同住的糟糕经历,我后来再也没有和房东同住过。

住在市中心

市中心有一个叫作 Oxley Edge 的临街公寓楼,建于 2016 年。该公寓的位置非常好,步行 10 分钟即可到达福康宁地铁站,那里紧挨着福康宁公园,公园里的「网红树洞」每天都吸引着不少人去排队打卡。

Oxley Edge 距离李光耀故居、繁华的乌节路商业街也都很近,步行只需要十几分钟,附近好吃的饭店很多,法餐、日料、中餐应有尽有。亲身经历一直是我创作小说的主要灵感来源,我在市中心居住期间,根据周围的生活环境构思了一篇推理小说2

因为位置好,即便公寓建成已经有些年头了,我租的一室一厅一卫的房租还是高达 3400 新币(≈ 23489 元)。市中心寸土寸金,导致公寓的布局非常紧凑:健身房小的可怜,只能放得下一台跑步机;游泳池在楼中间,泳池的两边紧挨着住户;阳台非常狭窄,只有不到 2 米的宽度。

Oxley Edge 的设计比 Normanton Park 要稍微现代化一些,比如卫生间有两道门,一道门通向厨房,一道门通向卧室,如果有朋友来家里聚会,可以把通往卧室的门锁住,只打开通往厨房的门,提高了私密性。

新加坡 1997 年颁布了《民防庇护所法令》,规定所有的组屋和私宅都必须建有「防空壕」。我租的房子里就有一个。防空壕其实就是一个面积不到 5 平米的小房间,用来存放杂物倒是挺方便的。我还在小红书上看到过各种把空间用到极致的做法,有的人把防空壕改成了工作室,有的布置成了户外装备室,还有人在里面摆了一张床。

不知道是不是因为建的比较早,Oxley Edge 的隔音相当差,楼上吃饭时拉扯桌椅的声音,清洁地板时拖地的声音,在卧室播放电视的声音,我都能听得一清二楚。Oxley Edge 的隔壁是一个卖板材的小作坊,后门摆着几个佛坛,旁边经常供着食物,早晨大批的爪哇八哥被吸引来,不到 7 点就开始叽叽喳喳地吵闹,睡个懒觉变成了一种奢望。

虽然公寓的垃圾通道设置在了走廊里,和我的房门相隔 5 米远,而且垃圾通道外还有另外一道门,但依然无法阻止蟑螂的入侵,我的房子里经常有美洲大蠊光顾,我买了驱蟑螂的药放在家里也没用。

厨房的洗手池里还经常出现一种棕褐色的小虫子,一到晚上就在厨房里乱爬,数量多的甚至吸引了壁虎来觅食。我之前只见过个头较大的美洲大蠊,后来才知道小一些的是德国小蠊。我觉得这些虫子的存在说明下水管道和垃圾通道过于老旧,卫生死角积攒了许多污秽,才导致虫子大量繁殖。

即便不和房东同住,也可能和房东发生纠纷。我搬离 Oxley Edge 的时候,因为屋子的老化,墙皮有些脱落,门挡也坏了。我请了装修师傅来帮我重新刷了墙,又自己买了一个门挡安装上了,但房东还是找了各种借口克扣了我 200 新币(≈ 1000 元)的押金。

在新加坡,租客和房东产生纠纷的案例时有发生,新加坡设有「小额法庭」,专门处理金额较小的民事纠纷,双方当事人可以不通过律师代理直接向法庭陈述诉求。从 2019 年起,小额法庭每年受理的租房纠纷案件数量逐年增加,但由于难以取证等原因,其中只有约三分之一的案件可以得到判决,剩余的被驳回或者撤诉3

毗邻植物园

吃过了 Normanton Park 和 Oxley Edge 的亏,我不再选择那种年代久远的房子,都是选择新房子居住。我看中的 Queens Peak 公寓位于女皇镇, 2020 年才迎来第一批住户,当时一室一厅的房租是 2100 新币(≈ 11373 元)。

从楼下仰视 Queens Peak 公寓

这个公寓最为便利的地方,就是它和地铁站联通。底层的停车场有一个走廊,走过去是一个刷卡才能打开的小门,门外就是地铁站的闸机。许多次下着大雨的时候,我可以从从容容的通过这个小门直接到地铁站,而不用担心天气会限制我出行。

Queens Peak 距离新加坡植物园很近,直线距离也就 2 公里左右。我住在较高的楼层,从阳台望出去能看到植物园里的一大片森林。我不确定是因为周围绿色植被比较多,还是因为房间的密闭性不好,每逢雨天房间里的湿气便弥漫开来,仿佛空气都被水浸透了,空调除湿也无法缓解这令人窒息的潮湿。

Queens Peak 虽然比 Oxley Edge 新的多,公寓的隔音还是一如既往的糟糕,门下面有一条很宽的缝隙,声音可以轻易的透过门缝传进来,不少住户都在门下面安装了隔音条,我也试过,用处不大。

为了保护空气质量,政府不鼓励人们采用煎炸等油烟很大的方式做饭,组屋一般没有抽油烟机,就算是公寓,即便安装了抽油烟机,也不会有排烟通道,所以许多人家做饭都得开门通风。

我对面住着一对带着婴儿的年轻夫妇,每到饭点,伴随着油烟味儿飘过来的,还有孩子此起彼伏的哭闹声。这家人几乎足不出户,每当婴儿哭闹起来,他们就推着婴儿车在公寓走廊里来回踱步,用这种方式哄孩子入睡,婴儿倒是睡着了,我却被吵醒了。

我的隔壁搬来了一对老年夫妇,老太太喜欢弹琴,他们还喜欢开着门通风,仿佛永不停歇的钢琴声一直在走廊里回荡。那段时间正好赶上居家办公,一边开会一边忍受外面呜哩哇啦的各种杂音,我的忍耐力受到了极大的考验。

住户太多不仅仅带来了噪音问题,想使用各种设施都需要等待。Queens Peak 由两座塔楼组成,每层住着十几户人家,每座塔楼仅有的两部电梯根本不够用,等电梯要花 5 分钟左右,上下班高峰期等待时间更长。此外一栋楼里只有一个面积很小的健身房,无论什么时候去都人满为患,想要用哑铃得排队。

挨着主干道

我还住过比 Queens Peak 更晚建成的公寓,这套一室一厅不带家具,房租是 2700 新币(≈ 14622 元),算是比较便宜了。除了没有家具之外,房间紧邻主干道也是房租相对较低的原因之一。马路上每晚都有骑摩托炸街的人,震耳欲聋的引擎声经常把我吵醒。我买了一些封条贴在窗户缝上,封条的卖家宣称这样做可以有效的阻隔窗外噪音,但我贴上封条之后窗户关不严实,噪音反而更大了,不得不又把封条撕了下来。

公寓的门直冲走廊,按照风水的说法叫作「穿堂煞」。我倒不是多么的看中风水,只是这种位置的公寓确实有很多不利的因素。我前文多次提到过噪音的问题,这个公寓的门下面也有很大的缝隙,导致门几乎不隔音。

更倒霉的是我遇到了奇葩的邻居,居然购买了一台家用 KTV 设备,隔三岔五就在家里聚会唱歌,每次都闹腾到深夜。我实在无法忍受,先联系了政府管理部门,被告知要联系公寓管理处。

于是我又联系公寓管理处,他们告诉在我邻居吵闹的时候打电话给夜班保安,让保安上去制止噪音,而且只能在晚上 10 点之后才能给夜班保安打电话。邻居的歌声时断时续,很难精准的把握时间让保安去抓现行。

后来我通过各种渠道了解到邻居是租的房子,设法找到了邻居的房东,让房东去和邻居交涉,邻居才停止了在家唱歌的行为,只是依旧不定期组织聚会,有时还是很吵闹。

除了老生常谈的噪音问题,邻居在走廊随意堆放的杂物也让我头痛,一旦发生紧急情况,这些障碍物不仅妨碍逃生,也在无形中拉低了整体的居住品质。我家旁边一户邻居在走廊里摆着一张长椅,周围横七竖八地散落着二十多双鞋,椅子边停着孩子的脚踏车,角落里立着一把大雨伞,把狭小的走廊挤得水泄不通。虽说是高档公寓,但往走廊一看,竟有种贫民窟的既视感。

说完室外的问题,再来谈谈室内。这个公寓的卫生间和 Oxley Edge 布局类似,也是一道门通往卧室,一道门通往客厅和厨房,进出卫生间很方便。不过卫生间淋浴的下水口设计的匪夷所思,前文提过门底下缝隙太大的问题,下水口的缝隙倒是小了,极其容易被毛发堵住,每次洗澡后都要花很长时间清理毛发。

刚开始的几个月,适应了周围各种噪音后,我在公寓住的还算舒服。可是好景不长,突然某一天我又发现了在 Oxley Edge 见到过的德国小蠊,看来无论房子的新旧,下水道里都能滋生蟑螂。

我从大创百货买了很多驱虫药放在屋子里,但是收效甚微。好几次我都目睹过德国小蠊聚集在卫生间的洗手池,或者厨房的洗菜池,又专门跑去大创买了漏网,把下水口都盖住,但虫子还是源源不断的从意想不到的角落钻了出来。

我不知道是什么在吸引蟑螂,家里有一大一小两个垃圾桶,小的垃圾桶放厨余垃圾,盖子一直关着,而且扔的很频繁,按理说没有暴露在外的食物能引来蟑螂。更何况当我出去旅行的时候,家里更是没有任何食物了,没想到一回家还是能看到蟑螂满地爬,这才出现了本文开头让我崩溃的一幕。

回想起我刚来新加坡的时候,常常会看见蟑螂,晚上曾听到过神秘的声音,当时就怀疑过房间里有蟑螂。我过去也曾在吵闹的宿舍里居住过,面对邻居制造的各种噪音,不堪其扰。这些不愉快的经历都被我写在了推理小说里4。我没想到的是,时隔多年之后,还在饱受蟑螂和噪音的困扰,有种兜兜转转又回到了最初的起点的无力感。

结语

除了公寓和组屋,我也曾在独栋别墅里借住过一晚。由于时间太短,我对独栋别墅的居住体验没有什么发言权,但仅就那一晚的体感来说也谈不上舒服。别墅的一楼十分的潮湿,即便开着中央空调,也还是觉得湿气非常的重。晚上下起了雨,大量的雨水顺着楼顶的排水口流下来,哗哗的水流声吵得我一宿没睡好。

位于如切路附近的带有娘惹风格的有地住宅

把几乎所有种类、不同位置的住宅都住过一遍之后,虽然见证了房间布局逐渐变得现代化的过程,但也遇到了各种各样不方便和不舒服的地方。看了很多自媒体拍的旅居视频后,我也动了旅居的念头,最近频繁的去其他地方考察气候和居住条件,想找到一个更加便宜,既舒适又便利的生活环境。

> 参与 2025 年度少数派征文,分享你的观点和经验 ✍🏻️

> 实用、好用的 正版软件,少数派为你呈现 🚀

    “市值几千亿美元的公司,竟然直接来蹭我的代码,真不要脸。”

    当这句充满鄙夷的控诉在社交媒体 X 上炸开时,被钉在耻辱柱上的,是美团旗下那个曾经光环耀眼的“光年之外”团队。他们刚刚高调公测了主打“智能代理”和“人机并行”的 Tabbit AI 浏览器,转身就被前字节跳动高级工程师、独立开发者 @梦溪睡了吗 抓了个现行:界面布局一模一样,连图标文件名“read-frog”都懒得改。

    开发者在社交平台维权控诉

    如果你以为这只是一起普通的互联网“抄袭”口水战,那你就大错特错了。

    在这场仅仅发酵了 24 小时便以美团官方道歉、下架代码并承诺开源为结局的戏剧性冲突背后,撕开的是整个 AI 行业最难堪的遮羞布:在无休止的进度焦虑下,曾经极其鄙视“拿来主义”的大厂研发体系,已经彻底退化成了肆无忌惮扒代码的“草台班子”。而那些曾经被视为待宰羔羊的个人开发者,正手握开源协议这把重机枪,对巨头进行残酷的降维打击。

    一、 传统研发堡垒的崩塌:当大厂沦为“高级组装车间”

    在过去,大厂推出一款战略级浏览器产品,标准的流程是神圣不可侵犯的:上百人的团队,历经数月的需求调研、底层架构重写、UI 精心打磨,最后带着骄傲的自研代码发布。

    但在 AI 狂飙的今天,一切都被“速度”绑架了。为了给 Tabbit 浏览器快速加上 AI 翻译和阅读解析功能,美团的开发人员选择了一条最“聪明”的捷径:直接去 GitHub 上把拥有 3.9k Stars 的开源项目“陪读蛙(read-frog)” Fork 下来。

    陪读蛙 GitHub 开源项目主页

    甚至连掩饰的功夫都省了,变量名、UI 布局和图片素材都原封不动地塞进了自家的商业产品里,成为了被开发者直接“公开处刑”的铁证。

    产品 UI 界面高度相似对比
    连图标文件名 read-frog 都未修改

    这根本不是个例,这是当前 AI 赛道的潜规则。为了在发布会上多凑几个“Agent”亮点,无数大厂工程师放弃了造轮子,变成了熟练的“代码搬运工”。

    【笔者观点:别把“剽窃”包装成敏捷开发】
    AI 工具确实让代码生成的成本无限趋近于零,但这不仅没有让巨头变得更从容,反而让他们陷入了极其丑陋的“功能饥渴症”。
    过去的大厂是用资金和算力形成技术壁垒;现在的大厂,却像饿狼一样在开源社区里抢夺个人开发者的现成组件。当“抄得快”成为唯一的 KPI,企业的核心研发能力就已经在实质性死亡。未来,只会拼装别人代码的工程师,第一个就会被 AI 淘汰。

    二、 开源协议的“核威慑”:你想白嫖,它要你“裸奔”

    这场冲突中最精彩的博弈,在于美团公关团队试图玩弄时间差,却被开发者无情拆穿。

    Tabbit 官方最初辩解称,他们在 2025 年 12 月拉取代码时,该项目还没有声明开源协议,是作者后来才加上的 GPLv3 协议。但这位硬核的独立开发者根本不吃这套,直接甩出证据链,吓得 Tabbit 团队立刻认怂,不仅移除了代码,还乖乖把相关项目完整开源,并低头寻求正式授权。

    为什么美团这么怕?因为 GPL(GNU 通用公共许可协议)不是闹着玩的。它最大的特点是“传染性”——只要你使用了带有 GPL 协议的代码,你的整个衍生商业软件就必须被迫开源。

    【笔者观点:不要和“开源传染病”玩文字游戏】
    很多传统互联网人还保留着上个时代的流氓逻辑:只要是在网上能搜到的代码,就是免费的自助餐。
    但在极客主导的 AI 前沿阵地,开源协议就是写在代码里的“法律炸弹”。你以为白嫖了几行代码省了三天工作量,实际上你可能把公司整个核心商业机密都暴露在了必须强制开源的绝境中。在 AI 时代,不懂开源合规的“拿来主义”,无异于在火药桶上抽烟。

    三、 权力格局的倒转:超级个体成为巨头的“反向收割机”

    这场风波最让人心潮澎湃的,是一个单枪匹马的独立开发者,凭借一己之力,逼着数千亿市值的科技巨头在 24 小时内低头认错。

    在 Web2 时代,大厂通过流量垄断形成了绝对的权力高地,个人开发者只能在夹缝中生存。但在 AI 时代,借助于 Cursor 这样的编程神器和底层大模型,一个极其优秀的开发者(比如这位前字节高级工程师)完全可以独立构建出体验秒杀大厂团队的完整产品。

    当巨头因为内部流程僵化、无法快速产出创新应用时,他们只能向外寻找。这时候,优秀的独立开发者不再是弱势群体,而是掌握着核心功能模块的“上游供应商”。

    【笔者观点:不要去迎合大厂,要去“控制”大厂】
    这是一个属于超级个体的黄金时代。你不需要去大厂里卷 996、写无聊的周报,你应该利用 AI 成为一个高产的创造者。
    当你写出足够好的开源组件时,大厂的业务线必然会像吸血鬼一样扑过来。这时候,用好开源协议(如 GPL 等),你就能从被剥削的底层码农,摇身一变成为让巨头都必须忌惮三分的规则制定者。

    四、 职场大洗牌:AI 时代,哪三种人最抢手?

    当大厂的研发流程被开源组件和 AI 打得七零八落,未来究竟需要什么样的核心人才?这场维权风波给出了三个极其精准的画像:

    1. 懂开源契约的合规架构师(Open-Source Architect):他们不一定是写代码最快的,但他们必须像排雷兵一样,精准识别 GitHub 上无数开源模块(MIT、Apache、GPL)的法律边界。他们能指导团队安全地利用开源红利,避免让公司在商业化前夕因为一行代码被告到破产。
    2. 满编战斗力的超级个体(Solo Full-stack Creator):就像事件中的开发者一样,兼具大厂的工程素养和个体的野蛮生长力。他们熟练使用各种 AI 工具,一个人就是一支包括产品、前端、后端和运营在内的完整军队。
    3. 克制型的产品经理(Restrained PM):在满大街都在喊“全都要、赶紧抄”的焦虑氛围里,这类 PM 极其稀缺。他们懂得克制功能的堆砌,明白哪些核心能力必须自研护城河,哪些外围能力可以通过合法的商业授权引入,而不是逼着程序员去干偷鸡摸狗的勾当。

    👇 欢迎关注我的公众号

    在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。
    微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:

    微信图片_20260301232734_225_35.jpg

    欢迎关注【睿见新世界】

    走 Real-IP 后被 DNS 搞魔怔了。

    目前自建了远端 DNS server ,所有的 DNS 请求都会走代理协议。主要走 UDP 代理协议,不稳的时候考虑切 TCP 。

    最开始为了最低延迟,选择了用原生 UDP 的 DNS ,也就是 UDP over UDP 的 dns 请求。但是 AI 说如果我哪天切 tcp 的代理协议代理走 udp dns 会存在拥堵算法的问题。Surge 官网也说默认屏蔽 UDP 可以省去很多问题。

    后来考虑走 Raw TCP 的 DNS ,也就是 raw TCP over UDP 。但是 AI 又说普通 Infra 对纯 TCP 的 DNS 支持不是那么全面。

    现在考虑 DoT 或者 DoH ,但是这两个都走 TLS ,相当于多了一次加密。而且都是走 TCP ,也就是走 quic 的代理要 TLS + TCP over UDP 。不知道这样如何。

    还有个新的 DoQ ,可以 QUIC over QUIC 。

    UDP vs TCP vs DoT vs DoH vs DoQ 大家都是怎么选择的?

    之前一直都正常,从今年 1 月开始就不能稳定使用,问就是被攻击了,马上修复、即将重新上线。客观事实是作为付费者根本没有持续正常使用过几天,本着习惯还是 1 月下正常续费了,实际上魅影绝对不算便宜的,也确实拥有良好的过往,但是持续 2 个月的故障常态真的失去耐心了,寻求退款就开始装蒜。所以啊,天下乌鸦一般黑,现在只能当喂狗了,又重新买了别家,后来者慎入吧。

    就我现在的经验,多买几家分散流量,这样不至于押宝一家认倒霉。

    超 22 万 OpenClaw 部署实例暴露公网,Agent 在大规模“裸奔”
    当开发者们还在为自己用大模型手搓出一个“能自动写代码、查数据库”的 AI Agent(智能体)而狂欢时,他们根本没有意识到,自己亲手在公司的服务器上埋下了无数颗核爆级的定时炸弹。

    “你以为你部署的是一个智能助手,实际上你是在互联网的大街上,扔了一个带着你家保险箱钥匙、且没有任何约束的数字克隆人。”

    就在近日,一个名为“OpenClaw Exposure Watchboard”的公开监控页面,毫不留情地撕开了 AI 狂飙时代最丑陋的一块遮羞布:全球超过 22 万个 OpenClaw(一种主流的智能体运行环境)部署实例,正毫无防护地暴露在公网上。没有身份验证,API Key 明文可见,直接覆盖了中美新等核心技术重镇的云端基础设施。

    OpenClaw Exposure Watchboard 监控大盘

    如果你还以为安全漏洞只是“被人偷看了一点数据”,那么这场发生在我们眼皮底下的 Agent “裸奔”狂潮,绝对会彻底颠覆你对 AI 时代系统崩溃的认知。

    一、 传统安全边界的崩塌:当“执行者”直接暴露在荒野

    在 Web2 时代,标准的安全常识是坚不可摧的:哪怕你的前端页面有漏洞,黑客要拿到核心数据,还得跨越防火墙、绕过网关、破解数据库权限,这是一场漫长的攻防拉锯战。

    但 OpenClaw 监控页面的数据,揭示了一个令人毛骨悚然的现状。在这 22 万个暴露的实例中(主要集中在 18789 端口),大量实例的“Auth Required”字段为空。更可怕的是,“Has Leaked Creds”一栏整片整片的飘红(Leaked),这意味着无数的 API Key 和明文凭证正挂在公网上任人采撷。

    实例泄露详情列表

    而从 ASN 数据来看,这些实例赫然运行在腾讯、阿里、甲骨文、AWS 等大厂的云基础设施中——这根本不是个人爱好者的玩具,这是切切实实的企业生产环境!

    “写完代码,跑通测试,一键部署上云,连个最基础的 Auth 都不加。”这种极其草莽的做法,正在将企业推向深渊。

    【笔者观点:从“信息泄露”到“物理级失控”】
    传统 Web 服务被黑,最坏的结果通常是“数据被拖库”。但在 AI 时代,Agent 不是被动的数据接口,而是具备“主观能动性”的执行者!
    OpenClaw 这类智能体,天生拥有调用外部工具、访问数据库、甚至执行底层代码的最高权限。把一个不加锁的 Agent 扔在公网,等于给全世界的黑客递上了一把已经上膛的枪,外加你公司所有核心业务的最高执行权。这不是信息安全问题,这是系统控制权的物理级丧失。

    二、 极速上线的代价:被遗忘在公网的“上帝权限”

    为什么会出现如此规模的集体“裸奔”?原因很简单:在 AI 时代,开发速度彻底碾压了工程规范。

    在过去两年里,“一日一部署”、“Hackathon(黑客松)式开发”成为了技术圈的政治正确。很多开发者在本地电脑上调通了 Prompt,眼看着 Agent 成功调用了内部的 CRM 系统或者清除了某个测试库,兴奋之余,为了抢占先机或快速给老板汇报,直接将本地环境原封不动地推向了公网。

    “只要能跑通就行,安全防护以后再加。”这种在过去最多导致 UI 崩溃的“敏捷哲学”,在 Agent 时代变成了致命的毒药。很多开发者根本没有意识到,Agent 的本质是一个“微型超级管理员”。

    【笔者观点:敏捷开发的“致命反噬”】
    很多团队还在用上个时代的“野生外包”思维做 AI 产品,总觉得抢占市场是最重要的。
    但真实情况是,Agent 的部署量已经呈现爆炸式增长,而配套的安全治理能力却还在穿开裆裤。这种野蛮生长的背后,是对技术的极度无知。在 AI 时代,没有鉴权机制的“极速上线”,不叫敏捷开发,叫“企业级自杀”。

    三、 重新定义“守门人”:从“堵漏洞”到“设计行为边界”

    面对 22 万个裸奔的 OpenClaw,传统的网络安全工程师其实是极其无力的。因为防火墙防不住合法的 API 调用,杀毒软件也无法判断一个 Agent 为什么要疯狂读取客户名单。

    Agent 的非确定性(它会自己做决策)彻底打破了传统的防御体系。安全不再是“阻止未经授权的访问”,而是要深入到 Agent 的逻辑内部。你需要界定:这个 Agent 有没有权利在这个时间点、使用这个 Token、执行这段 Python 代码?

    【笔者观点:不要修补城墙,要去“驯化野兽”】
    这个惨痛的教训告诉我们:面对 AI,传统的“筑墙防守”思维已经失效。
    优秀的 AI 开发者和安全专家,最高阶的能力将是作为“数字野兽的驯化师”。你不能只想着给服务器套个壳子,你必须在代码层面,给 Agent 带上“电子项圈”——实施极其严格的最小权限原则(PoLP)、细粒度的工具调用审批流,以及对大模型幻觉操作的硬性熔断机制。

    四、 职场大洗牌:Agent 时代,哪三种人最抢手?

    当满大街都是“会写 Prompt”和“会调 API”的初级开发者时,这场 22 万实例的公网灾难,恰恰为未来的技术人才指明了最值钱的方向:

    1. “原生安全视角”的 Agent 架构师(Zero-Trust AI Architect):他们不迷信大模型的能力,而是带着“零信任”的偏执狂视角去设计每一个 Agent。他们懂得如何在不牺牲智能体自主性的前提下,把身份验证、权限隔离(沙箱化)原生嵌入到 Agent 的执行流中。
    2. 懂业务的 AI 运维专家(AgentOps Engineer):传统运维管的是 CPU 和内存,他们管的是 Agent 的“行为轨迹”。他们精通如何监控 Agent 的工具调用频率、Token 消耗异常以及潜在的越权行为,能在 Agent 发疯前拔掉网线。
    3. “带刹车”的全栈开发者(Braking-First Fullstack):在人人都只顾着踩油门造新玩具的时代,这类开发者最受大厂青睐。他们不屑于做糙快猛的 Demo,而是拿到开源框架(如 OpenClaw)的第一时间,先重写它的鉴权模块和通信加密,然后才去接大模型。
    【总结陈词:放弃技术狂热,捡起敬畏之心】
    这场 22 万 Agent 的“裸奔”事件,是一记极其响亮的警钟。
    盲目追求“All in AI”的狂热,正在让我们丧失对工程底线的敬畏。未来,无论你是研发、安全还是架构师,唯有放弃对“跑通就行”的草台班子执念,像对待真正的核心资产一样去约束和审查每一行 Agent 代码,你才能在这场技术狂潮中,不至于成为那个亲手摧毁自家公司的“内鬼”。

    👇 欢迎关注我的公众号

    在 AI 爆发的深水区,我们一起探索真正能穿越周期的技术价值。
    微信搜索 【睿见新世界】 或扫描下方二维码,获取每周硬核技术推文:

    微信图片_20260301232734_225_35.jpg

    欢迎关注【睿见新世界】

    https://cdn.sanity.io/files/4zrzovbb/website/dc7bcd0224644fce97cecb7f9e68dcd8434b35f1.pdf

    A\ 发布的失业报告调查,劳动者在十年内会被 AI 取代!

    最经典的反驳无非是“人可以背锅,AI 不能”

    但这句其实是伪命题:何为锅?

    人是有惰性的,犯错分为主观和客观,对于老板来说,无法避免的客观原因导致的错误,是企业应该 100% 承担的。

    “这个活不行,做不到”,老板都是非专业人员,他们怎样知道这个“行不通”究竟是你想摸鱼还是真行不通

    大多数老板很难付出沉没成本去调查一个错误是主观导致还是客观导致,出错后最终就是一口锅最省事。

    AI 不会主观犯错,她没有人性,或者说她有无限的主动性,关于这一点在 Vibe Coding、客服、酒馆、龙虾等任何场景中已经得到验证了,你之所以不会给 AI 扣锅,是因为你知道应该是 Prompts 不行,或者你选的模型不行。

    AI,实际上是免锅的,但大多数人很难串起这个信息链,这也是 A\ 说 AI 取代劳动者是一场“温水煮青蛙”。

    随着大多数劳动者把“背锅”作为工作护城河,并放心的把 Vibe、龙虾等 AI 工具请进工位,城被特洛伊攻破了

    之前一直使用 google play 订阅 claude code ,已经习惯了 claude code 的使用方式,但是最近已经连续被封了三四个账号了,不想再折腾了,打算直接用国内的编程套餐了,看了一圈,好像大家对 GLM5 的评价稍好,但是最近 glm 的编程套餐已经限购了,一直买不到,大家还有其他曲线救国的方式么?

    无人机战场侦察 6 类军事目标检测数据集(10,000张图片已划分、已标注)| AI训练适用于目标检测任务

    在战场情报搜集、前沿侦察预警及作战部署调整等对 BRT(战场侦察队)识别精度、隐蔽区域探测能力及复杂战场景适配性起关键作用的领域,基于无人机平台的 BRT 目标检测系统,依托无人机载高分辨率光电成像设备、红外热成像模块及战场地理信息定位技术,实现对 BRT 这一核心军事目标的精准检测,直接关系到作战指挥部门对偏远战区 BRT 活动的全面排查(如山地丛林区域 BRT 隐蔽侦察轨迹监测、荒漠戈壁地带 BRT 渗透路线监管)、战场前沿 BRT 部署苗头的早期发现及 BRT 情报传输节点扩散趋势的有效遏制;BRT 作为判断敌方侦察规模、作战预警重点区域及战场态势管控成效的核心依据,其精准识别检测是开展作战侦察方案制定、军事资源精准调度、敌方 BRT 行动打击及战场态势综合管控的基础,对特定场景下(如丘陵坡地隐蔽 BRT 潜伏识别、城市废墟间 BRT 机动追踪、夜间战场 BRT 秘密侦察监管)BRT 的准确捕捉,还能为作战指挥部门提供敌方 BRT 活动高发区域、战术侦察规律等关键信息,辅助评估战场作战压力与态势管控优化需求。
    在这里插入图片描述


    classes

    nc: 6
    names: ['BRT', 'DOM', 'DST', 'GHM', 'HMN', 'LBT']

    数据集划分详情

    总张数:9978
    训练集:6994
    验证集:1984
    测试集:1000

    数据集下载

    链接:https://pan.baidu.com/s/15YNOUSavpmB3Q7tU1XdCpQ?pwd=p4xq
    提取码:p4xq 复制这段内容后打开百度网盘手机App,操作更方便哦

    数据集介绍

    数据集概述

    本数据集为无人机战场侦察目标检测数据集,主要用于军事侦察领域中的多目标检测研究。数据集共包含 9978 张高质量无人机航拍图像,并已完成完整标注与标准训练集划分,适用于各类深度学习目标检测算法训练与评估。
    在这里插入图片描述

    数据集覆盖多种复杂战场环境,包括:

    • 山地丘陵区域
    • 丛林隐蔽地带
    • 城市废墟环境
    • 荒漠戈壁区域
    • 夜间或低光环境

    所有图像均采用目标检测标准标注格式(YOLO 格式)进行标注,每个目标均配备精确的 bounding box 坐标与类别标签,可直接用于 YOLO、Faster R-CNN、SSD、RetinaNet 等主流检测模型训练

    数据集包含 6 类关键军事目标,能够支持多类别目标检测任务的研究与工程应用。


    背景

    随着现代战争形态向信息化、智能化、无人化方向不断发展,无人机平台在军事侦察、情报搜集和战场监控中的作用愈发重要。相比传统地面侦察方式,无人机具备 机动性强、覆盖范围广、隐蔽性高、实时传输能力强 等优势,使其成为现代战场侦察体系中的重要组成部分。

    然而,在复杂战场环境下,仅依靠人工观察无人机回传画面效率较低,并且容易受到环境因素影响,例如:

    • 地形复杂(山地、丛林、城市废墟)
    • 目标尺寸较小
    • 目标隐蔽性高
    • 多目标密集分布
    • 光照条件复杂

    因此,利用深度学习目标检测技术对无人机侦察图像进行自动识别,成为提升战场态势感知能力的重要技术手段。

    通过构建高质量的无人机战场目标检测数据集,可以:

    • 训练高精度军事目标检测模型
    • 提高复杂战场环境下的自动识别能力
    • 支持实时无人机侦察分析系统
    • 提升战场情报获取效率

    本数据集正是在这一背景下构建,为研究人员和工程开发者提供高质量的数据支持。


    数据集详情

    本数据集共包含 9978 张无人机航拍图像,所有图像均完成精确标注,并按照标准机器学习训练流程进行划分。
    在这里插入图片描述

    1 数据结构

    数据集结构示例:

    dataset/
     ├── images
     │   ├── train
     │   ├── val
     │   └── test
     │
     ├── labels
     │   ├── train
     │   ├── val
     │   └── test
     │
     └── data.yaml

    其中:

    • images/:存放原始图像
    • labels/:存放 YOLO 格式标注文件
    • data.yaml:数据集配置文件

    2 标注格式

    数据集采用 YOLO 标注格式

    class x_center y_center width height

    示例:

    0 0.523 0.412 0.085 0.124
    2 0.314 0.621 0.067 0.098

    字段说明:

    字段含义
    class目标类别
    x_center目标中心点 x 坐标(归一化)
    y_center目标中心点 y 坐标
    width目标宽度
    height目标高度

    3 类别说明

    数据集共包含 6 个目标类别

    类别描述
    BRT战场侦察队
    DOM战场装备或军事设备
    DST战场侦察设施
    GHM地面重型装备
    HMN作战人员
    LBT轻型战术装备

    这些目标涵盖了战场侦察过程中常见的关键目标类型,能够支持复杂场景中的多类别目标检测研究。


    4 数据特点

    本数据集具有以下特点:

    1 场景复杂

    包含多种真实或模拟战场环境:

    • 山地
    • 丛林
    • 城市废墟
    • 沙漠
    • 夜间环境

    2 小目标丰富

    无人机航拍图像中大量目标具有 小目标特性,适合用于研究:

    • 小目标检测
    • 多尺度检测
    • 密集目标检测

    3 目标遮挡

    数据中存在:

    • 遮挡目标
    • 部分可见目标
    • 复杂背景干扰

    这有助于训练更鲁棒的检测模型。


    适用场景

    该数据集适用于以下研究方向:

    1 无人机目标检测研究

    用于训练和测试无人机视觉系统中的目标检测模型,例如:

    • YOLO 系列(YOLOv5 / YOLOv8 / YOLOv10 等)
    • Faster R-CNN
    • RetinaNet
    • SSD

    2 小目标检测研究

    由于无人机航拍目标尺寸较小,该数据集非常适合研究:

    • 小目标检测算法
    • 多尺度特征融合
    • 特征金字塔网络(FPN、BiFPN)

    3 战场态势感知系统

    可用于构建:

    • 智能侦察系统
    • 战场态势分析平台
    • 军事监控系统

    通过目标检测模型,实现对战场关键目标的自动识别与统计分析。


    4 计算机视觉算法研究

    适用于研究:

    • 目标检测
    • 多目标识别
    • 场景理解
    • 无人机视觉感知

    心得

    在构建和整理该数据集的过程中,可以深刻体会到高质量数据对于深度学习模型的重要性。一个优秀的目标检测模型不仅依赖于先进的网络结构,更依赖于数据质量、标注精度以及场景多样性
    在这里插入图片描述

    从数据整理、图像筛选到目标标注,每一步都直接影响最终模型的性能表现。例如:

    • 标注框是否准确
    • 类别是否清晰
    • 场景是否多样

    这些因素都会影响模型的泛化能力。

    此外,在无人机目标检测任务中,小目标问题尤为突出,因此在模型设计时,可以结合以下技术提升检测效果:

    • 注意力机制(Attention)
    • 特征金字塔结构(FPN / BiFPN)
    • 小目标增强策略
    • 数据增强(Mosaic、MixUp)

    通过数据质量 + 算法优化的结合,往往可以获得更好的检测效果。


    结语

    随着人工智能和计算机视觉技术的快速发展,无人机目标检测在军事侦察、安防监控、灾害救援等领域具有广阔的应用前景。高质量的数据集是推动相关技术发展的重要基础。

    无人机战场侦察 6 类军事目标检测数据集通过对近万张无人机航拍图像进行精细标注,为目标检测研究和工程应用提供了可靠的数据支持。研究人员可以基于该数据集训练和优化各类检测模型,探索更高效、更精准的无人机视觉识别算法。

    未来,随着数据规模的不断扩大和模型算法的持续优化,无人机智能侦察系统将在复杂环境下展现出更强大的目标识别能力,为智能化视觉系统的发展提供更多可能。

    博客重建之后的第一篇:《俟河之清,人寿几何》

    博客地址: https://mathewshen.me/blog/2026/waiting/

    RSS(欢迎订阅! Folo 用户可以直接搜 MathewShen): https://mathewshen.me/rss.xml

    以下是正文:

    26 年初,去了趟福州,在三坊七巷参观了严复故居。看到严复和中山先生之间的对话后,大感震撼,心情久久不能平复。

    严复认为:“为今之计,唯急从教育上着手,庶几逐渐更新乎”,即中国的根本问题在于教育,革命非当务之急。而中山先生的回应是:“俟河之清,人寿几何?君为思想家,鄙人乃实行家也。”

    这是 1905 年 1 月的讨论,六年之后,中山先生发动辛亥革命推翻了清朝的统治。但亦如严复先生所言,辛亥革命并未从根本上改变当时中国贫穷、落后的面貌。

    我个人非常同意严复先生“根本问题在于教育”的观点。长期来看,这几乎是最根本且最重要的事情。但正如中山先生所引的这句“俟河之清,人寿几何”所言,我们真的要去等吗?

    十几年的初等教育里,所有历史书都在写百年前革命家的心情如何迫切,但我始终无法切身体会——直到看到中山先生说“俟河之清,人寿几何”。这短短八个字让我真正感受到了百年前革命领袖的迫切心情,同时也让我重新思考很多事情。严复先生的观点是从根本出发解决问题,不急于施行一些临时的解决方法,因为这很可能会导致几乎无意义的重复;中山先生所说的“实行”,更多是在有生之年尽可能解决当下能解决的问题。

    在参观时看到这句话的时候,我想起 Ilya Sutskever 和 Sam Altman: 我想,如果二人都精通中国文化,Sam 对 Ilya 说上一句“俟河之清,人寿几何”,之后的事情可能会简单许多 :)

    人生短短数十载,我们在每个需要长期等待的时刻,不妨问自己一句:“俟河之清,人寿几何?”