2026年3月

一、核心认知:OpenClaw是什么
OpenClaw是开源本地优先的AI任务执行引擎,区别于普通聊天AI,能听懂指令并直接完成实操任务(文件处理、自动化、API调用等),主打数据可控、模型可切换、免费开源。
二、核心选择:4大关键维度

  1. 部署模式(按需选)

本地部署:隐私敏感/个人/开发者首选,数据不出设备,零后续成本,需自行维护
云端托管:非技术小白首选,开箱即用,订阅付费,省心便捷
混合架构:兼顾隐私与效率,简单任务本地、复杂任务云端

  1. 模型搭配(按场景)

本地模型:免费、隐私拉满,适合基础任务,硬件需显存≥16G
国内云端:中文适配好、稳定易用,日常/复杂任务适配,新用户多有免费额度
海外云端:复杂任务执行能力强,适配国际化场景,成本偏高

  1. 交互入口

WebUI:可视化操作,小白零门槛
CLI终端:开发者专属,灵活可定制
IM机器人(飞书/钉钉):团队协作、移动办公更便捷

  1. 安全底线
    恪守最小权限原则,仅开放必要操作权限;开启操作审计日志,全程可追溯;敏感数据坚决不走云端。
    三、人群适配方案

普通小白:本地部署+国内云端模型+WebUI,简单易用、隐私有保障
开发者:本地部署+混合模型+CLI,可控性强、支持二次开发
企业/隐私场景:纯本地私有化部署+本地模型,合规安全、数据不外流

四、避坑要点

敏感数据拒绝云端,优先本地部署
不盲目追求高价模型,基础任务用免费/本地款足够
严控AI操作权限,防止误操作、数据泄露
做好任务缓存,减少模型调用频次、规避限流

五、核心总结
选择OpenClaw的核心:贴合自身场景+守住隐私底线+控制成本+保障安全。让AI在可控范围内,高效帮你落地实操任务。

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405276211059490820 weibo.com/ttarticle/p/show?id=2309405276211445628936 weibo.com/ttarticle/p/show?id=2309405276211827048461 weibo.com/ttarticle/p/show?id=2309405276212204535862 weibo.com/ttarticle/p/show?id=2309405276212628422678 weibo.com/ttarticle/p/show?id=2309405276213165293573 weibo.com/ttarticle/p/show?id=2309405276213546975248 weibo.com/ttarticle/p/show?id=2309405276213932851210 weibo.com/ttarticle/p/show?id=2309405276214327115781 个

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405276200179466303 weibo.com/ttarticle/p/show?id=2309405276200556953620 weibo.com/ttarticle/p/show?id=2309405276201077047301 weibo.com/ttarticle/p/show?id=2309405276201488351255 weibo.com/ttarticle/p/show?id=2309405276201865838608 weibo.com/ttarticle/p/show?id=2309405276202247258165 weibo.com/ttarticle/p/show?id=2309405276202658562057 weibo.com/ttarticle/p/show?id=2309405276203031593009 weibo.com/ttarticle/p/show?id=2309405276203409080336 个

回不去的过去,只能忆往昔。

在当下经济不景气,收入降低情况下回顾下过去 10 年作为程序员收入的变化。

2014 年前情回顾,当时在 xxx 位置一家中美夫妻店公司上班,攒了一堆老同事做开发,里面员工有一些外国人,临近年底公司业务受限陆续开始裁员,预感不妙的我开始准备跑路,因为项目开发前胖子老美许诺开发完成给奖金,拍脑袋的项目最后缩减需求完成了,不提奖金的事情,我就坐不住了,问了技术负责人一个台湾人,胖子老美被迫每人发了 1000 块。我成了老板眼里坏人,大家普惠。当时工资 20k ,拿了一个月赔偿走人。

2015 年换到一家也是 xxx 位置附近公司,临近春节当时火速面了一堆公司,拿到 3-4 家 offer ,犹豫选择中,胖子老美找我谈话,同一天一气呵成,给一个月工资,多上一个月社保,电话通知下家同意 offer ,工资 24k 。

2016 年涨薪到 25.5k, 6 月开发组合并工作气氛变差,开始准备跑路,面了几家给出的 offer 居然工资下调,11 月接到老同事消息,他加入一家公司邀请我过去当负责人,位置 xxx ,32k 一月,这个涨幅是我没想到的。

2017 年组内裁员,换了负责人,每天日报周报的,我作为邀请来的技术负责人没必要撕破脸等裁员,只能主动跑路,5 月面试成功换到 xxx 位置公司上班,薪资 35k 。

2018 年涨薪到 35.5k ,当时区块链流行,公司紧急布局发币上所,最后赔的裤衩子不剩,年中开始裁员,拿钱走人,后面裁员的被欠钱。

2019 年入职 xxx 位置附近公司,薪资 36k ,然后行业崩塌,办公室搬迁,国庆节拿小礼包走人。

2020 年疫情第一年,入职 xxx 位置公司,28k ,年底团队切换引入自己人疯狂加班,团队散,拿 1.5 月年终,n+1 赔偿大礼包。

2021 年朋友介绍进入 xxx 位置公司,重回 36k 。疯狂加班从老板要求的 21 点,陆续有人卷到 22 点,23 点,24 点,凌晨 1 点。半年业务崩,裁员,小礼包。

2022 年换到一家 xxx 位置初创小公司,35k ,把我邀请的小伙伴开了后,我就时时刻刻想着跑路,在年中被居委会居家时候成功面试 xxx 位置公司。

2023 年重回 xxx 位置,28k ,传统行业自研系统想卖出去,年终失败裁员,发了一点年中奖,领大礼包走人。

2024 年 33k ,地址在 xxx 位置,web3 公司短暂半年,拓展钱包业务失败。

2025 东京 ...

去年的等合适时机写一篇长文。

国内黄金时间就是 17 年左右,疫情冻住三年。未来如何且行且珍惜。

还有一点规律 涨薪靠跳槽,攒钱靠礼包。

以上地点都是北京,这里隐去了地点名字。

全文在公众号文章:

https://mp.weixin.qq.com/s/onN1hGdbhFBie1TfNXOQlw

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405276189664346166 weibo.com/ttarticle/p/show?id=2309405276190033707051 weibo.com/ttarticle/p/show?id=2309405276190444748828 weibo.com/ttarticle/p/show?id=2309405276190817779716 weibo.com/ttarticle/p/show?id=2309405276191191334931 weibo.com/ttarticle/p/show?id=2309405276191573016589 weibo.com/ttarticle/p/show?id=2309405276191937921082 weibo.com/ttarticle/p/show?id=2309405276192311214092 weibo.com/ttarticle/p/show?id=2309405276192680050728 个

Metasploit Pro 5.0.0 (Linux, Windows) 发布 - 专业渗透测试框架

Rapid7 Penetration testing, released March 2026

请访问原文链接:https://sysin.org/blog/metasploit-pro-5/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


世界上最广泛使用的渗透测试框架

知识就是力量,尤其是当它被分享时。作为开源社区和 Rapid7 之间的合作,Metasploit 帮助安全团队做的不仅仅是验证漏洞、管理安全评估和提高安全意识 (sysin);更重要的是,它赋能防御者,使其能够始终在攻防博弈中领先一步(甚至两步)。

Dashboard

欢迎来到 Metasploit 的世界。你是否是一名 Metasploit 用户,想要开始使用它,或者提升你的漏洞利用与渗透能力(前提是对你有授权的目标进行测试)?最快的入门方式是下载 Metasploit 每夜构建安装包(nightly installers)。通过它,你可以同时获得免费的开源 Metasploit Framework,以及 Metasploit Pro 的免费试用版。

The Metasploit Team | Mar 12, 2026

随着越来越多可被利用的 CVE 落入犯罪分子手中,红队能力的作用和需求正在不断增长。主动防御已经不再只是每年一次的测试能力,而是需要持续进行评估,以确定暴露面,并验证组织的安全态势。基于这一点,Rapid7 非常高兴地宣布期待已久的 Metasploit Pro 5.0.0 正式发布——这不仅仅是一次更新,而是一种面向红队的全新方法,其唯一目标就是始终领先于能力不断增强的威胁行为者。

在众多变化中,Metasploit 5.0.0 提供了直观的测试工作流程,消除了不断演变的测试复杂性,同时还带来了一系列强大的新模块和关键增强功能。这是一个不容错过的版本。有关所有技术细节,可以查看完整的发布说明。

有哪些新功能?

🧭 直观的测试工作流程

告别复杂性,因为 Metasploit Pro 已经完全重构了测试工作流程。更新重点体现在直观的用户界面上,确保你的注意力始终集中在高价值的渗透测试和漏洞验证上,而不是与界面复杂性作斗争。这些变化为未来奠定了基础 (sysin),在保留你所依赖的核心功能的同时,也为未来提供更强大的功能支持。

Intuitive testing workflow

不再依赖猜测,而是直接可视化。新的 Network Topology 支持可以即时、清晰地展示哪些主机已经被攻陷、哪些主机关联了已破解凭据,或已经捕获了数据。对于拥有庞大且复杂攻击面的企业环境,Rapid7 还在性能方面进行了投入,使你能够在数百台主机之间自由缩放和平移查看而不会产生延迟。这是一种可操作的可视化方式,将数据转化为防御能力。

Intuitive testing workflow

🛠️ 漏洞检测改进

在点击“run”之前获得必要的确认。Metasploit 模块现在可以在运行时注册关键的漏洞检测细节。这意味着具备预检测逻辑的模块在你尝试利用漏洞之前就能提供完整的情报信息。这种新的透明度和细节水平使你能够做出更聪明、更快速的决策,从而节省宝贵时间,并最大程度减少模块运行失败以及潜在副作用的可能性。

Vulnerability detection improvements

⚙️ 高级工作流程改进

释放你的专家能力,实现前所未有的控制力与效率。Metasploit Pro 的高级用户将立即从单模块运行页面的多项 UX 改进中受益。厌倦了手动配置选项?现在系统会为适用的值提供智能建议 (sysin),包括网络目标、Kerberos 凭据缓存文件等,从而简化 ADCS 工作流程。

Advanced workflow improvements

此外,你现在还可以手动选择并配置单独的 payload,从而对目标利用方式拥有最终控制权。Metasploit Pro 仍然会默认选择每个漏洞利用最常见的 payload。

此外,还新增了一些提升使用体验的改进,用于重新执行模块运行,从而确保验证修复和重新利用目标可以成为一个无缝的一键流程。过去需要重新配置整个模块运行才能修改一个选项的时代已经结束 (sysin)。旧的列表视图现在也已更新,可以查看模块运行时使用的选项详情。这些能力同样可以被通过编程方式或通过命令行界面与 Metasploit Pro 交互的高级用户使用,从而清楚了解 Metasploit Pro 是如何运行模块的。

Advanced workflow improvements

最后,通过新的 session tagging 功能提升团队协作能力。现在可以为会话添加标签,从而支持更高级且协调的后渗透工作流程。团队成员可以即时应用自定义标签来跟踪状态并标记各种属性,这显著提升了多人协作任务中的协调性和组织能力。

🧨 AD CS 利用

应对现代网络中最关键的攻击向量之一:Metasploit 持续在现代漏洞利用技术上投入,并对 AD CS Workflows Metamodule 进行了重大更新。这一强大的新功能为安全专业人员提供了一种自动化且全面的方法,用于识别并利用九种常见的 AD CS 漏洞。

现在 Rapid7 进一步扩展了支持,新增对最新且最危险的 ESC 漏洞的支持:ESC9、ESC10 和 ESC16。重新掌控你的 Active Directory 环境,并以精确方式消除这些威胁。有关详细配置说明和完整功能文档,请访问 AD CS Workflows MetaModule 文档。

AD CS exploitation

🏷️ 会话标签

在快速变化的操作中,随着新会话不断上线以及分析人员在任务之间切换,上下文信息很容易迅速消失。Session tagging 通过允许你为每个打开的会话附加有意义的标签,使你的工作流程重新变得清晰。你不再只依赖 IP 或主机名,而是可以使用对团队真正重要的标识来标记会话 (sysin),例如优先级、环境或角色,从而轻松对相关系统进行分组,并即时识别高价值目标。

Session tags

🔐 SAML 单点登录

Metasploit Pro 现在集成了 SAML 单点登录(SSO)认证,为你的团队提供简单统一的登录体验。通过连接到集中式目录,用户可以使用与其他主要应用相同的凭据访问 Metasploit Pro。管理员可以轻松配置身份提供商(IDP)以启用无密码登录流程,并利用现有的多因素认证(MFA)服务,使访问过程更加快速、一致,并成为企业标准流程的一部分。

这些功能从 Metasploit Pro 5.0.0 版本开始提供。Rapid7 也非常自豪能够与客户合作,他们往往是产品演进的重要灵感来源。如果你有改进或增强的想法,可以与 Rapid7 的支持团队分享,他们会帮助完善想法,并代表你提交给产品团队。

下载地址

Metasploit Pro 5.0.0 for Linux x64

Metasploit Pro 5.0.0 for Windows x64

请访问:https://sysin.org/blog/metasploit-pro-5/

相关产品:Nexpose 8.39.0 for Linux & Windows - 漏洞扫描

更多:HTTP 协议与安全

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。个weibo.com/ttarticle/p/show?id=2309405276168852209756 weibo.com/ttarticle/p/show?id=2309405276169208987700 weibo.com/ttarticle/p/show?id=2309405276169565503559 weibo.com/ttarticle/p/show?id=2309405276170089529427 weibo.com/ttarticle/p/show?id=2309405276170446307403 weibo.com/ttarticle/p/show?id=2309405276170798629001 weibo.com/ttarticle/p/show?id=2309405276171192893634 weibo.com/ttarticle/p/show?id=2309405276171549147179 weibo.com/ttarticle/p/show?id=2309405276171905663040

具身智能正在经历从实验室走向产业化的关键转折点。长期以来,机器人操控模型面临着"一机一训"的困境——每换一个机器人本体、每增加一个新任务,都需要重新采集数据、重新训练模型,这种高昂的迁移成本严重制约了具身智能的规模化落地。

此次蚂蚁集团开源的 LingBot-VLA 具身大模型,为行业带来了三个重要突破:

首次验证了具身智能领域的 Scaling Law
通过 20,000 小时真实机器人数据的预训练,系统性证明了 VLA 模型性能随数据规模持续提升的规律。这一发现意义重大——它表明具身智能可以像大语言模型一样,通过"大数据+大模型"的范式实现能力跃迁,为行业指明了清晰的技术路线。
解决了跨本体泛化的核心难题
通过涵盖 9 种主流双臂机器人构型的大规模预训练,LingBot-VLA 实现了"一个大脑,多种身体"的愿景。在 GM-100 真机评测中,其跨本体泛化成功率达到 17.3%,这意味着同一个模型可以快速适配不同厂商的机器人硬件,大幅降低了商业化部署的门槛。
打造了真正实用的开源生态
不同于许多"只开源权重"的项目,LingBot-VLA 同步开放了数据处理、高效微调、自动化评估的全套工具链,训练效率达到主流框架的 1.5~2.8 倍。这种"开箱即用"的完整方案,将帮助开发者以更低成本快速落地自己的具身智能应用。
特别值得关注的是,LingBot-VLA 引入深度信息后的性能提升,体现了空间感知能力对机器人操控的重要性。结合昨日开源的 LingBot-Depth 模型,我们看到了一个清晰的技术演进路径:从精准的空间感知到智能的操控决策,具身智能正在构建起完整的"感知-认知-执行"闭环。

随着蚂蚁集团承诺未来几天将陆续开源更多具身智能成果,我们有理由相信,2026 年将成为具身智能从"能用"到"好用"、从"实验室"到"生产线"的关键转折年。

SegmentFault 思否编辑部
2026年1月

以下内容转载自蚂蚁灵波科技官方公众号。

继昨日开源高精度空间感知模型 LingBot-Depth 后,今天,我们为大家带来了具身大模型 LingBot-VLA。

LingBot-VLA 具身大模型全面开源

在上海交通大学开源的具身评测基准 GM-100(包含 100 项真实操作任务)测试中,LingBot-VLA 在 3 个不同的真实机器人平台上,跨本体泛化平均成功率相较于 Pi0.5 的 13.0% 提升至 15.7%(w/o Depth)。引入深度信息(w/ Depth)后,空间感知能力增强,平均成功率进一步攀升至 17.3%,展现了 LingBot-VLA 强大的准确性和泛化性。

在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能领先

在 RoboTwin 2.0 仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA 凭借独特的可学习查询对齐机制,高度融合深度信息,操作成功率比 Pi0.5 提升了 9.92%,实现了从虚拟仿真到真实落地的全方位性能领跑。

在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能领先

01 Scaling Law 下的大规模真机数据预训练
长期以来,由于本体差异、任务差异、环境差异等,具身智能模型落地面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
图片
针对上述问题,我们基于在海量真实世界数据上的预训练,第一次系统研究了 VLA 模型在真实机器人任务性能上随着数据规模增长时的 Scaling Law。项目发现随着预训练数据规模从 3,000 小时扩展到 6,000、13,000、18,000,最终至 20,000 小时,模型在下游任务的成功率获得持续且显著的提升。值得注意的是,预训练数据量达到 20,000 小时时,模型性能仍呈现上升趋势,表明 VLA 的性能仍然能够随着数据量的增加而提升。这些实验结果证明了 VLA 模型在用真实数据预训练时呈现了良好的可扩展性,为未来的 VLA 开发和大规模数据挖掘提供了重要启示。
图片
依此研究结果,我们仔细构造了 20,000 小时的真实机器人训练数据,涵盖了 9 种主流的双臂机器人构型(包括 AgileX Cobot Magic,Galaxea R1Pro、R1Lite 、AgiBot G1等)。为了进行精确的数据标注,数据里的视频由人工标注者按原子动作进行切分,并用大模型标注视频对应任务和子任务。在 codebase 的开发中,适配了 Fully Sharded Data Parallel (FSDP) 分布式、混合精度、算子融合等优化,从而让同一个“大脑”可以快速迁移至不同形态的机器人上,并在任务变化、环境变化时保持可用的成功率与鲁棒性。

02 深度信息辅助的机器人操控性能提升

仿真实验结果

为了显式捕捉操控环境中的空间感知能力,并进一步提升机器人执行的鲁棒性,我们采用了一种基于查询向量(query)的深度蒸馏方法。具体而言,我们引入了与三视角操作图像相对应的可学习 queries,这些 queries 经 VLM 处理后,与 LingBot-Depth 输出的 depth embeddings 进行对齐。这种对齐机制在维持模型训练与推理的效率的同时,有效将深度信息集成到 LingBot-VLA 中。在真实机器人平台和仿真环境下进行的广泛实验证明,深度信息的融入提升了 LingBot-VLA 的操控性能。

03 后训练成本低、效率高、代码全开源,真正实用的 VLA 模型
得益于涵盖主流构型和详尽任务的大规模预训练,LingBot-VLA 具备强大的通用操控能力,并且能够将其高效迁移到多样的下游机器人任务中。实验表明,LingBot-VLA 在下游任务中能够使用更少的数据,达到超越 π0.5 的性能;并且性能优势会随着数据量的增加而持续扩大。目前,LingBot-VLA 已与星海图、松灵、乐聚等知名机器人厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。

与此同时,我们构建了一套高效的后训练工具链,在 8 卡 GPU 配置下实现了单卡每秒 261 个样本的吞吐量,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现了数据与算力成本的双重降低。此次开源,我们不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。我们希望这一举措可以大幅压缩模型训练周期,降低商业化落地的算力与时间门槛,助力开发者以更低成本快速适配自有场景,提升模型实用性。目前我们的模型、后训练代码、技术报告、以及我们和上海交大共同打造的 GM-100 Benchmark 已全部开源,欢迎大家访问我们的开源仓库。

具身智能的大规模应用依赖高效的具身大模型,这直接决定了模型是否可用以及能否用得起。我们希望通过 LingBot-VLA 的开源,积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段。

本周,我们已相继开源 LingBot-Depth 和 LingBot-VLA 两款模型,未来几天,我们还将陆续为大家带来我们在具身智能领域智能基座方向的更多成果。我们期待与全球开发者、研究者、产业伙伴一起,加速具身智能技术的迭代与规模化应用,助力 AGI 更快到来。weibo.com/ttarticle/p/show?id=2309405276158932681283 weibo.com/ttarticle/p/show?id=2309405276159280808103 weibo.com/ttarticle/p/show?id=2309405276159628935322 weibo.com/ttarticle/p/show?id=2309405276159973130604 weibo.com/ttarticle/p/show?id=2309405276160354549940 weibo.com/ttarticle/p/show?id=2309405276160698483044 weibo.com/ttarticle/p/show?id=2309405276161046610159 weibo.com/ttarticle/p/show?id=2309405276161398931639 weibo.com/ttarticle/p/show?id=2309405276161751253369

其实有一段时间了,刚想起来来这发帖问问,自从换了 17 之后,从一开始首发系统一直到现在 26.4 ,carplay 在连接后一段时间会自动断开,情况基本可以复现,但是触发条件不知,半小时的路程可能发生 2 到 3 次,以前的 14p 15p 从未发生过,都是稳如老狗。

车型是雪佛兰一款 19-20 年产的老车,有线连接,表现为音乐中断+中控屏退出 Carplay 到默认车机界面,大约 5-10 秒的时间点击 Carplay 图标会显示无法连接,5-10 秒后音乐会自动响起(此时猜测应该是自动通过蓝牙协议播放),此时点击 Carplay 图标可以重新进入 Carplay 界面

虽然中断时间不是长,但是我想开车族应该可以理解,导航过程突然中断,这 5-10 秒心理上会处于极度不安全的地带,极端情况也会有人身安全

不知道是不是新的 N1 芯片的关系,看 reddit 上有人通过重置手机或者修改手机名称之类的邪修方法有改善,但是没有一个统一的公认的解决方案,来 V 站请教下看看

📌 太长不看


前言

2021 年,我发布了 efinance,一个专注从东方财富获取股票、ETF 、期货、基金等数据的 Python 库。至今累计获得 3.4k ⭐。开发难度不大,但它的火爆说明了量化研究者对高质量数据的需求非常大。

当时接口没有严格限流,efinance 上手简单、数据齐全,受到广泛好评。可惜到 2025 年上半年,东方财富开始限制匿名接口调用,频繁访问会被阻断,需要验证或审核。通过后又可能被拉入“小黑屋”,反复循环。

AI 的快速发展降低了量化研究门槛,参与人数激增,导致数据提供方带宽成本上升,限流在所难免。但限流并不能阻挡大家的热情,自此,efinance 仓库收到越来越多关于数据稳定性的问题反馈。可见,一个稳定且价格合理的数据源,已经成为量化研究者的刚需。


TickFlow 的诞生

为了解决这一痛点,我和团队启动了新项目 TickFlow,提供覆盖 A 股行情、K 线、财务数据的 API 。目标是:

  • 低延迟、高可用
  • 让开发者专注策略本身,而非数据抓取

开发过程中,有几十位 GitHub 网友作为早期用户,他们见证了 TickFlow 从 0 到 1 的成长。解决他们的需求,也能覆盖大部分量化研究者的需求。

定价与服务

TickFlow 区分两类用户:

  1. 免费用户:只需要日 K 级别历史数据
  2. 高级用户:需要实时行情、分钟级 K 线及全市场覆盖

免费用户无需注册和 API key ;高级用户需注册获取 API key ,以保障流量和权限管理。


产品对比

特性 TickFlow Tushare Akshare
数据稳定性 ✅ 可靠 ✅ 可靠 ❌ 完全爬虫,易中断
日 K 线 全量历史,免费层支持不复权、等差/等比复权,可批量获取 全量历史,免费层仅不复权 全量历史,复权依赖数据源
分钟 K 线 近一年历史 + 当日实时 j 近十几年历史+高价订阅实时 K 线 仅近几天分钟级
实时行情 全量 A 股、ETF 、指数 需付费且昂贵 ❌ 无可靠实时行情
接入门槛 5 分钟上手,文档齐全,SDK + API 接入
数据完整性 历史 K 线、财务、除权因子 免费版有限,高阶贵 数据缺失多,零散
开发体验 免费套餐长期可用,按需升级 免费版受限,高阶贵 稳定性差,维护成本高

TickFlow 的优势:低门槛、稳定、免费套餐可长期使用、高阶功能按需升级。


快速体验

TickFlow 提供官方 Python SDK,支持 A 股、ETF 、美股、港股、国内期货等。

完整文档https://docs.tickflow.org

安装

# 安装完整版(支持 DataFrame 与进度条)
pip install "tickflow[all]" --upgrade

# 安装基础版
pip install tickflow

支持 Python 3.9+,推荐 3.10+。


初始化客户端

免费服务(无需注册)

from tickflow import TickFlow

tf = TickFlow.free()  # 免费服务

# 获取日 K 线
df = tf.klines.get("600000.SH", period="1d", count=100, as_dataframe=True)
print(df.tail())

# 获取标的信息
instruments = tf.instruments.batch(symbols=["600000.SH", "000001.SZ"])
print(instruments)

特点

  • ✅ 无需注册
  • ✅ 提供历史日 K 线( 1d 、1w 、1M 、1Q 、1Y )
  • ✅ 标的信息、交易所、标的池查询
  • ❌ 不提供实时行情
  • ❌ 不提供分钟级 K 线


完整服务(需注册 API key )

  1. 获取 API Key
    登录 tickflow.org,在控制台生成 API key 。

  2. 配置认证

方式一:直接传入

from tickflow import TickFlow

tf = TickFlow(api_key="your-api-key")

方式二:环境变量( Windows / Linux / Mac )

# Linux / Mac
export TICKFLOW_API_KEY="your-api-key"

# Windows CMD
set TICKFLOW_API_KEY=your-api-key
from tickflow import TickFlow

tf = TickFlow()  # 自动读取环境变量
  1. 发起第一个请求
quotes = tf.quotes.get(symbols=["600000.SH", "000001.SZ"])
for q in quotes:
    print(f"{q['symbol']}: {q['last_price']}")

完整服务特点

  • ✅ 实时行情数据
  • ✅ 分钟级 K 线( 5m 、15m 、30m 、60m 、4h )
  • ✅ 日内分时数据
  • ✅ 高调用频率支持


标的代码与支持市场

统一格式:**代码.市场后缀**,示例:

  • 股票:600000.SH(浦发银行)、000001.SZ(平安银行)
  • ETF:510300.SH(沪深 300 ETF )
  • 指数:000001.SH(上证指数)
  • 期货:au2604.SHF(上期所黄金主力合约)
后缀 市场 说明
SH 上海证券交易所 沪市 A 股、ETF 、债券等
SZ 深圳证券交易所 深市 A 股、创业板、ETF 等
BJ 北京证券交易所 北交所股票
SHF 上海期货交易所 上期所期货
DCE 大连商品交易所 大商所期货
ZCE 郑州商品交易所 郑商所期货
CFX 中国金融期货交易所 股指/国债期货
INE 上海国际能源交易中心 原油等期货
GFE 广州期货交易所 广期所期货
US 美股 美国证券市场
HK 港股 香港联交所

支持 A 股、国内期货,部分美股、港股接口已支持格式,但暂无数据。


基础用法示例

K 线

# 单标的获取日 K 线
klines = tf.klines.get("600000.SH", period="1d", count=10000, as_dataframe=True)
print(klines.tail(5))

# 批量获取多标的
symbols = ["600000.SH", "000001.SZ", "600519.SH"]
dfs = tf.klines.batch(symbols, period="1d", count=10000, as_dataframe=True, show_progress=True)
print(list(dfs.keys()))

日内分时 K 线

# 单标的 1 分钟 K 线
df = tf.klines.intraday("600000.SH", period="1m", as_dataframe=True)
print(df.tail())

# 批量
dfs = tf.klines.intraday_batch(["600000.SH", "000001.SZ"], as_dataframe=True, show_progress=True)
print(dfs["600000.SH"].tail())

实时行情

# 按标的查询
quotes = tf.quotes.get(symbols=["600000.SH", "000001.SZ"], as_dataframe=True)

# 按标的池查询
quotes_a = tf.quotes.get(universes=["CN_Equity_A"], as_dataframe=True)
quotes_etf = tf.quotes.get(universes=["CN_ETF"], as_dataframe=True)


异步使用

import asyncio
from tickflow import AsyncTickFlow

async def main():
    async with AsyncTickFlow(api_key="your-api-key") as tf:
        df = await tf.klines.get("600000.SH", as_dataframe=True)
        print(df.tail())

        tasks = [tf.klines.get(s, as_dataframe=True) for s in ["600000.SH", "000001.SZ"]]
        results = await asyncio.gather(*tasks)

asyncio.run(main())


结语

TickFlow 提供低延迟、稳定、易用的行情数据服务,适合量化研究者快速上手:

  • 免费服务:历史日 K ,直接用,无需注册
  • 完整服务:实时行情、分钟级 K 线,高并发支持

无论你是初学者还是专业量化团队,TickFlow 都能帮助你专注策略开发,而非数据抓取。

官网:https://tickflow.org
文档:https://docs.tickflow.org

首发去线下用了国补和教育优惠 7820 入了 15 寸的 MacBook air ,先是在店里开机激活就要强制更新系统,被硬控在店里待了半小时,到家之后美滋滋重置系统,因为现在的国补都必须立马激活,有些开机设置都没有细看就一顿往下点,所以对于国补产品我现在都习惯激活后再重置,然后再仔细设置一下,结果这垃圾系统,重置后让我连接网络,界面显示连接 wifi 或者有线网络,但是右上角没有 wifi 图标,在网上搜了很多方法,尝试了大约 10 次重启,忍受了十次 duangduangduang 的开机声之后,我终于放弃了,美团上紧急下单一个 c 转网口的转换器,在插上网线后,终于可以激活了。

小红书搜了一下,这个问题已经挺久了。

之前为了开发效率,总会学习各种新技术,更少的代码实现更多的功能,牺牲部分执行效率。

现在 vibe coding 后,开发效率不成问题了,更愿意选择执行效率高的技术栈了。也不追新技术了,能用现有技术解决的,就 ai 一把梭,哈哈哈。

一、激活函数演变史&输出层机制

image.png

二、感知机(Perceptron,1958):单层线性分类器

image.png

三、多层感知机(MLP,1986)

image.png

四、卷积神经网络(CNN,1989)

image.png

五、循环神经网络(RNN,1990)

image.png

1、语言模型(预测下一个词)

image.png

2、情感分析(分类)

image.png

3、翻译(用两个RNN)

image.png

六、长短期记忆网络(LSTM,1997)

image.png

1、门控循环单元(GRU,2014)

image.png

七、Transformer

image.png

1、多头注意力机制

image.png

矩阵变换过程

image.png

2、GQA(Grouped Query Attention)或MQA(Multi-Query Attention)

image.png


详细内容请关注我的个人公众号查看
图片

rt ,ios 软件打包似乎必须用到 mac ,想问问目前 macbook 闲鱼上哪一款能够胜任,要求就只有打包 ipa ,预算比较紧张,3k 以内

最近迷上用手机网页版跟 grok 聊天,结果发现提示达到消息上限。
请问这个限速如何解除?非要充值吗。有没有廉价的通知渠道?

还在用float做导航?还在为垂直居中写positiontransform?今天我们来认识一位布局界的“一维战神”——Flexbox。它专治各种居中、等分、排列难题,让你写布局像搭积木一样简单。

前言

回想那些年被float支配的日子:清浮动要写clearfix,垂直居中要算半天,几个元素等宽还得用百分比小心翼翼……直到Flexbox的出现,前端布局才真正迎来了春天。

Flexbox的全称是Flexible Box Layout Module,翻译过来就是“弹性盒子”。它的核心思想是:让容器有能力改变子项的宽度、高度、顺序,以最好地填充可用空间。尤其擅长处理一维布局(也就是一行或一列)。今天我们就来彻底掌握这个“一维战神”。

一、Flexbox的两大核心:容器与项目

要使用Flexbox,你只需要在父元素上设置display: flexdisplay: inline-flex。这时,父元素成为flex容器,它的直接子元素自动成为flex项目

.container {
  display: flex;  /* 容器开启flex模式 */
}

就像一支军队有了指挥官,所有士兵(项目)都听从容器(指挥官)的调遣。

二、轴:Flexbox的方向感

Flexbox里有两条轴:主轴交叉轴,所有排列都围绕这两条轴进行。

  • 主轴:默认水平方向,从左到右。你可以通过flex-direction改变它的方向。
  • 交叉轴:始终垂直于主轴。

想象你手里拿着一排士兵,你可以命令他们横着站(主轴水平),也可以竖着站(主轴垂直),甚至可以倒着站。这就是flex-direction的作用。

.container {
  flex-direction: row;            /* 默认值,主轴水平,从左到右 */
  flex-direction: row-reverse;    /* 主轴水平,从右到左 */
  flex-direction: column;         /* 主轴垂直,从上到下 */
  flex-direction: column-reverse; /* 主轴垂直,从下到上 */
}

三、主轴上的排列:justify-content

justify-content控制项目在主轴上的对齐方式。这是最常用的属性之一。

.container {
  justify-content: flex-start;    /* 默认,左对齐/上对齐 */
  justify-content: flex-end;      /* 右对齐/下对齐 */
  justify-content: center;        /* 居中 */
  justify-content: space-between; /* 两端对齐,项目之间间距相等 */
  justify-content: space-around;  /* 每个项目两侧间距相等 */
  justify-content: space-evenly;  /* 项目之间间距相等,边缘间距也是项目间距的一半?不,是均匀分布,包括两端 */
}

其中space-betweenspace-evenly尤其好用:一个让首尾贴边,中间均分;一个让所有间隙相等,包括两端。

四、交叉轴上的对齐:align-items 与 align-content

1. align-items:单行项目的交叉轴对齐

当所有项目在一行(或一列)时,用align-items控制它们在交叉轴上的对齐方式。

.container {
  align-items: stretch;   /* 默认,如果项目未设置高度,则拉伸填满容器 */
  align-items: flex-start; /* 交叉轴起点对齐 */
  align-items: flex-end;   /* 交叉轴终点对齐 */
  align-items: center;     /* 交叉轴居中 */
  align-items: baseline;   /* 按第一行文字基线对齐 */
}

这个属性就是垂直居中的神器:只要容器有高度,设置align-items: center,项目就能垂直居中(当然主轴方向得是row)。

2. align-content:多行项目的整体对齐

当容器在交叉轴方向有多余空间,且项目有多行时,用align-content控制多行整体的对齐方式。它和justify-content类似,只不过作用于交叉轴。

.container {
  flex-wrap: wrap;        /* 先允许换行 */
  align-content: stretch;   /* 默认,拉伸占满 */
  align-content: flex-start;
  align-content: flex-end;
  align-content: center;
  align-content: space-between;
  align-content: space-around;
  align-content: space-evenly;
}

注意:如果项目只有一行,align-content不起作用。

五、项目的灵活性:flex 相关属性

项目自己也可以设置属性,控制自己的尺寸、排列顺序等。

1. flex-grow:如何分剩余空间

当容器还有剩余空间时,flex-grow决定项目是否放大、放大多少。默认值为0,即不放大。如果所有项目都设为1,则它们等分剩余空间;如果一个为2,其他为1,则2的那个多占一倍。

.item {
  flex-grow: 1;   /* 所有项目等分剩余空间 */
}

2. flex-shrink:空间不够时如何缩小

当容器空间不足时,flex-shrink决定项目是否缩小、缩小多少。默认值为1,即所有项目等比例缩小。设为0的项目不会缩小。

.item {
  flex-shrink: 0;   /* 打死我也不缩小 */
}

3. flex-basis:项目的基础尺寸

flex-basis定义项目在分配空间前的默认尺寸,可以理解为在主轴上的“初始宽度”(主轴水平时)。优先级高于width(如果同时设置)。默认值为auto,即参考项目本身的尺寸。

.item {
  flex-basis: 200px;   /* 我希望基础宽度是200px */
}

4. flex 简写

通常我们会用flex属性将上面三个合起来写:flex: grow shrink basis。常见值:

  • flex: 1 = flex: 1 1 0%(等分剩余空间)
  • flex: auto = flex: 1 1 auto(根据内容分配空间)
  • flex: none = flex: 0 0 auto(固定尺寸,不弹性)

六、项目的排序与对齐覆盖

1. order:改变项目顺序

默认所有项目的order为0,按源码顺序排列。你可以给某个项目设置更大的order让它往后排,或更小的order让它往前排。支持负数。

.item:last-child {
  order: -1;   /* 最后一个变成第一个 */
}

2. align-self:覆盖容器的 align-items

如果你想单独改变某个项目在交叉轴上的对齐方式,可以用align-self,它的取值和align-items一样。

.item.special {
  align-self: flex-end;   /* 单独沉底 */
}

七、实战:常见的Flexbox布局套路

1. 水平垂直居中

最简单的居中方案:

.parent {
  display: flex;
  justify-content: center;
  align-items: center;
}

无论子元素是一个还是多个,都能完美居中。

2. 导航栏:Logo左,菜单中,登录右

<nav class="nav">
  <div class="logo">Logo</div>
  <ul class="menu">
    <li>首页</li>
    <li>产品</li>
    <li>关于</li>
  </ul>
  <div class="login">登录</div>
</nav>
.nav {
  display: flex;
  align-items: center;
  justify-content: space-between;
}
.menu {
  display: flex;
  gap: 20px;
  list-style: none;
}

如果想菜单绝对居中(不受左右宽度影响),可以给.menumargin: 0 auto

3. 等分布局

比如三个卡片等宽,间距固定:

.container {
  display: flex;
  gap: 20px;
}
.item {
  flex: 1;   /* 三个项目等分剩余空间,宽度相等 */
}

4. 圣杯布局(经典三栏)

左右固定宽度,中间自适应:

.container {
  display: flex;
}
.left {
  width: 200px;
}
.right {
  width: 200px;
}
.main {
  flex: 1;   /* 中间占满剩余空间 */
}

5. 底栏自动贴底

页面内容不足时,footer贴在底部;内容多时,footer被推下:

<body style="display: flex; flex-direction: column; min-height: 100vh;">
  <header>...</header>
  <main style="flex: 1;">...</main>
  <footer>...</footer>
</body>

八、常见坑点与避坑指南

1. 浮动失效

一旦元素成为flex项目,它的floatclearvertical-align都会失效。所以放心用flex,不用再担心浮动了。

2. margin: auto 的妙用

在flex容器中,设置某个项目的margin: auto,它会自动吸收剩余空间,实现“推挤”效果。例如让一个项目单独靠右:

.container {
  display: flex;
}
.item.move-right {
  margin-left: auto;   /* 把自己挤到右边 */
}

3. 文本溢出省略号

在flex项目中设置文本省略号时,可能需要给项目设置min-width: 0overflow: hidden,因为flex项目默认不会缩小到内容最小宽度以下。

.item {
  min-width: 0;        /* 允许项目缩小到比内容宽度小 */
  white-space: nowrap;
  overflow: hidden;
  text-overflow: ellipsis;
}

4. gap 属性

gap是较新的属性,可以方便地设置项目之间的间距,不用再为margin头疼。支持row-gapcolumn-gap,也可简写gap: 10px 20px

.container {
  display: flex;
  gap: 20px;   /* 项目之间左右、上下间距都是20px(如果换行) */
}

九、总结

Flexbox是现代布局的基石,掌握它,你就能轻松应对绝大多数一维布局场景。再回顾一下核心:

  • 容器设置display: flex,开启弹性世界。
  • flex-direction定主轴,用justify-content定主轴排列,用align-items定单行交叉轴对齐。
  • 项目用flex控制弹性,用order改变顺序,用align-self独立对齐。
  • 记住几个常用套路:居中、等分、导航、贴底。
  • 避坑:浮动失效、margin auto推挤、最小宽度限制。

Flexbox并不难,关键是理解“主轴”和“剩余空间分配”这两个概念。多动手写几个例子,你就能成为布局大师。

如果你喜欢这篇文章,欢迎点赞、收藏、分享。明天我们接着讲Grid布局——二维世界的终极武器,敬请期待!


明日预告:Grid网格布局从入门到精通——用网格思想重构网页,让二维布局不再头疼。