2026年4月

 是一款强大的结构方程模型(SEM)软件,由IBM公司开发。支持通过扩展标准多变量分析方法(包括回归、因子分析、相关分析以及方差分析)来支持研究和理论

一、准备工作

安装包下载:https://pan.xunlei.com/s/VOqUGneSVqBVUEQP4rgmUqmLA1?pwd=2mkb#,先下载好【Amos29(64bit)】压缩包,保存到电脑本地(内含清理工具、安装程序和Crack工具)。

二、清理旧版本(仅限升级/重装用户)

若电脑从未安装过Amos,请直接从 第三步 开始。

  1. 打开解压后的【清理旧版本许可】文件夹。
  2. 右键【Amos残余文件清理】→【以管理员身份运行】(运行完毕会自动关闭)。
  3. 右键【licenseinit】→【以管理员身份运行】。
  4. 按提示输入 123并按回车,再输入 1234并按回车。

三、安装 Amos 29

  1. 打开解压后的【Amos29(64bit)】文件夹,右键【Setup】→【以管理员身份运行】。
  2. 点击【Next】→ 勾选【I accept...】→【Next】。
  3. 自定义安装路径:点击【Change...】,将路径中的 C改为 D(如 D:\Program Files\IBM\SPSS\Amos\29)→【OK】→【Next】。
  4. 点击【Install】等待安装完成。
  5. 取消勾选【start IBM...】,点击【Finish】。

四、 Amos 29(Crack替换)

  1. 替换主程序文件

    • 打开安装包中的【Crack】文件夹,全选文件并【复制】。
    • 右键桌面【IBM SPSS Amos 29 Graphics】图标 →【打开文件所在的位置】。
    • 在空白处【粘贴】,点击【替换目标中的文件】。
  2. 运行许可证生成器

    • 回到【Crack】文件夹,右键【Keygen】→【以管理员身份运行】。
    • 点击【Browse...】,导航至软件安装目录(如 D:\Program Files\IBM\SPSS\Amos\29),选中【Amos GraphicsCLI】文件 →【打开】。
    • 勾选【Immediate Mode...】,在Name处输入 Amos 29,点击【Create Desktop...】生成最终快捷方式。

五、验证安装

双击桌面新生成的【Amos 29】图标,若能正常进入建模界面,则安装成功!

2023 年 1 月,Rust 官方博客发布了一篇公告,正式宣布 Types Team(类型团队) 的成立。

说"正式宣布",是因为这个团队其实早在 2022 年 5 月底就已经悄然运作了——只是一直没有对外说过。这次公告,是在团队完成了一次为期三天的线上线下混合会议之后,借着年初的时机,向社区汇报:我们是谁、做了什么、接下来要去哪里。

本文就是基于 Rust 官方博客 2023 年 1 月 20 日发布的《Officially announcing the types team》整理撰写,作者为 Jack Huey,代表 The Types Team。

原文地址


两个数字,说明问题有多严重

公告开门见山地列出了两个数字,解释为什么需要成立这样一个团队。

220 个:Rust 目前有约 220 个已接受但尚未完整实现的语言、编译器或类型系统特性的追踪 Issue,其中约一半已经存在了至少三年,许多更是积压了更久。这些 Issue 之所以久拖不决,不单是人手不足的问题,更根本的原因是:在 Rust 这样复杂的语言里,想把一个特性的语义和整体语言上下文对齐,本身就极其困难。往往没有人能一眼看出"要把这件事做完,具体该做什么"。

62 个:目前有 62 个未解决的健全性漏洞(unsoundness issues)。听起来很吓人,但公告也做了说明:这些几乎都是在极端边界条件下才会触发的问题,是专门找 bug 的人刻意去戳才能发现的;正常写代码几乎不会踩到。尽管如此,这些漏洞不应该存在,而修复它们一直没有一个明确的归口。

这两个数字共同指向一个结论:Rust 的类型系统需要一个专职团队来系统性地治理。


类型系统到底管哪些东西?

公告把 Types Team 的职责范围划定在三个紧密相关的组件上:

  • 类型检查器(Type Checker):负责确定变量的类型,以及类型之间的关系是否合法;
  • Trait 求解器(Trait Solver):负责回答"类型 T 是否满足某个 trait 约束"这类问题;
  • 借用检查器(Borrow Checker):负责验证 Rust 的所有权模型在任何情况下都成立。

这三者合在一起,就是 Rust 的"类型系统"。它们在实现上深度耦合,往往牵一发而动全身,独立处理任何一个都很难不影响其他两个。

这个边界由 RFC 3254 正式确立,Types Team 对这个范围内的设计和实现拥有完整的决策权。


两个父团队,一项特殊授权

Types Team 在 Rust 的治理结构中有一个独特的位置:它同时拥有两个父团队——语言团队(Lang Team)和编译器团队(Compiler Team),这在 Rust 的团队体系中是独一份的。

这两个父团队分别向 Types Team 做了不同的授权:

  • 语言团队授权 Types Team 负责类型系统的设计——不是"这个特性用起来顺不顺手"这类体验层面的事,而是"这个机制在类型系统内部是怎么运作的"这类底层语义的决策;
  • 编译器团队授权 Types Team 负责 trait 系统实现层面的定义和维护。

更重要的是一项额外授权:健全性漏洞的修复。过去,修复一个涉及类型系统的健全性 bug,需要同时协调语言团队和编译器团队,流程繁琐。现在,Types Team 在大多数情况下可以独立完成评估和修复,无需两个父团队同步参与。

即便某个修复在技术上会破坏向后兼容性(修复安全漏洞本不在 Rust 的兼容性承诺范围内),类型团队也可以经过内部签字确认,并用 Crater 工具评估对生态系统的影响后,自行推进——而不需要跨团队拉会。这让关闭健全性漏洞这件事变得切实可行。


Chalk 的终结,以及两条新路

Types Team 公告中最让人瞩目的技术决策,是对 Chalk 命运的宣判。

Chalk 是一个从 2015 年就开始开发的实验性 trait 求解器。它的思路是把 Rust trait 系统的语法和语义翻译成一套类似 Prolog 的逻辑规则,用逻辑求解器来处理 trait 查询,然后替换编译器内部的旧求解器。Rust-analyzer 今天仍在使用 Chalk。

但经过多年的开发,团队得出了一个结论:Chalk 很可能不是 Rust 的长期解决方案。原因有两点:

第一,trait 求解器只是整个类型系统的一部分。如果只对这一部分单独建模,就很难把它和类型检查器、借用检查器之间的关系描述清楚;而对整个类型系统统一建模,才能得到完整的图景。

第二,编译器和形式化的需求其实是两件不同的事。编译器需要高性能,还要能追踪足够多的信息来生成有用的错误提示;而一个好的形式化模型,需要的是完整、易读、易维护。Chalk 多年来试图同时满足这两者,结果两者都没有做好。

于是,团队走向了两条并行的新路:

a-mir-formality:这是一个对 Rust 整个类型系统进行形式化描述的项目。它的目标不是直接跑在生产编译器里,而是成为评估新特性设计和健全性漏洞的"参考实现"——在一个干净的模型上验证想法,然后再把结论同步给实际的编译器。项目最初用 PLT Redex 编写,Rust 移植版本正在进行中。

新的内置 Trait 求解器(New In-Tree Trait Solver):这是一个直接在 rustc 代码树内编写的新 trait 求解器,目标是最终替换掉现有的旧求解器。它的范围比 a-mir-formality 小,设计上会尽可能复用现有编译器的基础设施,以减少迁移代价。为了将来可能被独立拆出,它从一开始就被设计为尽可能模块化。


已经完成的健全性修复

在去年 5 月到公告发布的约七个月内,团队已经落地了一系列健全性修复:

  • Rust 1.65 修复了隐含边界(implied bounds)在非规范化类型下的处理,未发现兼容性回归;
  • Rust 1.66 修复了不透明类型(opaque type)上不应存在的隐式生命周期约束,未发现兼容性回归;
  • Rust 1.68 将引入 IMPLIED_BOUNDS_ENTAILMENT lint,标记一类发现了大量历史代码回归的不健全模式,以"未来兼容性警告"的方式给出过渡期;
  • 另有若干修复正在推进中,部分因发现兼容性回归而需要额外工作。

这些数字说明了一件事:修复健全性问题并不总是无痛的。有时确实会让旧代码无法编译,即使那些代码从技术上讲本来就不应该通过编译。团队的做法是尽量给出过渡期,并用 Crater 提前评估影响范围。


正在推进的新特性

公告还列出了几个与类型系统深度绑定、类型团队深度参与的特性:

GATs(泛型关联类型):这是列表里唯一一个已经稳定的特性,于 Rust 1.65 稳定。GATs 早在类型团队成立之前就存在,但稳定化最后阶段的推进工作由团队主导完成。

TAITs(类型别名 impl Trait):正确实现这个特性需要对类型检查器有深入的理解。公告时点已接近稳定。

Trait 向上转型(Trait Upcasting):允许把一个 trait 对象向上转型为它的父 trait,改动不大但涉及类型系统交互。

否定 impl(Negative Impls):允许显式声明某个类型不实现某个 trait。还有若干 bug 和健全性问题未解决,距稳定还有距离。

RPITITs 和 AFITs:分别是"在 trait 方法中返回 impl Trait"和"在 trait 方法中使用 async fn"。这两个特性依赖 GATs 和 TAITs 的基础,目前一起追踪。


分四阶段的路线图

公告给出了一张具体的时间表,把目标切成了四段:

2023 年夏季(6 个月内)

  • 新 trait 求解器达到可测试状态;
  • a-mir-formality 能够针对 Rust 测试套件运行;
  • TAITs 和 RPITITs/AFITs 稳定,或走上稳定路径。

2023 年底

  • 新 trait 求解器替换旧求解器的部分功能(不是全部);
  • 新求解器有完整的入门文档;
  • a-mir-formality 正式纳入语言设计流程。

2024 年底

  • rustc 和 rust-analyzer 共用同一个新 trait 求解器;
  • 可扩展的 trait 错误 API 在内部可用;
  • Polonius 借用检查器达到可用状态;
  • 更高阶 trait 约束中的隐含边界问题得到解决;
  • impl Trait 基本上可以出现在任何应该出现的地方。

2027 年底

  • 类型系统相关的健全性问题全部解决;
  • 大多数语言扩展变得容易实现,大型扩展变得可行;
  • a-mir-formality 通过 Rust 测试套件的 99.9%。

一个团队的成立,意味着什么

这篇公告读下来,有一点很值得注意:Types Team 的成立,首先解决的不是技术问题,而是组织问题

过去,类型系统相关的决策需要在语言团队和编译器团队之间反复协调。一个健全性 bug 的修复,往往因为归口不清而搁置。一个新特性的推进,往往因为没有明确的负责人而在追踪 Issue 里沉睡。

现在,这些问题有了一个明确的主人。设计、实现、健全性修复——在这个范围内,Types Team 说了算,不需要每次都拉两个团队协调。

这件事的重要性,可能不比任何一个具体的技术突破低。


前提 一个 50 人的小外包,外派的公司连中厂都算不上。

个人情况,30 岁。gap3 个月,刚开始认真找。有房贷但是压力不大,存款够花 3 、4 年。如果是我自己还是身边的朋友都不建议去,

面试经历,是一个甲方的主管面的,没问什么技术问题。面试卡的很松,当场决定要人,看来很缺人(这也可能是个坑)一次面试。

疑虑 1 小厂项目非常不稳定还是外包,薪资还有试用期打折,极有可能就是临时的项目。用完即扔。
疑虑 2 工资降薪,工资卡的很死。加上试用期打折更别说了。

接的理由就是现在形势太差,有就先干着。

地铁

出了闸口,涌向各自的出口,站在自动扶梯上,瞥见前面几人已拿好烟,只待出站,就要点燃的样子。

得走快点。下了扶梯后,那几人点烟、口吐白雾一气呵成,走在最前面,景象犹如火车头的烟囱。

还得先吸一口气,快速超过他们才行。耶、从我后面窜出一人,比我走的还快,看来和我想法一样。

他们边走边口吐云雾,不考虑其他人的感受,怎么自由怎么来...羡慕!

下地铁步行的那 1 公里,要是有人吸烟,行人避无可避,路就一条,两旁全是电单车.

母婴店

陪孩子玩摇摇车,一股烟味飘来,回头一瞥:一老头带着孙子,蹲在摇摇车外,侧头歪嘴吸着烟,同时手还扶着一个孩子。

这个地方居然还抽烟?我带着孩子就离开了,旁边两个带娃也离开了,就这么一口,就剩他一家在哪里了。

同情他,在家里被烟瘾憋坏了,还好可以用带孙子出来的理由出来吸两口。

也挺可悲的,孩子他妈千防万防,还是防不住(不能在家里抽烟,对孩子不好)。

看法

别指望别人道德发现,遇到此事,要远离,尽量避免冲突。

当然,如果你是吸烟者,能固定在一个地方吸烟,我反而还打心底尊敬你。

未来期望

深圳这个地方,能立法规定这些社会行为,并能执行就好了。

前些天,香港把携带烟具都纳入罚款指标,期望深圳能跟进这些。

你有没有想过,每一次在终端敲下 cargo addcargo build,那些包是从哪里来的,又是怎么以这么快的速度送到你手边的?

RustConf 2025 在美国西雅图举办。会议的最后一个小时,Rust 项目 Content Team 的 Xander Cesari 和 Rust 基础设施团队(Infra Team)的工程师 Jan David Nose(江湖人称 JD)坐下来,聊了聊这个"让 Rust 得以运转"的幕后团队,以及他们正在面对的种种挑战。

本文就整理自 Rust 官方博客 RustConf 2025 系列访谈,原文为 Xander Cesari 与 Jan David Nose 的对话实录。

原文地址


基础设施团队做什么?

很多人用 Rust 很久了,却不知道 Infra Team 的存在。JD 给出了一个清晰的定位:这个团队服务两类人,一是语言的用户,二是语言的维护者。

对维护者而言,Infra Team 负责 Rust 从代码提交到发布的整个流水线——CI/CD、GitHub 上的机器人和分类工具、PR 的标签管理,等等。一个 PR 从开出到合并,背后有无数自动化工具在默默检查。

对普通用户而言,最直接的影响是 crates.io 的下载体验。crates.io 的 Web 应用和 API 由单独的 crates.io 团队负责,但所有的 crate 文件都存放在 Infra Team 维护的基础设施上,并通过他们管理的 CDN 分发到全球。

用 JD 自己的话说:"如果我工作没做好,crates.io 就会全球宕机,没有人能下载任何东西。"


每个月六年的 CPU 时间

Rust 对平台支持的广度是出了名的。Tier 1 目标需要完整测试,Tier 2 目标要尽力覆盖,甚至 Tier 3 也在可能的情况下跑一些测试。

这导致 Rust 的 CI 流水线极其庞大。JD 透露了一个令人震惊的数字:每个月累计超过三百万分钟的构建时间,折算下来约等于六年的 CPU 时间。

他们大概是开源项目中 GitHub Actions 最大的用户之一。随着 Rust 支持的平台越来越多,这个数字只会继续增长。而且平台只增不减,五年、十年后的规模会是什么样子?这是 Infra Team 必须提前思考的问题。


RISC-V 和 IBM 的请求,打开了一个新问题

目前,Rust 的 CI 完全跑在 GitHub Actions 上,依赖云服务商提供的虚拟机。但有些平台根本没有云端支持,比如 IBM 的大型机平台和 RISC-V。

最近,有公司主动找到 Infra Team,愿意提供物理硬件来参与 CI 测试。这听起来是好事,但背后的问题随之而来:

  • 如果某台硬件突然不可用,PR 测试随机失败怎么办?每天能合并的 PR 数量本来就有限,加入不稳定因素会直接拖慢贡献速度。
  • 更关键的是安全问题——如果要在外部硬件上构建 Tier 1 的发布产物,怎么保证没有后门被悄悄塞进去?

这些问题目前没有答案。这是 JD 在访谈中多次坦承的一点:Rust 的成长速度,已经超过了团队预先设计答案的速度。


Crater:一个跑遍全网 Rust 代码的工具

Crater 可能是 Rust 生态里最不为普通开发者所知,却极其重要的工具之一。

每当有人对 Rust 编译器提交 PR,就可以触发一次 Crater 实验。Crater 会用这个 PR 构建出的编译器,去编译 crates.io 上约 60% 的 crate,然后报告有没有出现回归问题——也就是"你的改动有没有把现有代码搞坏"。

这是 Rust 能做到强向后兼容承诺的底气之一。编译器团队在做决策时,能看到真实数据:新特性会在哪些地方引发问题,影响范围有多大。

JD 提到,这个工具让"Python 2 到 Python 3 那样的大版本迁移阵痛"更难在 Rust 身上重演——当然,这也离不开编译器团队在设计上的刻意坚守。


流量在指数级增长,但团队只有两个全职

三年前,JD 是 Infra Team 历史上第一位全职工程师——在此之前,整个基础设施都由志愿者维护,运行了十到十二年。

去年,Marco 加入,成为第二位全职成员。整个团队大约八个人,其余都是志愿者。

与此同时,crates.io 的下载量在以每年翻倍的速度增长。JD 的一位同事喜欢追踪"下载量从零到十亿需要多久"这个指标,而这个时间正在快速缩短。

为了应对带宽问题,CDN 服务商 Fastly 通过其 Fast Forward 开源赞助计划承担了全部带宽费用。Fastly 同时也是 PyPI 的赞助商——相比之下,JD 说:"我们只是大海里的一条小鱼。"


AI 爬虫带来了新的压力

2025 年的新变量是 AI 爬虫。各种爬虫为了抓取训练数据,开始大规模扫描开源生态。docs.rs 首当其冲,短时间内的流量峰值直接导致服务降级。

crates.io 方面,Infra Team 提前做了架构调整,让 crate 文件的下载请求绕过应用层,直接打到 CDN,避免了类似 DDoS 的冲击。

现在他们正在讨论把 docs.rs 也迁移到 Fastly,利用其 bot 防护功能来过滤爬虫流量。这件事在年初完全不在计划里,但形势变化太快,优先级已经被迫重排。


供应链安全:Rust 正在成为攻击目标

xz-utils 后门事件让整个开源社区警觉。JD 对此谈得相当坦诚。

他说,那个事件最令人不安的地方,不是技术手段本身,而是攻击者愿意花一年半时间在一个开源项目里慢慢建立信任,然后利用这份信任植入后门。

这对 Rust 来说并非杞人忧天。Rust 项目一直在呼吁更多人参与贡献,欢迎新成员,但同时也意味着——如果有人带着恶意长期潜伏,项目本身的开放文化会成为弱点。

更现实的背景是:Rust 现在已经进入 Windows 内核、Android、iOS,以及汽车(Rivian 在本届 RustConf 上做了专题分享)乃至航天领域。用 JD 的话说,"如果你想攻击'无处不在',那么 Rust 就成了一个有吸引力的目标。"

目前 Rust 基金会有专职安全工程师负责威胁建模,Crater 等工具也在构建沙箱隔离机制,防止构建恶意 crate 时代码逃逸到宿主机。但 JD 承认,这是一个没有完整答案的问题,整个社区还在摸索中。


所有包管理生态都在面对同一个问题

JD 提到,不同语言生态的基础设施团队之间的交流越来越多。大家发现面临的问题高度相似——"说到底,我们都只是在往互联网上传文件,不管是 npm 包还是 crate,本质上都是一堆打包好的文本文件。"

PyPI 的带宽曲线提供了一个有趣的参照:Python 的下载量长期保持平稳增长,然后在两年前突然出现曲棍球棒式的飞跃——原因是有人发现 PyPI 是个很好的模型分发渠道,而当时没有文件大小限制,于是 GPU 模型开始被上传到 PyPI。

这个教训让各个包管理生态都在重新审视自己的规则边界,以及如何在开放性和可持续性之间找到平衡。


Rust 还很年轻,而这既是挑战也是机会

访谈最后,JD 表达了他的乐观:Rust 作为稳定语言才走过约十年,而 Python 已经超过二十五岁。很多问题,Python 和 npm 用十几年才慢慢碰到,Rust 要在更短的时间里面对——但同时,Rust 也没有那十几年积累下来的历史包袱和技术债务。

他说,这让 Rust 有机会站在前沿,去定义一个"21 世纪的开源基础设施"应该是什么样的。


如果你在用 Rust,可以做什么

JD 在最后提到两件事:

一是如果你所在的公司在使用 Rust,可以考虑加入 Rust 基金会成为会员。这是支持全职工程师继续工作和填补基础设施赞助缺口的最直接方式。

二是如果你个人想贡献,Infra Team 有不少基于 Rust 编写的 bot 和工具,相对容易上手,也欢迎志愿者参与。

那些你每天不假思索敲下的 cargo 命令,背后有人在维系着这一切。

good cnskis 大佬就是专业~

感谢大佬,昨天收到反馈之后,立马就着手开始修复,已经更新了几个版本,接下来还将持续优化

此外,支付宝现金红包抽奖活动还在进行中: https://chanpinpai.com/topic/PkbImnNz ,欢迎大家抽个奖

也欢迎大家分享提交好玩的产品

doge_flowerdoge_flowerdoge_flower

话说,2libra 能交换友链吗think我好像还没看到友情链接的模块显示

长期从事 C++ 的专家、前 ISO C++ 标准委员会主席 Herb Sutter 表示,C++26 标准草案现已完成。最终版本的草案引入了反射,在无需重写代码的情况下增强了内存安全性,新增了包含前置条件和后置条件的契约以及一种新的断言语句,并建立了一个统一的并发与并行框架。

反射是一种机制,正如 Sutter 所解释的,它赋予开发者访问 C++ 内部机制的能力,使语言能够描述自身并生成代码,从而为元编程提供坚实基础。秉承 C++ 的精神,反射不会带来任何运行时开销。作为反射能力的一个基本示例,下面的代码片段展示了反射如何支持一种用于声明 C++ 接口的专用语法:

class(interface) IFoo{    int f();    void g(std::string);};//-- will be translated into the "classical":class IFoo{    public:      virtual int f() = 0;      virtual void g(std::string)= 0;      virtual ~IFoo() = default;      IFoo() = default;    protected:      IFoo(IFoo const&) = default;      void operator=(IFoo const&) = default;};
复制代码

反射可以通过减少对大量定制化新语言特性的需求来简化 C++的未来演进,因为许多特性现在都可以表示为可复用的编译期库,设计更快、测试更容易,并且从一开始就具备可移植性。

接口抽象是 cppfront 的一部分,cppfront 是一个可编译为纯 ISO C++ 的编译器,由 Sutter 创建,用于提供一种更快速的提案实验方式。它还包括诸如 copyable(用于表达支持复制/移动构造与赋值的类型)、ordered(用于定义带有 operator<=> 的全序类型)、union(用于带名称的标签联合)、regex 等抽象,以及更多内容。

C++26 旨在带来显著改进的另一个领域是内存安全。这包括开箱即用地消除读取未初始化局部变量时的未定义行为,以及为大多数标准库类型(包括 vector、span、string、string_view)提供边界安全。Sutter 表示,这些改动已经在 Apple 和 Google 的生产环境中部署,覆盖了数亿行 C++ 代码:

这并非纸上谈兵。仅在 Google 内部,它已经修复了超过 1000 个缺陷,预计每年可防止 1000 到 2000 个缺陷,并将生产环境中的段错误发生率降低了 30%。

更重要的是,这些收益仅通过使用新编译器重新编译现有代码即可获得。只有在七个案例中,编译器无法分析高度优化的代码,需要开发者使用细粒度 API 在这些特定部分选择性地退出内存安全机制。

C++26 契约将防御式编程引入语言本身,提升了功能安全性和内存安全性。它允许开发者表达在方法执行过程中不可被违反的前置条件和后置条件。契约使断言可以移动到函数声明中,从而对调用者和静态分析工具可见。C++ 提供了四种处理契约违规的方式:忽略(ignore)、观察(observe)、强制(enforce)以及快速强制(quick enforce)。此外,它还引入了原生断言机制,用以替代 C 的 assert 宏。

最后,C++26 引入了 std::execution,作为一个用于表达和控制并发与并行的框架。该框架的三个主要抽象是调度器(schedulers)、发送器(senders)和接收器(receivers),它们可以通过一组可定制的异步算法进行组合。std::execution 被设计为能够很好地与 C++20 协程协同工作,并使编写“使用结构化(严格生命周期嵌套)的并发与并行、从构造上避免数据竞争的程序”变得更加容易。

两大主流 C++ 编译器 GCC 和 Clang 已经在标准制定过程中实现了 C++26 的大部分特性,这些特性很快将进入主线版本。

原文链接:

https://www.infoq.com/news/2026/04/cpp-26-reflection-safety-async/

目前看好了 豪爵 afr125 和铃木 uy125 ,但是

- 豪爵发动机差一些,有前 abs
- 铃木发动机好,但是没 abs 刹车软


想问下大家有没有推荐的,以及原因?最好是很了解某一个车型

本人的话:每目的主要单程 10 公里通勤,非常偶尔(一两个月一次)的近郊游玩,不上高速,属于安全为主,喜欢电动车的感觉但是续航焦虑。

之前我妈跟我说手机上有广告,关不掉。
是一个蓝色闪电图标,名为“趣点学习”的类似微信小程序的界面,连点返回无法退出,但是用多任务按钮可以退
今天又跟我说有广告,退不出去了
看了一下,发现广告制作了一个假的三按钮,需要上滑才能调出真正的三按钮
系统无法通过长按多任务卡片调出设置界面,只能在应用列表里翻,最后发现是“快应用”弹出的广告
而且是无法停用的系统应用,只能是卸载更新+禁止联网+ban 掉所有权限

近期发现 iPhone Safari 的 1Password 扩展菜单经常不显示

(就是这个在登录框旁可以点选的扩展菜单)

各种开关重新设置,还试了卸载再重装 1Password.app ,依然不行,上官方社区搜索,好家伙原来早有讨论
https://www.1password.community/discussions/1password/me-271-feedback-inline-menu-hidden-in-safari/168853
官方声称由于当前 iOS AutoFill (自动填充)功能与 Safari 扩展之间存在不可避免的冲突,因此在当前最新版本 1Password 中如果用户在 iPhone 的 AutoFill 启用了 1Password ,Safari 1Password 扩展的 inline menu (也就是上图登录框旁的扩展菜单)将被隐藏!!!

这一重大改动,官方没有给用户清晰的提醒告知,虽然是在更新说明的第三点有指出,但是用户 AutoFill 开启了 1Password 时,你 Safari 的 1p 扩展依然能开启啊,不能显示 inline menu 那这扩展还有什么用?你不如直接不让用户启用扩展,并在用户尝试启用扩展时告知用户上述功能冲突说明。

帖子下众人声讨,官方的回应充满了傲慢,像极了 Apple !

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405289000016937107 weibo.com/ttarticle/p/show?id=2309405289000390230339 weibo.com/ttarticle/p/show?id=2309405289000759066937 weibo.com/ttarticle/p/show?id=2309405289001132622164 weibo.com/ttarticle/p/show?id=2309405289001501458569 weibo.com/ttarticle/p/show?id=2309405289002000842899 weibo.com/ttarticle/p/show?id=2309405289002403233994 weibo.com/ttarticle/p/show?id=2309405289002780721214 weibo.com/ttarticle/p/show?id=2309405289003158470689

开场视频:Anthropic Labs 推出 Claude Design — 全程对话造原型,设计从未如此“野蛮”

🚨 地震级发布:Claude Design 来了,Figma 股票当场跳水

2026 年 4 月 17 日,Anthropic 通过旗下 Anthropic Labs 正式推出 Claude Design——一个让任何人都能通过自然语言对话,直接产出设计稿、交互原型、幻灯片和营销物料的 AI 产品。

消息一出,华尔街直接用脚投票:Figma 股价 暴跌 7%。要知道 Figma 占据着 UI/UX 设计市场约 80%-90% 的份额,是设计界的绝对霸主。能让这个巨头的股价一天蒸发数十亿美元,Claude Design 的“杀伤力”可见一斑。

而这背后,是一台刚换上的“核动力引擎”——Claude Opus 4.7,同一天正式发布。

💣 Opus 4.7:不是最强,但最“要命”

有意思的是,Anthropic 在公告里毫不掩饰地坦言:“这并非我们最强大的模型。” 真正的“怪物”——Mythos Preview,因为能力太强、安全评估尚未完成,至今仍被锁在实验室里。

但别被这句话骗了。Opus 4.7 不是靠“聪明”吓人,它是靠 “靠谱” 来抢饭碗的。

🧠 编程能力:64.3% vs 53.4%,单代暴涨 11 个百分点

在衡量真实工程能力的 SWE-bench Pro 上,Opus 4.7 从 4.6 的 53.4% 直接跳到 64.3%,把 GPT-5.4(57.7%)和 Gemini 3.1 Pro(54.2%)双双甩在身后。在 CursorBench 上更是从 58% 跃升至 70%。

这意味着什么?那些真正藏在 GitHub 深坑里、依赖关系复杂到让人头皮发麻的真实 bug,Opus 4.7 修复的成功率暴涨了 11 个百分点。代码审查工具 CodeRabbit 的实测显示:最难发现的 bug 召回率提升了 10% 以上,误报率却没有上升。

👁️ 视觉能力:2576 像素,清晰度暴增 3 倍

Opus 4.7 支持解析长边最大 2576 像素 的图像——是此前所有 Claude 版本的三倍以上。视觉推理基准 CharXiv 从 69.1% 跳至 82.1%。

这对 Claude Design 意味着什么?密密麻麻的截图能读了,复杂图表能精准提取了,高分辨率设计稿能逐像素分析了。以前你把设计稿截图丢给 AI,它说“图片不够清晰”——这个问题,彻底消失了

🤖 Agent 能力:能“多线并跑”,还会“自己先验证”

Opus 4.7 在复杂多步任务上比 4.6 提升了 14%,工具错误率降至原来的 三分之一。它还是首个通过“隐式需求测试”的 Claude 模型——不需要你手把手告诉它每一步该用什么工具,它自己会推断。

更狠的是,4.7 引入了 Multi-Agent Coordination(多智能体协调)能力,能同时并行跑多个 AI 工作流,而不是像以前一样一个接一个地排队处理。

最让开发者震撼的变化是:4.7 会在输出结果前自己先验证一遍。Notion 团队测试发现,遇到工具链崩溃,它能自己绕过障碍继续跑完任务;Vercel 甚至发现它会在写系统级代码之前,先自己做数学证明

💰 价格不变,Token 更“能烧”

定价仍然是每百万 token 输入 5 美元、输出 25 美元。但 4.7 引入了新的分词器,同样的文本可能产生 1 到 1.35 倍 的 token。Anthropic 为此新增了 xhigh 思考强度档位,Claude Code 已将默认档位拉满。

🎯 Claude Design 凭什么让设计师们“瑟瑟发抖”?

Claude Design 不是另一个“AI 出图工具”,它是一套完整的 从想法到交付的闭环系统

🔥 核心理念:别学设计,跟 AI 聊天就够了

“Describe what you need and Claude builds a first version.” 你描述需求,Claude 生成初版;然后通过对话、行内评论、直接编辑、或 Claude 自动生成的自定义滑块不断精调,直到满意。

Brilliant——一家以交互式课程复杂度著称的教育科技公司——的测试数据令人震撼:同样一个复杂页面,其他工具需要 20+ 次提示词才能搞定,Claude Design 只用了 2 次。他们原话是:“过去需要一周的简报、模型、多轮评审来回折腾,现在一次对话全搞定。”

🧩 自动品牌系统:读完你的代码库,一秒学会你公司的设计语言

这是 Claude Design 最“反人类”的功能。在 onboarding 阶段,Claude 直接读取你的代码仓库和设计文件,自动提取配色、字体、组件规范,构建出一套完整的设计系统。之后每一个项目,自动应用你的品牌风格,零手动配置。

🔄 导入万物,导出无界

支持从文本提示词、图片、DOCX/PPTX/XLSX 文档、代码库,甚至用网页抓取工具直接“薅”你官网的设计元素。完成后可以导出为 Canva、PDF、PPTX、独立 HTML 文件,或直接打包成 Handoff Bundle 丢给 Claude Code 一键转生产代码。

这个闭环意味着什么?从“我有一个想法”到“线上可运行的产品”,全链路不需要离开 Anthropic 的生态。

👥 组织级协作:多人同屏,一起跟 Claude 群聊

设计文档支持组织内私有分享、只读共享、编辑权限分配,甚至多人同时与 Claude 进行群聊式协作。

⚔️ Claude Design vs Google Stitch:两种哲学,一场战争

Google Stitch 比 Claude Design 早一个月发布重大更新(2026 年 3 月 18 日),两者的碰撞是 2026 年 AI 设计赛道最值得关注的战役。

维度Claude DesignGoogle Stitch
发布时间2026 年 4 月 17 日2026 年 3 月 18 日重大更新
底层模型Claude Opus 4.7Gemini 系列
核心理念对话驱动 + 品牌系统自动化“Vibe Design”氛围设计 + 无限画布
交互方式文本对话为主 + 行内编辑 + 滑块文本 + 语音 + 无限画布拖拽
视觉能力2576 像素长边,3 倍提升从 URL 一键提取设计系统
协作特性组织级分享 + 多人对话Agent Manager 并行管理多方向
代码衔接Claude Code 一键 handoffSDK + MCP 接入 Cursor/Gemini CLI 等
独特杀招自动品牌学习 + 2 次提示完成复杂页面语音实时修改 + 点击 Play 秒变交互原型

🎨 Stitch 的“氛围设计”:从感觉出发,而非线框图

Stitch 最大的创新是 “Vibe Design”——你不必从线框图开始,直接描述你的商业目标、你想让用户产生什么感觉,甚至展示你当前正在受什么启发。Stitch 会像采访你一样设计新页面,还能实时给出设计评估。

语音交互更是 Stitch 的独门绝技:你可以对着画布直接说“给我三个菜单选项”或“用不同调色板展示这个屏幕”,Stitch 实时响应。

🧠 双雄对决:两种设计哲学的正面交锋

Claude Design 的逻辑是:用最强的视觉理解模型,把对话做到极致,让品牌一致性“自动发生”,最后无缝衔接代码。它是 “从混沌到秩序” 的直线冲刺。

Google Stitch 的逻辑是:给设计师一张无限大的画布,让 AI 作为协作者而不是替代者,支持多方向并行探索。它是 “从模糊到清晰” 的螺旋迭代。

一个追求“快、准、狠”,一个追求“灵、活、广”。两者不是零和博弈,而是从不同角度共同撕开了同一个裂缝:设计,正在从“专业技能”变成“通用能力”

📊 真正的战争在数字里

Claude Design 和 Opus 4.7 的背后,是一组令人窒息的数据:

  • Anthropic 年化收入从 2025 年底的 90 亿美元 飙升至 2026 年 4 月初的 超过 300 亿美元
  • Claude Code 单产品在 2026 年 2 月年化收入达到 25 亿美元
  • 有 VC 给出高达 8000 亿美元 的估值报价。
  • IPO 传闻已经浮出水面,Goldman Sachs、JPMorgan、Morgan Stanley 参与早期洽谈,最早 2026 年 10 月 可能上市。
  • 微软首日打破与 OpenAI 的排他惯例,将 Opus 4.7 集成到 GitHub Copilot 等 9 大开发环境 中。
  • Opus 4.7 的法律基准 Harvey BigLaw Bench 得分 90.9%,是目前 Claude 家族最高分。
  • 工具调用评测 MCP-Atlas 跑出 77.3%。
  • 金融评估 GDPval-AA 达到 SOTA 水平。

🔮 结语:设计师会失业吗?不会。但不会用 AI 的设计师会。

Claude Design 的横空出世,不是来“干掉”设计师的——至少 Anthropic 是这么说的。他们强调与 Canva 的深度合作,强调 Claude Design 是 “互补而非替代”

但数字不会说谎。Figma 股价 7% 的暴跌,Adobe 股价的异动,都在诉说着同一个事实:AI 正在以不可逆转的速度重塑设计行业的工作方式

真正值得关注的问题不是“AI 会不会抢走设计师的工作”,而是:当创始人、产品经理、市场人员都能在几分钟内产出专业级视觉作品时,“设计”本身将如何被重新定义?

Claude Design 给出了 Anthropic 的答案:设计不再是少数人的特权,而是所有人表达创意的通用语言。剩下的,就看 Google Stitch 和其他玩家如何接招了。

官方公告:https://www.anthropic.com/news/claude-design-anthropic-labs

今日亮点

Anthropic 近期发表了一项关于大模型潜意识学习的重要研究,指出 LLM 可能通过数据中的隐藏信号传递偏好或错误对齐特性。同时,他们的自动化对齐研究员(AARs)在提升模型对齐效率和泛化能力方面取得了显著进展。另一方面,OpenAI 则针对用户关于 ChatGPT Pro 套餐的使用量限制做了详细澄清。

💡 产品动态

OpenAI 澄清 ChatGPT Pro 套餐用量

OpenAI 员工 Tibo 针对用户对 ChatGPT Pro 套餐的用量限制及使用加成活动造成的混淆进行了详细解释。目前,100 美元的 Pro 套餐至少包含 10 倍于 Plus 的用量,而 200 美元的 Pro 套餐则包含至少 20 倍于 Plus 的用量,这两项加成均持续至 5 月 31 日。OpenAI 承认定价页面的表述存在问题,并计划更新以提高清晰度。

为什么重要: 这直接影响 ChatGPT Pro 用户对服务预期和实际使用的理解,透明的沟通有助于维护用户信任并减少不必要的混淆。

阅读原文
[来源: Twitter @OpenAI ]

🔬 学术前沿

Anthropic 发布 LLM 潜意识学习研究

Anthropic 联合撰写的一项关于大型语言模型(LLM)潜意识学习的研究论文已在《自然》杂志发表。研究表明,LLM 能够通过数据中看似无关的隐藏信号,传递偏好、特质甚至潜在的未对齐特性,例如让模型在训练过程中“潜意识地”喜欢猫头鹰。

为什么重要: 这项研究揭示了 LLM 训练数据中潜在的风险和复杂性,对于未来开发更安全、更可控的 AI 系统具有重要指导意义,强调了在数据处理和模型对齐方面的精细化需求。

阅读原文
[来源: Twitter @Anthropic]

Anthropic 自动化对齐研究员提升模型对齐效率

Anthropic 的自动化对齐研究员(AARs),基于 Claude Opus 4.6 并配备额外工具,在测试中展现出卓越的泛化能力。它们不仅成功地将方法应用于之前未见的编程和数学任务数据集,还在七天内将弱模型与强模型之间的“性能差距”弥合了 97%,远超人类研究员 23% 的成果。

为什么重要: AARs 的高效率和泛化能力预示着 AI 在自我改进和对齐研究方面取得重大突破,有望加速安全可靠的通用人工智能(AGI)的开发。

阅读原文
[来源: Twitter @Anthropic]

🌍 行业观察

前诺华 CEO 加入 Anthropic 董事会

Anthropic 的长期利益信托基金任命 Vas Narasimhan 加入公司董事会。Vas Narasimhan 拥有二十多年在医药和全球健康领域的经验,曾担任诺华公司首席执行官。

为什么重要: 这项任命可能为 Anthropic 带来更广阔的战略视野和全球化经验,尤其是在 AI 伦理和健康领域的潜在应用方向上,有助于公司在高速发展的同时保持稳健的治理。

阅读原文
[来源: Twitter @Anthropic]

💻 开源项目

  • hermes-agent:一个能够与用户共同成长和进化的智能体,旨在提供个性化的 AI 助手 → GitHub
  • claude-mem:专为 Claude Code 设计的插件,能自动捕获、压缩编码会话并智能注入相关上下文,从而显著提升开发效率 → GitHub
  • awesome-design-md:收集了大量流行网站的 DESIGN.md 文件,方便编码智能体直接学习并构建匹配的 UI 界面 → GitHub
  • multica:将编码智能体转变为真正的团队成员,智能体能自主承担任务、编写代码、报告障碍并更新状态 → GitHub
  • graphify:一款 AI 编码助手技能,能将任何代码、文档、论文或图片文件夹转化为可查询的知识图谱,便于知识管理和检索 → GitHub
  • voicebox:一个开源语音合成工作室,为开发者提供灵活的文本转语音解决方案 → GitHub
  • GenericAgent:一个 AI 驱动的 PC 智能体,专注于桌面自动化和智能任务执行,提升电脑使用效率 → GitHub
  • magikaGoogle 出品,一个快速准确的 AI 驱动文件内容类型检测工具,可识别多种文件格式 → GitHub
  • open-agents:Vercel Labs 推出的开源模板,用于帮助开发者轻松构建和部署云端智能体 → GitHub
  • thunderbolt:由 Thunderbird 团队打造,强调用户掌控 AI,可自由选择模型、拥有数据并避免厂商锁定,致力于打造去中心化的 AI 体验 → [GitHub]( https://github.com/thunderbird/thunderbolt ]

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288989077930011 weibo.com/ttarticle/p/show?id=2309405288989442834557 weibo.com/ttarticle/p/show?id=2309405288989963190444 weibo.com/ttarticle/p/show?id=2309405288990336221236 weibo.com/ttarticle/p/show?id=2309405288990705582336 weibo.com/ttarticle/p/show?id=2309405288991103778821 weibo.com/ttarticle/p/show?id=2309405288991460556981 weibo.com/ttarticle/p/show?id=2309405288991959679128 weibo.com/ttarticle/p/show?id=2309405288992357875782 个

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288982119841895 weibo.com/ttarticle/p/show?id=2309405288982513844239 weibo.com/ttarticle/p/show?id=2309405288982874554403 weibo.com/ttarticle/p/show?id=2309405288983227138328 weibo.com/ttarticle/p/show?id=2309405288983587586201 weibo.com/ttarticle/p/show?id=2309405288984065736767 weibo.com/ttarticle/p/show?id=2309405288984422252685 weibo.com/ttarticle/p/show?id=2309405288984808128592 weibo.com/ttarticle/p/show?id=2309405288985164644474 个

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288862951014427 weibo.com/ttarticle/p/show?id=2309405288863425233045 weibo.com/ttarticle/p/show?id=2309405288863777554599 weibo.com/ttarticle/p/show?id=2309405288864167624801 weibo.com/ttarticle/p/show?id=2309405288864519684108 weibo.com/ttarticle/p/show?id=2309405288864868073550 weibo.com/ttarticle/p/show?id=2309405288865375322190 weibo.com/ttarticle/p/show?id=2309405288865723449391 weibo.com/ttarticle/p/show?id=2309405288866084421729 个

​一、工具简介
FastStone Capture​ 是一款轻量级、功能强大的屏幕捕捉工具,支持滚动截图、屏幕录制、图像编辑等功能。

安装包下载:https://pan.xunlei.com/s/VOqU-ImW07NahgQzOjAMHshTA1?pwd=i3tx#

二、使用步骤

  1. 解压工具包​

右键点击【FastStone Capture】压缩包 → 选择【解压到“FastStoneCapture”】。

  1. 移动程序文件夹​

将解压后的【FastStone Capture】文件夹拖动到需要安装的磁盘(例如 D 盘)。

  1. 进入程序目录​

双击打开移动后的【FastStone Capture】文件夹。

  1. 创建桌面快捷方式​

右键点击【FSCapture】主程序。

选择【发送到】→【桌面快捷方式】。

  1. 启动软件​

双击桌面生成的【FastStone Capture】图标。

  1. 运行成功​

成功进入 FastStone Capture 主界面,表示工具已就绪,可开始截图或录屏。

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405288842847977841 weibo.com/ttarticle/p/show?id=2309405288843204231171 weibo.com/ttarticle/p/show?id=2309405288843564941797 weibo.com/ttarticle/p/show?id=2309405288843942691105 weibo.com/ttarticle/p/show?id=2309405288844286623928 weibo.com/ttarticle/p/show?id=2309405288844743541010 weibo.com/ttarticle/p/show?id=2309405288845079347417 weibo.com/ttarticle/p/show?id=2309405288845414629830 weibo.com/ttarticle/p/show?id=2309405288845750174140

Cyber Triage 3.17 发布 - 使用生成式 AI 增强并生成 DFIR 数字痕迹报告

Cyber Triage 3.17 for Windows - 面向事件响应的数字取证软件

Digital Forensics Specialized For Incident Response

请访问原文链接:https://sysin.org/blog/cybertriage-3/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


唯一专门用于事件响应的数字取证工具
快速、准确和简单地完成入侵调查

sysin

Cyber Triage 是一款自动化的数字取证与事件响应(DFIR)软件,旨在帮助安全运营中心(SOCs)、托管安全服务提供商(MSSPs)、顾问和执法机构快速调查网络入侵事件,如恶意软件、勒索软件和账户接管等。

新增功能

Cyber Triage 3.17: Use AI to Enrich and Report your DFIR Artifacts

Cyber Triage 3.17:使用 AI 增强并生成 DFIR 数字痕迹报告

2026 年 4 月 16 日

Cyber Triage 3.17.0 已发布,允许你将 AI 集成到调查过程中,从而更快得出结论。你现在可以使用 Claude 作为一个只读的 AI 助手,用于增强 Cyber Triage 的分析结果、生成报告以及发现新的线索。

这是我们首次将生成式 AI(GenAI)集成到 Cyber Triage 中。在本文中,我们将介绍 MCP Server 以及你可以利用它实现的功能。

通过 MCP 将 Claude Desktop 与 Cyber Triage 集成

此次 Cyber Triage 的核心新增功能是 MCP Server。它允许 MCP 客户端(例如 Claude Desktop)连接并查询数据。简单来说,可以将 MCP 理解为一个可供 LLM 调用以获取数据的 REST API。

数据流如下:你在本地计算机上运行 Claude Desktop 和 Cyber Triage,Claude Desktop 随后可以与 Anthropic 的服务器或 AWS / Azure / GCP 等平台上的 LLM 进行通信。

Cyber Triage

实际上,你可以使用任何 MCP 客户端,LLM 服务器也可以部署在任意位置。我们之所以重点介绍 Claude Desktop,是因为它目前最为流行。

与你的 DFIR 数据对话

完成连接后,你可以借助 LLM 的能力,加快调查速度:

  • 与数据对话: 通过提问(而非编写查询语句),任何分析人员都可以像专家一样分析数据。
  • 轻松增强发现结果: 使用 AI 为 Cyber Triage 的评分结果补充上下文信息,包括威胁情报和分析内容。
  • 将结果转化为报告: 可快速从 Cyber Triage 的结果中生成时间线、执行摘要以及完整的调查报告。

例如,你可以让系统生成一份重要活动时间线:

Cyber Triage

或者生成入站和出站登录的网络拓扑图:

Cyber Triage

或者提出增强类问题,例如某个文件名是否常见:

Cyber Triage

DFIR + AI 使用注意事项

AI 有时表现惊艳,有时也会令人沮丧。我们正在以渐进且透明的方式,将生成式 AI 引入 Cyber Triage。

在本次版本中,需要注意以下几点:

  • 评分机制: 我们未使用 GenAI 进行评分。仍然采用确定性方法来判断数字痕迹是否为恶意或可疑。
  • 只读模式: Claude 无法更改 Cyber Triage 数据库中的任何数据,你无需担心其将“幻觉”写入数据集中。
  • 由你主导: 是否使用 GenAI 完全由你决定,因此你始终清楚哪些内容是由 AI 生成的。
  • 自带 AI(BYOAI): 你使用的不是我们的模型,我们也不会看到你的数据。数据仅会发送到你已签署协议的服务端(Anthropic、云平台或内部环境)。

快速设置视频

我们提供了一段简短视频,展示如何完成设置并使用该功能。

面向所有用户的企业级功能

该功能原本属于 Cyber Triage 企业版的一部分,但我们将其开放给所有用户使用,截止日期为 2026 年 9 月 1 日。

生成式 AI 正在迅速发展,大家都在积极探索。我们希望鼓励大家尝试,并与你一同学习哪些提示词有效,哪些效果不佳。

立即体验

Cyber Triage 3.17: Use AI to Enrich and Report your DFIR Artifacts

Apr 16 2026

更多:HTTP 协议与安全

IPv6 这么多年推不动,难道就没有人觉得 IPv6 协议丑陋无比吗,那一坨地址看着就不想用啊

二十年了,IETF 终于醒悟了,改 IPv8 全面兼容 IPv4

r.r.r.r.n.n.n.n 如果 r 全部为 0 ,自动识别为 IPv4

终于看的顺眼了

IPv6 说明世界真是个草台班子

一、硬件连接方案

1. 引脚分配(以TIM3为例)

通道默认引脚重映射引脚适用场景
CH1PA6PB4电机控制/LED调光
CH2PA7PB5伺服电机/呼吸灯

2. 电路设计要点

  • 电机驱动:需外接H桥电路(如TB6612)保护GPIO
  • LED限流:串联220Ω电阻防止烧毁
  • 滤波电路:在电源端添加0.1μF陶瓷电容

二、软件实现代码

1. 定时器初始化(TIM3双通道PWM)

#include "stm32f10x.h"

void TIM3_PWM_Init(u16 arr, u16 psc) {
    GPIO_InitTypeDef GPIO_InitStructure;
    TIM_TimeBaseInitTypeDef TIM_TimeBaseStructure;
    TIM_OCInitTypeDef TIM_OCInitStructure;

    // 使能时钟
    RCC_APB1PeriphClockCmd(RCC_APB1Periph_TIM3, ENABLE);
    RCC_APB2PeriphClockCmd(RCC_APB2Periph_GPIOA | RCC_APB2Periph_AFIO, ENABLE);

    // 引脚重映射配置
    GPIO_PinRemapConfig(GPIO_PartialRemap_TIM3, ENABLE);  // PA6→PB4, PA7→PB5

    // GPIO初始化
    GPIO_InitStructure.GPIO_Pin = GPIO_Pin_4 | GPIO_Pin_5;
    GPIO_InitStructure.GPIO_Mode = GPIO_Mode_AF_PP;      // 复用推挽输出
    GPIO_InitStructure.GPIO_Speed = GPIO_Speed_50MHz;
    GPIO_Init(GPIOB, &GPIO_InitStructure);

    // 定时器基础配置
    TIM_TimeBaseStructure.TIM_Period = arr;             // 自动重装载值
    TIM_TimeBaseStructure.TIM_Prescaler = psc;          // 预分频系数
    TIM_TimeBaseStructure.TIM_ClockDivision = 0;
    TIM_TimeBaseStructure.TIM_CounterMode = TIM_CounterMode_Up;
    TIM_TimeBaseInit(TIM3, &TIM_TimeBaseStructure);

    // PWM模式配置
    TIM_OCInitStructure.TIM_OCMode = TIM_OCMode_PWM1;   // PWM模式1
    TIM_OCInitStructure.TIM_OutputState = TIM_OutputState_Enable;
    TIM_OCInitStructure.TIM_OCPolarity = TIM_OCPolarity_High;

    // 通道1配置
    TIM_OCInitStructure.TIM_Pulse = 0;                  // 初始占空比0%
    TIM_OC1Init(TIM3, &TIM_OCInitStructure);
    TIM_OC1PreloadConfig(TIM3, TIM_OCPreload_Enable);

    // 通道2配置
    TIM_OCInitStructure.TIM_Pulse = 0;
    TIM_OC2Init(TIM3, &TIM_OCInitStructure);
    TIM_OC2PreloadConfig(TIM3, TIM_OCPreload_Enable);

    // 使能定时器
    TIM_Cmd(TIM3, ENABLE);
}

2. 占空比动态调整

// 设置通道1占空比(0-100%)
void Set_PWM1_DutyCycle(u8 percent) {
    u16 compare_val = (arr + 1) * percent / 100;
    TIM_SetCompare1(TIM3, compare_val);
}

// 设置通道2占空比(0-100%)
void Set_PWM2_DutyCycle(u8 percent) {
    u16 compare_val = (arr + 1) * percent / 100;
    TIM_SetCompare2(TIM3, compare_val);
}

3. 主函数示例

int main(void) {
    // 初始化PWM(周期20ms,频率50Hz)
    TIM3_PWM_Init(19999, 71);  // 72MHz/(72)=1MHz → 1MHz/(19999+1)=50Hz

    while(1) {
        // 通道1从0%到100%渐变
        for(u8 i=0; i<=100; i++) {
            Set_PWM1_DutyCycle(i);
            Delay_ms(10);
        }
        
        // 通道2从100%到0%渐变
        for(u8 i=100; i>=0; i--) {
            Set_PWM2_DutyCycle(i);
            Delay_ms(10);
        }
    }
}

三、关键参数计算

1. PWM频率公式

频率 = 72MHz / (预分频系数 + 1) / (自动重装载值 + 1)
  • 示例:psc=71, arr=19999 → 72/(72)/(20000)=50Hz

2. 占空比计算

占空比(%) = (CCR值 / (ARR+1)) × 100

四、调试技巧

1. 示波器观察要点

  • 上升沿对齐:确保两路PWM上升沿同步
  • 占空比精度:检查实际值与设定值偏差(应<1%)
  • 死区时间:电机控制需添加死区(建议0.1-0.5μs)

2. 常见问题解决

现象原因解决方案
无输出GPIO未正确映射检查AFIO时钟和重映射配置
占空比失真中断干扰关闭相关中断或提高优先级
频率漂移系统时钟异常验证PLL配置和外部晶振

五、扩展功能实现

1. 输入捕获同步

// 配置TIM3_CH1为输入捕获(用于编码器)
TIM_ICInitTypeDef TIM_ICInitStructure;
TIM_ICInitStructure.TIM_Channel = TIM_Channel_1;
TIM_ICInitStructure.TIM_ICPolarity = TIM_ICPolarity_Rising;
TIM_ICInitStructure.TIM_ICFilter = 10;
TIM_ICInit(TIM3, &TIM_ICInitStructure);

2. 硬件PWM刹车

// 紧急停止时强制输出低电平
void PWM_Brake() {
    GPIO_ResetBits(GPIOB, GPIO_Pin_4 | GPIO_Pin_5);
}

参考代码 STM32F103控制的两路PWM输出 www.youwenfan.com/contentsfa/103639.html

六、完整工程配置

  1. CubeMX配置流程

    • 选择STM32F103C8T6
    • 启用TIM3定时器
    • 配置通道1和2为PWM模式
    • 设置时钟树(HSE=8MHz, PLL=9倍频)
  2. Keil工程结构

    Project/
    ├── Core/
    │   ├── Inc/ (头文件)
    │   └── Src/ (源文件)
    ├── Drivers/
    │   ├── CMSIS/
    │   └── STM32F1xx_HAL_Driver/
    └── Middlewares/
        └── USB_Device/