几乎所有深度使用QClaw的人都会遇到同一个问题:刚安装的时候秒开秒响应,执行任务行云流水,可随着使用时间的推移,速度会越来越慢,点一下要等好几秒才有反应,简单的指令也要处理半天。绝大多数人遇到这种情况,第一反应就是自己的电脑配置不够,于是咬牙升级内存、更换固态硬盘,甚至直接换一台更高配置的电脑。但我身边很多朋友换了顶配电脑之后,用了不到两个月,QClaw又开始变得卡顿,这说明问题根本不在硬件本身,而在于我们的使用方式和默认配置的不合理性。我自己也曾经被这个问题困扰了很久,花了整整三周的时间,测试了几十种不同的优化方案,终于找到了五个立竿见影的性能优化技巧,不需要花一分钱升级硬件,只需要调整几个设置和使用习惯,就能让QClaw的运行速度直接翻倍,甚至比刚安装的时候还要流畅。

很多人不知道,QClaw卡顿的最大元凶其实是全量模型加载机制。默认情况下,QClaw会把整个模型的所有参数全部加载到内存中,这样虽然能获得最快的单次响应速度,但也会占用大量的内存资源,尤其是对于大模型来说,全量加载会占用十几GB甚至几十GB的内存。当内存不足的时候,系统就会开始使用虚拟内存,也就是把一部分硬盘空间当作内存来使用,而硬盘的读写速度比内存慢得多,这就会导致QClaw的运行速度急剧下降。更糟糕的是,当你同时打开其他程序的时候,内存会更加紧张,QClaw甚至会出现长时间无响应的情况。我之前就是因为一直使用全量加载模式,导致电脑只要一打开QClaw,就不能再打开任何其他大型程序,否则整个系统都会变得非常卡顿。解决这个问题的核心方法是采用分层加载策略,这也是目前行业内最先进的本地模型运行技术。简单来说,就是把模型分成多个不同的层,只把最常用的核心层加载到内存中,而把不常用的辅助层暂时存放在固态硬盘上,只有当需要用到这些层的时候,才会临时从硬盘加载到内存中,使用完之后再自动卸载。这样一来,内存占用会大幅降低,通常只有全量加载的三分之一到二分之一,同时对响应速度的影响非常小,几乎感觉不到任何延迟。我自己测试过,采用分层加载策略之后,QClaw的内存占用从原来的16GB降到了6GB,运行速度不仅没有变慢,反而因为内存充足,多任务处理能力提升了好几倍,同时打开十几个网页和文档,QClaw依然能流畅执行任务。

第二个容易被忽视的性能杀手是无限增长的上下文窗口。QClaw为了保持对话的连贯性,会默认保留所有的历史对话上下文,每一次新的指令,都会把之前所有的对话内容全部输入到模型中进行推理。随着使用时间的推移,上下文会变得越来越长,推理所需的计算量也会呈指数级增长,这就是为什么QClaw会越用越卡的重要原因。很多人用了几个月之后,上下文长度已经达到了几万甚至几十万字,这时候即使是最简单的指令,模型也需要处理很长时间才能给出结果。我之前就遇到过这种情况,一条简单的文件重命名指令,QClaw竟然处理了整整十秒钟,后来我查看了上下文历史,发现里面竟然保留了我三个月以来所有的对话记录。针对这个问题,我总结出了一套动态上下文裁剪规则,既能保持对话的连贯性,又能有效控制上下文的长度。首先,我会关闭QClaw的全局上下文保留功能,改为按任务隔离上下文,每个新的任务都会创建一个独立的上下文环境,任务完成之后,上下文就会自动清理。其次,对于需要长期保留的任务,我会设置一个上下文长度上限,当上下文超过这个上限的时候,QClaw会自动删除最早的非关键对话内容,只保留最近的关键指令和执行结果。最后,我会定期手动清理所有已经完成的任务上下文,彻底释放模型的推理资源。采用这套规则之后,QClaw的推理速度提升了三倍以上,即使是复杂的多步骤任务,也能在几秒钟内给出结果。

第三个优化技巧是任务队列的批量合并处理。很多人使用QClaw的时候,喜欢想到什么就发什么,同时给QClaw下达很多个不同的任务,导致任务队列严重堆积。QClaw默认是串行执行任务的,每个任务都要等待前一个任务完成之后才能开始执行,而且每个任务都需要单独加载和卸载模型资源,这会浪费大量的时间在资源切换上。更糟糕的是,频繁的任务切换会导致CPU和内存的利用率忽高忽低,系统无法进行有效的资源调度,进而影响整体的运行效率。我之前就经常犯这个错误,同时发十几个不同的文件整理任务,结果每个任务都要等很久才能完成,总耗时比一个一个执行还要长。正确的做法是把相似的任务合并成一个批量任务,让QClaw一次性处理所有的相似任务。这样一来,模型只需要加载一次资源,就能连续执行所有的任务,大大减少了资源切换的时间开销。同时,批量处理还能让系统更有效地调度CPU和内存资源,提高资源的利用率,进而提升整体的处理速度。我自己测试过,把十个相似的文件整理任务合并成一个批量任务之后,总耗时从原来的二十分钟降到了七分钟,效率提升了将近三倍。另外,我还会给QClaw设置一个任务队列长度上限,当任务队列超过这个上限的时候,新的任务会自动进入等待状态,避免任务过多导致系统过载。

第四个技巧是本地缓存的精细化管理。QClaw为了提升运行速度,会自动缓存很多常用的资源,比如模型权重、文档索引、执行结果、网页内容等等。这些缓存确实能在一定程度上提升QClaw的响应速度,但时间长了,缓存会变得越来越大,甚至会占用几十GB的磁盘空间。当缓存过大的时候,磁盘的读写速度会变慢,QClaw读取缓存的时间反而会比重新生成资源的时间还要长,这就会导致QClaw的运行速度不升反降。而且,很多缓存内容都是过时的,已经没有任何使用价值,只会白白占用磁盘空间。我之前就发现,我的QClaw缓存文件夹竟然有32GB之大,里面很多都是一年前的缓存内容。我现在采用的是分级缓存管理策略,把缓存分成了短期缓存、中期缓存和长期缓存三个等级。短期缓存保存最近一周使用的资源,中期缓存保存最近一个月使用的资源,长期缓存保存经常使用的核心资源。每天凌晨,QClaw会自动清理过期的短期缓存,每周日会自动清理过期的中期缓存,每个月会手动清理一次长期缓存中不再使用的资源。同时,我还设置了缓存的总大小上限,当缓存超过这个上限的时候,系统会自动删除最久未使用的缓存内容。采用这套策略之后,我的QClaw缓存文件夹大小一直保持在5GB以内,磁盘读写速度明显提升,QClaw的启动速度和运行速度都有了很大的改善。

第五个也是最容易被忽略的优化技巧是后台进程的资源隔离。QClaw在运行的时候,会启动多个后台辅助进程,这些进程负责处理不同的任务,比如文件操作、网页浏览、语音识别等等。默认情况下,这些后台进程和主进程共享相同的系统资源,优先级也相同。当某个后台进程出现资源占用过高的情况时,就会抢占主进程的资源,导致主进程运行卡顿。很多时候,你觉得QClaw卡,其实并不是主进程卡,而是某个后台进程占用了大量的CPU和内存资源,导致主进程无法获得足够的资源来执行任务。我之前就遇到过这种情况,QClaw的主进程只占用了20%的CPU,但有一个后台进程竟然占用了70%的CPU,导致整个QClaw都变得非常卡顿。解决这个问题的方法是利用系统自带的资源管理工具,对QClaw的进程进行资源隔离和优先级调整。首先,给QClaw的主进程设置最高的优先级,确保主进程能优先获得系统资源。其次,给每个后台进程设置单独的资源限制,限制它们的CPU和内存占用上限,防止某个后台进程占用过多的系统资源。最后,关闭一些不常用的后台功能,比如自动更新、数据统计、错误报告等等,这些功能不仅会占用系统资源,还会影响QClaw的运行速度。我自己调整之后,QClaw的后台进程总资源占用降低了60%,主进程的资源利用率大幅提升,即使后台有其他程序在运行,QClaw也能流畅地执行各种任务。

很多人都在追求更大的模型、更高的配置,认为只有这样才能获得更好的使用体验,但实际上,大多数人都没有充分发挥现有硬件和软件的潜力。我见过很多人用着顶配的电脑,却因为错误的使用方式和默认配置,导致QClaw运行得非常卡顿。而通过上面这五个简单的优化技巧,不需要花一分钱升级硬件,只需要调整几个设置和使用习惯,就能让QClaw的运行速度直接翻倍,甚至比刚安装的时候还要流畅。这些技巧不仅适用于QClaw,也适用于其他所有本地运行的智能体工具,掌握了这些技巧,你就能用最低的成本,获得最好的使用体验。当然,性能优化是一个持续的过程,没有最好,只有更好。随着QClaw的不断更新和升级,会出现新的性能问题,也会有新的优化方法。我会继续深入研究QClaw的性能优化技术,把更多实用的技巧分享给大家。同时,我也希望大家能养成良好的使用习惯,不要过度依赖硬件升级,而是学会通过优化软件配置和使用方式来提升性能。只有这样,我们才能真正发挥智能体工具的潜力,让它们成为我们工作和学习的得力助手,而不是拖累我们效率的负担。

大多数程序员终其职业生涯都在与重复劳动对抗,我们花费大量时间在文件整理、环境配置、文档生成和流程审批上,真正用于思考和创造的时间不足三分之一。很多人试图用各种脚本和工具来解决这个问题,但最终却陷入了维护工具本身的泥潭,花在写脚本上的时间比节省的时间还要多。直到接触到QClaw之后,我才真正意识到,自动化的未来不是写更多的代码,而是让智能体理解我们的意图并自动执行操作。这种从"指令式"到"意图式"的转变,正在从根本上改变我们的工作方式。QClaw与传统对话式AI的本质区别在于,它不是一个只会回答问题的聊天机器人,而是一个具备系统级执行能力的智能体。它可以直接操作你的电脑文件、浏览器和各种应用程序,将你的自然语言指令转化为实际的电脑操作。更重要的是,所有的数据处理和推理过程都在本地完成,不会上传到云端,这对于处理敏感的项目代码和商业数据来说至关重要。这种"本地执行+自然语言交互"的模式,完美解决了效率和安全之间的矛盾,让我们可以放心地将各种重复性工作交给智能体处理。

很多人使用QClaw的方式都错了,他们只是把它当成一个高级的语音助手,让它做一些简单的文件重命名或者网页搜索。但QClaw真正强大的地方在于,它可以将各种原子能力按照逻辑顺序串联起来,形成完整的自动化工作流。比如,当你需要研究一个新的技术领域时,你只需要告诉它关键词和研究范围,它就会自动搜索相关的学术论文和技术文档,下载并整理到指定的文件夹,提取每篇文章的核心观点和创新点,最后生成一份结构化的研究报告。整个过程不需要任何人工干预,你只需要等待最终的结果即可。事件驱动是QClaw最容易被忽视但却最强大的功能之一。它可以监控文件系统的变化,当某个特定的文件被创建、修改或者删除时,自动触发一系列预设的操作。我用这个功能搭建了一套完全自动化的开发环境,每当我将一个新的项目文件保存到指定目录时,QClaw就会自动识别项目类型,创建对应的虚拟环境,安装必要的依赖包,初始化版本控制系统,并生成标准的项目结构和README文件。这不仅节省了大量的环境配置时间,还保证了所有项目的结构一致性,便于团队协作和后期维护。

远程异步执行能力彻底打破了空间和时间的限制,让我们可以随时随地处理工作任务。通过微信绑定之后,你可以在任何有网络的地方向你的电脑发送指令,让QClaw帮你完成各种操作。比如,当你在地铁上突然想到一个好的想法时,你可以直接用微信告诉QClaw创建一个新的项目分支,并将你的想法记录在项目文档中。当你在开会时,你可以让QClaw自动下载客户发来的需求文档,并提取其中的关键信息和时间节点,整理成待办事项列表发送给你。这种"人机分离"的工作模式,让我们可以充分利用碎片化时间,提高工作效率。持续学习和个性化适配是QClaw区别于其他自动化工具的核心优势。它会不断学习你的工作习惯和偏好,逐渐成为最了解你的专属助手。比如,它会记住你喜欢的代码风格、文档格式和命名规范,在生成代码和文档时自动遵循这些规则。它会记住你经常访问的网站和常用的工具,在执行相关任务时优先使用这些资源。随着使用时间的增加,QClaw会变得越来越聪明,越来越懂你,最终成为你工作中不可或缺的一部分。

当然,QClaw也不是万能的,它不能替代程序员进行创造性的思考和复杂的逻辑设计。但它可以帮我们从繁琐的重复性工作中解放出来,让我们有更多的时间和精力去做那些真正有价值的事情。在使用QClaw的过程中,我逐渐意识到,未来的程序员不再是代码的编写者,而是智能体的训练师和指挥官。我们的工作将从"告诉电脑怎么做"转变为"告诉电脑做什么",而电脑则会自动完成所有的细节工作。这种转变不仅会提高我们的工作效率,还会改变我们的职业发展方向。那些能够熟练掌握智能体工具,善于将复杂任务分解为可执行步骤的程序员,将会在未来的职场中占据绝对的优势。而那些只会埋头写代码,不愿意接受新技术的程序员,将会逐渐被时代淘汰。所以,现在正是开始学习和使用QClaw的最佳时机,让我们一起拥抱智能体时代,重构我们的开发流程,释放我们的创造力。

一、工具简介

360驱动大师​ 是一款集驱动检测、安装、备份与恢复于一体的工具。

核心优势:界面简洁、操作简单,支持一键式驱动安装,能快速识别缺失或不兼容的硬件驱动,有效解决电脑因驱动问题导致的蓝屏、无法上网、声音异常等情况。

安装包下载:https://pan.quark.cn/s/a4c75c013780

    • *

二、使用步骤

1. 启动工具

找到【360驱动大师】程序图标 → 右键点击​ → 选择【以管理员身份运行】。

2. 进入主界面

软件启动后,首页将自动扫描硬件设备并展示驱动状态(如下图所示)。

(此处插入软件首页截图)

现在每个企业都在用 AI ,如果我是企业的 CFO ,我会想有没有什么办法对冲(或者锁定) token 价格上涨的风险?

现在想到的办法有
- 与供应商签订长期合同,比如微软就可以提供固定 Token 价格的长期合同,风险是企业被锁定在单一的供应商上。
- 购买电力价格期货,假设 token 价格上涨的最大因素是电力价格。
- ??


我目前的几个疑问:

Token / 推理成本到底更像什么?
- 大宗商品(电力)?
- 云资源( AWS )?
- 还是一种新的资产类别?
有没有企业已经在做“系统性对冲”,而不是简单谈判价格?
如果未来出现“算力期货”,它的标的应该如何定义?
- Token 数量?
- FLOPs ?
- 还是某种标准化模型调用?

欢迎拍砖,尤其想听听:
有没有人从 CFO / Treasury 角度真的在设计这类对冲策略?

我发现从 V 站开始,有很多社区是没有私信功能的比如本站、middlefun、过早客等,当然没有私信这个功能倒并没有太大的不便,反而促进了 base64 编码的普及。其实社区的私信功能确实用的不多,比如有一次上 V 站有问题时,也没想有没有私信的事,也是给 Livid 发邮件处理。但也有例外,比如 L 站就是有私信功能,不知是否跟框架的选择有关。

不过还是有些疑惑,因为像一些传统论坛,比如 Hipda、NGA、52pojie 等都是有私信功能的。有的时候也会用。

就是想了解一下,站长们在设计社区的时候,私信功能在不在考虑范围,是由于框架的原因无法支持,还是由于政策的要求,或者是从社区交互的方面考虑。

 是一款强大的结构方程模型(SEM)软件,由IBM公司开发。支持通过扩展标准多变量分析方法(包括回归、因子分析、相关分析以及方差分析)来支持研究和理论

一、准备工作

安装包下载:https://pan.xunlei.com/s/VOqUGneSVqBVUEQP4rgmUqmLA1?pwd=2mkb#,先下载好【Amos29(64bit)】压缩包,保存到电脑本地(内含清理工具、安装程序和Crack工具)。

二、清理旧版本(仅限升级/重装用户)

若电脑从未安装过Amos,请直接从 第三步 开始。

  1. 打开解压后的【清理旧版本许可】文件夹。
  2. 右键【Amos残余文件清理】→【以管理员身份运行】(运行完毕会自动关闭)。
  3. 右键【licenseinit】→【以管理员身份运行】。
  4. 按提示输入 123并按回车,再输入 1234并按回车。

三、安装 Amos 29

  1. 打开解压后的【Amos29(64bit)】文件夹,右键【Setup】→【以管理员身份运行】。
  2. 点击【Next】→ 勾选【I accept...】→【Next】。
  3. 自定义安装路径:点击【Change...】,将路径中的 C改为 D(如 D:\Program Files\IBM\SPSS\Amos\29)→【OK】→【Next】。
  4. 点击【Install】等待安装完成。
  5. 取消勾选【start IBM...】,点击【Finish】。

四、 Amos 29(Crack替换)

  1. 替换主程序文件

    • 打开安装包中的【Crack】文件夹,全选文件并【复制】。
    • 右键桌面【IBM SPSS Amos 29 Graphics】图标 →【打开文件所在的位置】。
    • 在空白处【粘贴】,点击【替换目标中的文件】。
  2. 运行许可证生成器

    • 回到【Crack】文件夹,右键【Keygen】→【以管理员身份运行】。
    • 点击【Browse...】,导航至软件安装目录(如 D:\Program Files\IBM\SPSS\Amos\29),选中【Amos GraphicsCLI】文件 →【打开】。
    • 勾选【Immediate Mode...】,在Name处输入 Amos 29,点击【Create Desktop...】生成最终快捷方式。

五、验证安装

双击桌面新生成的【Amos 29】图标,若能正常进入建模界面,则安装成功!

2023 年 1 月,Rust 官方博客发布了一篇公告,正式宣布 Types Team(类型团队) 的成立。

说"正式宣布",是因为这个团队其实早在 2022 年 5 月底就已经悄然运作了——只是一直没有对外说过。这次公告,是在团队完成了一次为期三天的线上线下混合会议之后,借着年初的时机,向社区汇报:我们是谁、做了什么、接下来要去哪里。

本文就是基于 Rust 官方博客 2023 年 1 月 20 日发布的《Officially announcing the types team》整理撰写,作者为 Jack Huey,代表 The Types Team。

原文地址


两个数字,说明问题有多严重

公告开门见山地列出了两个数字,解释为什么需要成立这样一个团队。

220 个:Rust 目前有约 220 个已接受但尚未完整实现的语言、编译器或类型系统特性的追踪 Issue,其中约一半已经存在了至少三年,许多更是积压了更久。这些 Issue 之所以久拖不决,不单是人手不足的问题,更根本的原因是:在 Rust 这样复杂的语言里,想把一个特性的语义和整体语言上下文对齐,本身就极其困难。往往没有人能一眼看出"要把这件事做完,具体该做什么"。

62 个:目前有 62 个未解决的健全性漏洞(unsoundness issues)。听起来很吓人,但公告也做了说明:这些几乎都是在极端边界条件下才会触发的问题,是专门找 bug 的人刻意去戳才能发现的;正常写代码几乎不会踩到。尽管如此,这些漏洞不应该存在,而修复它们一直没有一个明确的归口。

这两个数字共同指向一个结论:Rust 的类型系统需要一个专职团队来系统性地治理。


类型系统到底管哪些东西?

公告把 Types Team 的职责范围划定在三个紧密相关的组件上:

  • 类型检查器(Type Checker):负责确定变量的类型,以及类型之间的关系是否合法;
  • Trait 求解器(Trait Solver):负责回答"类型 T 是否满足某个 trait 约束"这类问题;
  • 借用检查器(Borrow Checker):负责验证 Rust 的所有权模型在任何情况下都成立。

这三者合在一起,就是 Rust 的"类型系统"。它们在实现上深度耦合,往往牵一发而动全身,独立处理任何一个都很难不影响其他两个。

这个边界由 RFC 3254 正式确立,Types Team 对这个范围内的设计和实现拥有完整的决策权。


两个父团队,一项特殊授权

Types Team 在 Rust 的治理结构中有一个独特的位置:它同时拥有两个父团队——语言团队(Lang Team)和编译器团队(Compiler Team),这在 Rust 的团队体系中是独一份的。

这两个父团队分别向 Types Team 做了不同的授权:

  • 语言团队授权 Types Team 负责类型系统的设计——不是"这个特性用起来顺不顺手"这类体验层面的事,而是"这个机制在类型系统内部是怎么运作的"这类底层语义的决策;
  • 编译器团队授权 Types Team 负责 trait 系统实现层面的定义和维护。

更重要的是一项额外授权:健全性漏洞的修复。过去,修复一个涉及类型系统的健全性 bug,需要同时协调语言团队和编译器团队,流程繁琐。现在,Types Team 在大多数情况下可以独立完成评估和修复,无需两个父团队同步参与。

即便某个修复在技术上会破坏向后兼容性(修复安全漏洞本不在 Rust 的兼容性承诺范围内),类型团队也可以经过内部签字确认,并用 Crater 工具评估对生态系统的影响后,自行推进——而不需要跨团队拉会。这让关闭健全性漏洞这件事变得切实可行。


Chalk 的终结,以及两条新路

Types Team 公告中最让人瞩目的技术决策,是对 Chalk 命运的宣判。

Chalk 是一个从 2015 年就开始开发的实验性 trait 求解器。它的思路是把 Rust trait 系统的语法和语义翻译成一套类似 Prolog 的逻辑规则,用逻辑求解器来处理 trait 查询,然后替换编译器内部的旧求解器。Rust-analyzer 今天仍在使用 Chalk。

但经过多年的开发,团队得出了一个结论:Chalk 很可能不是 Rust 的长期解决方案。原因有两点:

第一,trait 求解器只是整个类型系统的一部分。如果只对这一部分单独建模,就很难把它和类型检查器、借用检查器之间的关系描述清楚;而对整个类型系统统一建模,才能得到完整的图景。

第二,编译器和形式化的需求其实是两件不同的事。编译器需要高性能,还要能追踪足够多的信息来生成有用的错误提示;而一个好的形式化模型,需要的是完整、易读、易维护。Chalk 多年来试图同时满足这两者,结果两者都没有做好。

于是,团队走向了两条并行的新路:

a-mir-formality:这是一个对 Rust 整个类型系统进行形式化描述的项目。它的目标不是直接跑在生产编译器里,而是成为评估新特性设计和健全性漏洞的"参考实现"——在一个干净的模型上验证想法,然后再把结论同步给实际的编译器。项目最初用 PLT Redex 编写,Rust 移植版本正在进行中。

新的内置 Trait 求解器(New In-Tree Trait Solver):这是一个直接在 rustc 代码树内编写的新 trait 求解器,目标是最终替换掉现有的旧求解器。它的范围比 a-mir-formality 小,设计上会尽可能复用现有编译器的基础设施,以减少迁移代价。为了将来可能被独立拆出,它从一开始就被设计为尽可能模块化。


已经完成的健全性修复

在去年 5 月到公告发布的约七个月内,团队已经落地了一系列健全性修复:

  • Rust 1.65 修复了隐含边界(implied bounds)在非规范化类型下的处理,未发现兼容性回归;
  • Rust 1.66 修复了不透明类型(opaque type)上不应存在的隐式生命周期约束,未发现兼容性回归;
  • Rust 1.68 将引入 IMPLIED_BOUNDS_ENTAILMENT lint,标记一类发现了大量历史代码回归的不健全模式,以"未来兼容性警告"的方式给出过渡期;
  • 另有若干修复正在推进中,部分因发现兼容性回归而需要额外工作。

这些数字说明了一件事:修复健全性问题并不总是无痛的。有时确实会让旧代码无法编译,即使那些代码从技术上讲本来就不应该通过编译。团队的做法是尽量给出过渡期,并用 Crater 提前评估影响范围。


正在推进的新特性

公告还列出了几个与类型系统深度绑定、类型团队深度参与的特性:

GATs(泛型关联类型):这是列表里唯一一个已经稳定的特性,于 Rust 1.65 稳定。GATs 早在类型团队成立之前就存在,但稳定化最后阶段的推进工作由团队主导完成。

TAITs(类型别名 impl Trait):正确实现这个特性需要对类型检查器有深入的理解。公告时点已接近稳定。

Trait 向上转型(Trait Upcasting):允许把一个 trait 对象向上转型为它的父 trait,改动不大但涉及类型系统交互。

否定 impl(Negative Impls):允许显式声明某个类型不实现某个 trait。还有若干 bug 和健全性问题未解决,距稳定还有距离。

RPITITs 和 AFITs:分别是"在 trait 方法中返回 impl Trait"和"在 trait 方法中使用 async fn"。这两个特性依赖 GATs 和 TAITs 的基础,目前一起追踪。


分四阶段的路线图

公告给出了一张具体的时间表,把目标切成了四段:

2023 年夏季(6 个月内)

  • 新 trait 求解器达到可测试状态;
  • a-mir-formality 能够针对 Rust 测试套件运行;
  • TAITs 和 RPITITs/AFITs 稳定,或走上稳定路径。

2023 年底

  • 新 trait 求解器替换旧求解器的部分功能(不是全部);
  • 新求解器有完整的入门文档;
  • a-mir-formality 正式纳入语言设计流程。

2024 年底

  • rustc 和 rust-analyzer 共用同一个新 trait 求解器;
  • 可扩展的 trait 错误 API 在内部可用;
  • Polonius 借用检查器达到可用状态;
  • 更高阶 trait 约束中的隐含边界问题得到解决;
  • impl Trait 基本上可以出现在任何应该出现的地方。

2027 年底

  • 类型系统相关的健全性问题全部解决;
  • 大多数语言扩展变得容易实现,大型扩展变得可行;
  • a-mir-formality 通过 Rust 测试套件的 99.9%。

一个团队的成立,意味着什么

这篇公告读下来,有一点很值得注意:Types Team 的成立,首先解决的不是技术问题,而是组织问题

过去,类型系统相关的决策需要在语言团队和编译器团队之间反复协调。一个健全性 bug 的修复,往往因为归口不清而搁置。一个新特性的推进,往往因为没有明确的负责人而在追踪 Issue 里沉睡。

现在,这些问题有了一个明确的主人。设计、实现、健全性修复——在这个范围内,Types Team 说了算,不需要每次都拉两个团队协调。

这件事的重要性,可能不比任何一个具体的技术突破低。


前提 一个 50 人的小外包,外派的公司连中厂都算不上。

个人情况,30 岁。gap3 个月,刚开始认真找。有房贷但是压力不大,存款够花 3 、4 年。如果是我自己还是身边的朋友都不建议去,

面试经历,是一个甲方的主管面的,没问什么技术问题。面试卡的很松,当场决定要人,看来很缺人(这也可能是个坑)一次面试。

疑虑 1 小厂项目非常不稳定还是外包,薪资还有试用期打折,极有可能就是临时的项目。用完即扔。
疑虑 2 工资降薪,工资卡的很死。加上试用期打折更别说了。

接的理由就是现在形势太差,有就先干着。

地铁

出了闸口,涌向各自的出口,站在自动扶梯上,瞥见前面几人已拿好烟,只待出站,就要点燃的样子。

得走快点。下了扶梯后,那几人点烟、口吐白雾一气呵成,走在最前面,景象犹如火车头的烟囱。

还得先吸一口气,快速超过他们才行。耶、从我后面窜出一人,比我走的还快,看来和我想法一样。

他们边走边口吐云雾,不考虑其他人的感受,怎么自由怎么来...羡慕!

下地铁步行的那 1 公里,要是有人吸烟,行人避无可避,路就一条,两旁全是电单车.

母婴店

陪孩子玩摇摇车,一股烟味飘来,回头一瞥:一老头带着孙子,蹲在摇摇车外,侧头歪嘴吸着烟,同时手还扶着一个孩子。

这个地方居然还抽烟?我带着孩子就离开了,旁边两个带娃也离开了,就这么一口,就剩他一家在哪里了。

同情他,在家里被烟瘾憋坏了,还好可以用带孙子出来的理由出来吸两口。

也挺可悲的,孩子他妈千防万防,还是防不住(不能在家里抽烟,对孩子不好)。

看法

别指望别人道德发现,遇到此事,要远离,尽量避免冲突。

当然,如果你是吸烟者,能固定在一个地方吸烟,我反而还打心底尊敬你。

未来期望

深圳这个地方,能立法规定这些社会行为,并能执行就好了。

前些天,香港把携带烟具都纳入罚款指标,期望深圳能跟进这些。

你有没有想过,每一次在终端敲下 cargo addcargo build,那些包是从哪里来的,又是怎么以这么快的速度送到你手边的?

RustConf 2025 在美国西雅图举办。会议的最后一个小时,Rust 项目 Content Team 的 Xander Cesari 和 Rust 基础设施团队(Infra Team)的工程师 Jan David Nose(江湖人称 JD)坐下来,聊了聊这个"让 Rust 得以运转"的幕后团队,以及他们正在面对的种种挑战。

本文就整理自 Rust 官方博客 RustConf 2025 系列访谈,原文为 Xander Cesari 与 Jan David Nose 的对话实录。

原文地址


基础设施团队做什么?

很多人用 Rust 很久了,却不知道 Infra Team 的存在。JD 给出了一个清晰的定位:这个团队服务两类人,一是语言的用户,二是语言的维护者。

对维护者而言,Infra Team 负责 Rust 从代码提交到发布的整个流水线——CI/CD、GitHub 上的机器人和分类工具、PR 的标签管理,等等。一个 PR 从开出到合并,背后有无数自动化工具在默默检查。

对普通用户而言,最直接的影响是 crates.io 的下载体验。crates.io 的 Web 应用和 API 由单独的 crates.io 团队负责,但所有的 crate 文件都存放在 Infra Team 维护的基础设施上,并通过他们管理的 CDN 分发到全球。

用 JD 自己的话说:"如果我工作没做好,crates.io 就会全球宕机,没有人能下载任何东西。"


每个月六年的 CPU 时间

Rust 对平台支持的广度是出了名的。Tier 1 目标需要完整测试,Tier 2 目标要尽力覆盖,甚至 Tier 3 也在可能的情况下跑一些测试。

这导致 Rust 的 CI 流水线极其庞大。JD 透露了一个令人震惊的数字:每个月累计超过三百万分钟的构建时间,折算下来约等于六年的 CPU 时间。

他们大概是开源项目中 GitHub Actions 最大的用户之一。随着 Rust 支持的平台越来越多,这个数字只会继续增长。而且平台只增不减,五年、十年后的规模会是什么样子?这是 Infra Team 必须提前思考的问题。


RISC-V 和 IBM 的请求,打开了一个新问题

目前,Rust 的 CI 完全跑在 GitHub Actions 上,依赖云服务商提供的虚拟机。但有些平台根本没有云端支持,比如 IBM 的大型机平台和 RISC-V。

最近,有公司主动找到 Infra Team,愿意提供物理硬件来参与 CI 测试。这听起来是好事,但背后的问题随之而来:

  • 如果某台硬件突然不可用,PR 测试随机失败怎么办?每天能合并的 PR 数量本来就有限,加入不稳定因素会直接拖慢贡献速度。
  • 更关键的是安全问题——如果要在外部硬件上构建 Tier 1 的发布产物,怎么保证没有后门被悄悄塞进去?

这些问题目前没有答案。这是 JD 在访谈中多次坦承的一点:Rust 的成长速度,已经超过了团队预先设计答案的速度。


Crater:一个跑遍全网 Rust 代码的工具

Crater 可能是 Rust 生态里最不为普通开发者所知,却极其重要的工具之一。

每当有人对 Rust 编译器提交 PR,就可以触发一次 Crater 实验。Crater 会用这个 PR 构建出的编译器,去编译 crates.io 上约 60% 的 crate,然后报告有没有出现回归问题——也就是"你的改动有没有把现有代码搞坏"。

这是 Rust 能做到强向后兼容承诺的底气之一。编译器团队在做决策时,能看到真实数据:新特性会在哪些地方引发问题,影响范围有多大。

JD 提到,这个工具让"Python 2 到 Python 3 那样的大版本迁移阵痛"更难在 Rust 身上重演——当然,这也离不开编译器团队在设计上的刻意坚守。


流量在指数级增长,但团队只有两个全职

三年前,JD 是 Infra Team 历史上第一位全职工程师——在此之前,整个基础设施都由志愿者维护,运行了十到十二年。

去年,Marco 加入,成为第二位全职成员。整个团队大约八个人,其余都是志愿者。

与此同时,crates.io 的下载量在以每年翻倍的速度增长。JD 的一位同事喜欢追踪"下载量从零到十亿需要多久"这个指标,而这个时间正在快速缩短。

为了应对带宽问题,CDN 服务商 Fastly 通过其 Fast Forward 开源赞助计划承担了全部带宽费用。Fastly 同时也是 PyPI 的赞助商——相比之下,JD 说:"我们只是大海里的一条小鱼。"


AI 爬虫带来了新的压力

2025 年的新变量是 AI 爬虫。各种爬虫为了抓取训练数据,开始大规模扫描开源生态。docs.rs 首当其冲,短时间内的流量峰值直接导致服务降级。

crates.io 方面,Infra Team 提前做了架构调整,让 crate 文件的下载请求绕过应用层,直接打到 CDN,避免了类似 DDoS 的冲击。

现在他们正在讨论把 docs.rs 也迁移到 Fastly,利用其 bot 防护功能来过滤爬虫流量。这件事在年初完全不在计划里,但形势变化太快,优先级已经被迫重排。


供应链安全:Rust 正在成为攻击目标

xz-utils 后门事件让整个开源社区警觉。JD 对此谈得相当坦诚。

他说,那个事件最令人不安的地方,不是技术手段本身,而是攻击者愿意花一年半时间在一个开源项目里慢慢建立信任,然后利用这份信任植入后门。

这对 Rust 来说并非杞人忧天。Rust 项目一直在呼吁更多人参与贡献,欢迎新成员,但同时也意味着——如果有人带着恶意长期潜伏,项目本身的开放文化会成为弱点。

更现实的背景是:Rust 现在已经进入 Windows 内核、Android、iOS,以及汽车(Rivian 在本届 RustConf 上做了专题分享)乃至航天领域。用 JD 的话说,"如果你想攻击'无处不在',那么 Rust 就成了一个有吸引力的目标。"

目前 Rust 基金会有专职安全工程师负责威胁建模,Crater 等工具也在构建沙箱隔离机制,防止构建恶意 crate 时代码逃逸到宿主机。但 JD 承认,这是一个没有完整答案的问题,整个社区还在摸索中。


所有包管理生态都在面对同一个问题

JD 提到,不同语言生态的基础设施团队之间的交流越来越多。大家发现面临的问题高度相似——"说到底,我们都只是在往互联网上传文件,不管是 npm 包还是 crate,本质上都是一堆打包好的文本文件。"

PyPI 的带宽曲线提供了一个有趣的参照:Python 的下载量长期保持平稳增长,然后在两年前突然出现曲棍球棒式的飞跃——原因是有人发现 PyPI 是个很好的模型分发渠道,而当时没有文件大小限制,于是 GPU 模型开始被上传到 PyPI。

这个教训让各个包管理生态都在重新审视自己的规则边界,以及如何在开放性和可持续性之间找到平衡。


Rust 还很年轻,而这既是挑战也是机会

访谈最后,JD 表达了他的乐观:Rust 作为稳定语言才走过约十年,而 Python 已经超过二十五岁。很多问题,Python 和 npm 用十几年才慢慢碰到,Rust 要在更短的时间里面对——但同时,Rust 也没有那十几年积累下来的历史包袱和技术债务。

他说,这让 Rust 有机会站在前沿,去定义一个"21 世纪的开源基础设施"应该是什么样的。


如果你在用 Rust,可以做什么

JD 在最后提到两件事:

一是如果你所在的公司在使用 Rust,可以考虑加入 Rust 基金会成为会员。这是支持全职工程师继续工作和填补基础设施赞助缺口的最直接方式。

二是如果你个人想贡献,Infra Team 有不少基于 Rust 编写的 bot 和工具,相对容易上手,也欢迎志愿者参与。

那些你每天不假思索敲下的 cargo 命令,背后有人在维系着这一切。

good cnskis 大佬就是专业~

感谢大佬,昨天收到反馈之后,立马就着手开始修复,已经更新了几个版本,接下来还将持续优化

此外,支付宝现金红包抽奖活动还在进行中: https://chanpinpai.com/topic/PkbImnNz ,欢迎大家抽个奖

也欢迎大家分享提交好玩的产品

doge_flowerdoge_flowerdoge_flower

话说,2libra 能交换友链吗think我好像还没看到友情链接的模块显示

长期从事 C++ 的专家、前 ISO C++ 标准委员会主席 Herb Sutter 表示,C++26 标准草案现已完成。最终版本的草案引入了反射,在无需重写代码的情况下增强了内存安全性,新增了包含前置条件和后置条件的契约以及一种新的断言语句,并建立了一个统一的并发与并行框架。

反射是一种机制,正如 Sutter 所解释的,它赋予开发者访问 C++ 内部机制的能力,使语言能够描述自身并生成代码,从而为元编程提供坚实基础。秉承 C++ 的精神,反射不会带来任何运行时开销。作为反射能力的一个基本示例,下面的代码片段展示了反射如何支持一种用于声明 C++ 接口的专用语法:

class(interface) IFoo{    int f();    void g(std::string);};//-- will be translated into the "classical":class IFoo{    public:      virtual int f() = 0;      virtual void g(std::string)= 0;      virtual ~IFoo() = default;      IFoo() = default;    protected:      IFoo(IFoo const&) = default;      void operator=(IFoo const&) = default;};
复制代码

反射可以通过减少对大量定制化新语言特性的需求来简化 C++的未来演进,因为许多特性现在都可以表示为可复用的编译期库,设计更快、测试更容易,并且从一开始就具备可移植性。

接口抽象是 cppfront 的一部分,cppfront 是一个可编译为纯 ISO C++ 的编译器,由 Sutter 创建,用于提供一种更快速的提案实验方式。它还包括诸如 copyable(用于表达支持复制/移动构造与赋值的类型)、ordered(用于定义带有 operator<=> 的全序类型)、union(用于带名称的标签联合)、regex 等抽象,以及更多内容。

C++26 旨在带来显著改进的另一个领域是内存安全。这包括开箱即用地消除读取未初始化局部变量时的未定义行为,以及为大多数标准库类型(包括 vector、span、string、string_view)提供边界安全。Sutter 表示,这些改动已经在 Apple 和 Google 的生产环境中部署,覆盖了数亿行 C++ 代码:

这并非纸上谈兵。仅在 Google 内部,它已经修复了超过 1000 个缺陷,预计每年可防止 1000 到 2000 个缺陷,并将生产环境中的段错误发生率降低了 30%。

更重要的是,这些收益仅通过使用新编译器重新编译现有代码即可获得。只有在七个案例中,编译器无法分析高度优化的代码,需要开发者使用细粒度 API 在这些特定部分选择性地退出内存安全机制。

C++26 契约将防御式编程引入语言本身,提升了功能安全性和内存安全性。它允许开发者表达在方法执行过程中不可被违反的前置条件和后置条件。契约使断言可以移动到函数声明中,从而对调用者和静态分析工具可见。C++ 提供了四种处理契约违规的方式:忽略(ignore)、观察(observe)、强制(enforce)以及快速强制(quick enforce)。此外,它还引入了原生断言机制,用以替代 C 的 assert 宏。

最后,C++26 引入了 std::execution,作为一个用于表达和控制并发与并行的框架。该框架的三个主要抽象是调度器(schedulers)、发送器(senders)和接收器(receivers),它们可以通过一组可定制的异步算法进行组合。std::execution 被设计为能够很好地与 C++20 协程协同工作,并使编写“使用结构化(严格生命周期嵌套)的并发与并行、从构造上避免数据竞争的程序”变得更加容易。

两大主流 C++ 编译器 GCC 和 Clang 已经在标准制定过程中实现了 C++26 的大部分特性,这些特性很快将进入主线版本。

原文链接:

https://www.infoq.com/news/2026/04/cpp-26-reflection-safety-async/

目前看好了 豪爵 afr125 和铃木 uy125 ,但是

- 豪爵发动机差一些,有前 abs
- 铃木发动机好,但是没 abs 刹车软


想问下大家有没有推荐的,以及原因?最好是很了解某一个车型

本人的话:每目的主要单程 10 公里通勤,非常偶尔(一两个月一次)的近郊游玩,不上高速,属于安全为主,喜欢电动车的感觉但是续航焦虑。

之前我妈跟我说手机上有广告,关不掉。
是一个蓝色闪电图标,名为“趣点学习”的类似微信小程序的界面,连点返回无法退出,但是用多任务按钮可以退
今天又跟我说有广告,退不出去了
看了一下,发现广告制作了一个假的三按钮,需要上滑才能调出真正的三按钮
系统无法通过长按多任务卡片调出设置界面,只能在应用列表里翻,最后发现是“快应用”弹出的广告
而且是无法停用的系统应用,只能是卸载更新+禁止联网+ban 掉所有权限

近期发现 iPhone Safari 的 1Password 扩展菜单经常不显示

(就是这个在登录框旁可以点选的扩展菜单)

各种开关重新设置,还试了卸载再重装 1Password.app ,依然不行,上官方社区搜索,好家伙原来早有讨论
https://www.1password.community/discussions/1password/me-271-feedback-inline-menu-hidden-in-safari/168853
官方声称由于当前 iOS AutoFill (自动填充)功能与 Safari 扩展之间存在不可避免的冲突,因此在当前最新版本 1Password 中如果用户在 iPhone 的 AutoFill 启用了 1Password ,Safari 1Password 扩展的 inline menu (也就是上图登录框旁的扩展菜单)将被隐藏!!!

这一重大改动,官方没有给用户清晰的提醒告知,虽然是在更新说明的第三点有指出,但是用户 AutoFill 开启了 1Password 时,你 Safari 的 1p 扩展依然能开启啊,不能显示 inline menu 那这扩展还有什么用?你不如直接不让用户启用扩展,并在用户尝试启用扩展时告知用户上述功能冲突说明。

帖子下众人声讨,官方的回应充满了傲慢,像极了 Apple !

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。个weibo.com/ttarticle/p/show?id=2309405289000016937107 weibo.com/ttarticle/p/show?id=2309405289000390230339 weibo.com/ttarticle/p/show?id=2309405289000759066937 weibo.com/ttarticle/p/show?id=2309405289001132622164 weibo.com/ttarticle/p/show?id=2309405289001501458569 weibo.com/ttarticle/p/show?id=2309405289002000842899 weibo.com/ttarticle/p/show?id=2309405289002403233994 weibo.com/ttarticle/p/show?id=2309405289002780721214 weibo.com/ttarticle/p/show?id=2309405289003158470689

开场视频:Anthropic Labs 推出 Claude Design — 全程对话造原型,设计从未如此“野蛮”

🚨 地震级发布:Claude Design 来了,Figma 股票当场跳水

2026 年 4 月 17 日,Anthropic 通过旗下 Anthropic Labs 正式推出 Claude Design——一个让任何人都能通过自然语言对话,直接产出设计稿、交互原型、幻灯片和营销物料的 AI 产品。

消息一出,华尔街直接用脚投票:Figma 股价 暴跌 7%。要知道 Figma 占据着 UI/UX 设计市场约 80%-90% 的份额,是设计界的绝对霸主。能让这个巨头的股价一天蒸发数十亿美元,Claude Design 的“杀伤力”可见一斑。

而这背后,是一台刚换上的“核动力引擎”——Claude Opus 4.7,同一天正式发布。

💣 Opus 4.7:不是最强,但最“要命”

有意思的是,Anthropic 在公告里毫不掩饰地坦言:“这并非我们最强大的模型。” 真正的“怪物”——Mythos Preview,因为能力太强、安全评估尚未完成,至今仍被锁在实验室里。

但别被这句话骗了。Opus 4.7 不是靠“聪明”吓人,它是靠 “靠谱” 来抢饭碗的。

🧠 编程能力:64.3% vs 53.4%,单代暴涨 11 个百分点

在衡量真实工程能力的 SWE-bench Pro 上,Opus 4.7 从 4.6 的 53.4% 直接跳到 64.3%,把 GPT-5.4(57.7%)和 Gemini 3.1 Pro(54.2%)双双甩在身后。在 CursorBench 上更是从 58% 跃升至 70%。

这意味着什么?那些真正藏在 GitHub 深坑里、依赖关系复杂到让人头皮发麻的真实 bug,Opus 4.7 修复的成功率暴涨了 11 个百分点。代码审查工具 CodeRabbit 的实测显示:最难发现的 bug 召回率提升了 10% 以上,误报率却没有上升。

👁️ 视觉能力:2576 像素,清晰度暴增 3 倍

Opus 4.7 支持解析长边最大 2576 像素 的图像——是此前所有 Claude 版本的三倍以上。视觉推理基准 CharXiv 从 69.1% 跳至 82.1%。

这对 Claude Design 意味着什么?密密麻麻的截图能读了,复杂图表能精准提取了,高分辨率设计稿能逐像素分析了。以前你把设计稿截图丢给 AI,它说“图片不够清晰”——这个问题,彻底消失了

🤖 Agent 能力:能“多线并跑”,还会“自己先验证”

Opus 4.7 在复杂多步任务上比 4.6 提升了 14%,工具错误率降至原来的 三分之一。它还是首个通过“隐式需求测试”的 Claude 模型——不需要你手把手告诉它每一步该用什么工具,它自己会推断。

更狠的是,4.7 引入了 Multi-Agent Coordination(多智能体协调)能力,能同时并行跑多个 AI 工作流,而不是像以前一样一个接一个地排队处理。

最让开发者震撼的变化是:4.7 会在输出结果前自己先验证一遍。Notion 团队测试发现,遇到工具链崩溃,它能自己绕过障碍继续跑完任务;Vercel 甚至发现它会在写系统级代码之前,先自己做数学证明

💰 价格不变,Token 更“能烧”

定价仍然是每百万 token 输入 5 美元、输出 25 美元。但 4.7 引入了新的分词器,同样的文本可能产生 1 到 1.35 倍 的 token。Anthropic 为此新增了 xhigh 思考强度档位,Claude Code 已将默认档位拉满。

🎯 Claude Design 凭什么让设计师们“瑟瑟发抖”?

Claude Design 不是另一个“AI 出图工具”,它是一套完整的 从想法到交付的闭环系统

🔥 核心理念:别学设计,跟 AI 聊天就够了

“Describe what you need and Claude builds a first version.” 你描述需求,Claude 生成初版;然后通过对话、行内评论、直接编辑、或 Claude 自动生成的自定义滑块不断精调,直到满意。

Brilliant——一家以交互式课程复杂度著称的教育科技公司——的测试数据令人震撼:同样一个复杂页面,其他工具需要 20+ 次提示词才能搞定,Claude Design 只用了 2 次。他们原话是:“过去需要一周的简报、模型、多轮评审来回折腾,现在一次对话全搞定。”

🧩 自动品牌系统:读完你的代码库,一秒学会你公司的设计语言

这是 Claude Design 最“反人类”的功能。在 onboarding 阶段,Claude 直接读取你的代码仓库和设计文件,自动提取配色、字体、组件规范,构建出一套完整的设计系统。之后每一个项目,自动应用你的品牌风格,零手动配置。

🔄 导入万物,导出无界

支持从文本提示词、图片、DOCX/PPTX/XLSX 文档、代码库,甚至用网页抓取工具直接“薅”你官网的设计元素。完成后可以导出为 Canva、PDF、PPTX、独立 HTML 文件,或直接打包成 Handoff Bundle 丢给 Claude Code 一键转生产代码。

这个闭环意味着什么?从“我有一个想法”到“线上可运行的产品”,全链路不需要离开 Anthropic 的生态。

👥 组织级协作:多人同屏,一起跟 Claude 群聊

设计文档支持组织内私有分享、只读共享、编辑权限分配,甚至多人同时与 Claude 进行群聊式协作。

⚔️ Claude Design vs Google Stitch:两种哲学,一场战争

Google Stitch 比 Claude Design 早一个月发布重大更新(2026 年 3 月 18 日),两者的碰撞是 2026 年 AI 设计赛道最值得关注的战役。

维度Claude DesignGoogle Stitch
发布时间2026 年 4 月 17 日2026 年 3 月 18 日重大更新
底层模型Claude Opus 4.7Gemini 系列
核心理念对话驱动 + 品牌系统自动化“Vibe Design”氛围设计 + 无限画布
交互方式文本对话为主 + 行内编辑 + 滑块文本 + 语音 + 无限画布拖拽
视觉能力2576 像素长边,3 倍提升从 URL 一键提取设计系统
协作特性组织级分享 + 多人对话Agent Manager 并行管理多方向
代码衔接Claude Code 一键 handoffSDK + MCP 接入 Cursor/Gemini CLI 等
独特杀招自动品牌学习 + 2 次提示完成复杂页面语音实时修改 + 点击 Play 秒变交互原型

🎨 Stitch 的“氛围设计”:从感觉出发,而非线框图

Stitch 最大的创新是 “Vibe Design”——你不必从线框图开始,直接描述你的商业目标、你想让用户产生什么感觉,甚至展示你当前正在受什么启发。Stitch 会像采访你一样设计新页面,还能实时给出设计评估。

语音交互更是 Stitch 的独门绝技:你可以对着画布直接说“给我三个菜单选项”或“用不同调色板展示这个屏幕”,Stitch 实时响应。

🧠 双雄对决:两种设计哲学的正面交锋

Claude Design 的逻辑是:用最强的视觉理解模型,把对话做到极致,让品牌一致性“自动发生”,最后无缝衔接代码。它是 “从混沌到秩序” 的直线冲刺。

Google Stitch 的逻辑是:给设计师一张无限大的画布,让 AI 作为协作者而不是替代者,支持多方向并行探索。它是 “从模糊到清晰” 的螺旋迭代。

一个追求“快、准、狠”,一个追求“灵、活、广”。两者不是零和博弈,而是从不同角度共同撕开了同一个裂缝:设计,正在从“专业技能”变成“通用能力”

📊 真正的战争在数字里

Claude Design 和 Opus 4.7 的背后,是一组令人窒息的数据:

  • Anthropic 年化收入从 2025 年底的 90 亿美元 飙升至 2026 年 4 月初的 超过 300 亿美元
  • Claude Code 单产品在 2026 年 2 月年化收入达到 25 亿美元
  • 有 VC 给出高达 8000 亿美元 的估值报价。
  • IPO 传闻已经浮出水面,Goldman Sachs、JPMorgan、Morgan Stanley 参与早期洽谈,最早 2026 年 10 月 可能上市。
  • 微软首日打破与 OpenAI 的排他惯例,将 Opus 4.7 集成到 GitHub Copilot 等 9 大开发环境 中。
  • Opus 4.7 的法律基准 Harvey BigLaw Bench 得分 90.9%,是目前 Claude 家族最高分。
  • 工具调用评测 MCP-Atlas 跑出 77.3%。
  • 金融评估 GDPval-AA 达到 SOTA 水平。

🔮 结语:设计师会失业吗?不会。但不会用 AI 的设计师会。

Claude Design 的横空出世,不是来“干掉”设计师的——至少 Anthropic 是这么说的。他们强调与 Canva 的深度合作,强调 Claude Design 是 “互补而非替代”

但数字不会说谎。Figma 股价 7% 的暴跌,Adobe 股价的异动,都在诉说着同一个事实:AI 正在以不可逆转的速度重塑设计行业的工作方式

真正值得关注的问题不是“AI 会不会抢走设计师的工作”,而是:当创始人、产品经理、市场人员都能在几分钟内产出专业级视觉作品时,“设计”本身将如何被重新定义?

Claude Design 给出了 Anthropic 的答案:设计不再是少数人的特权,而是所有人表达创意的通用语言。剩下的,就看 Google Stitch 和其他玩家如何接招了。

官方公告:https://www.anthropic.com/news/claude-design-anthropic-labs

今日亮点

Anthropic 近期发表了一项关于大模型潜意识学习的重要研究,指出 LLM 可能通过数据中的隐藏信号传递偏好或错误对齐特性。同时,他们的自动化对齐研究员(AARs)在提升模型对齐效率和泛化能力方面取得了显著进展。另一方面,OpenAI 则针对用户关于 ChatGPT Pro 套餐的使用量限制做了详细澄清。

💡 产品动态

OpenAI 澄清 ChatGPT Pro 套餐用量

OpenAI 员工 Tibo 针对用户对 ChatGPT Pro 套餐的用量限制及使用加成活动造成的混淆进行了详细解释。目前,100 美元的 Pro 套餐至少包含 10 倍于 Plus 的用量,而 200 美元的 Pro 套餐则包含至少 20 倍于 Plus 的用量,这两项加成均持续至 5 月 31 日。OpenAI 承认定价页面的表述存在问题,并计划更新以提高清晰度。

为什么重要: 这直接影响 ChatGPT Pro 用户对服务预期和实际使用的理解,透明的沟通有助于维护用户信任并减少不必要的混淆。

阅读原文
[来源: Twitter @OpenAI ]

🔬 学术前沿

Anthropic 发布 LLM 潜意识学习研究

Anthropic 联合撰写的一项关于大型语言模型(LLM)潜意识学习的研究论文已在《自然》杂志发表。研究表明,LLM 能够通过数据中看似无关的隐藏信号,传递偏好、特质甚至潜在的未对齐特性,例如让模型在训练过程中“潜意识地”喜欢猫头鹰。

为什么重要: 这项研究揭示了 LLM 训练数据中潜在的风险和复杂性,对于未来开发更安全、更可控的 AI 系统具有重要指导意义,强调了在数据处理和模型对齐方面的精细化需求。

阅读原文
[来源: Twitter @Anthropic]

Anthropic 自动化对齐研究员提升模型对齐效率

Anthropic 的自动化对齐研究员(AARs),基于 Claude Opus 4.6 并配备额外工具,在测试中展现出卓越的泛化能力。它们不仅成功地将方法应用于之前未见的编程和数学任务数据集,还在七天内将弱模型与强模型之间的“性能差距”弥合了 97%,远超人类研究员 23% 的成果。

为什么重要: AARs 的高效率和泛化能力预示着 AI 在自我改进和对齐研究方面取得重大突破,有望加速安全可靠的通用人工智能(AGI)的开发。

阅读原文
[来源: Twitter @Anthropic]

🌍 行业观察

前诺华 CEO 加入 Anthropic 董事会

Anthropic 的长期利益信托基金任命 Vas Narasimhan 加入公司董事会。Vas Narasimhan 拥有二十多年在医药和全球健康领域的经验,曾担任诺华公司首席执行官。

为什么重要: 这项任命可能为 Anthropic 带来更广阔的战略视野和全球化经验,尤其是在 AI 伦理和健康领域的潜在应用方向上,有助于公司在高速发展的同时保持稳健的治理。

阅读原文
[来源: Twitter @Anthropic]

💻 开源项目

  • hermes-agent:一个能够与用户共同成长和进化的智能体,旨在提供个性化的 AI 助手 → GitHub
  • claude-mem:专为 Claude Code 设计的插件,能自动捕获、压缩编码会话并智能注入相关上下文,从而显著提升开发效率 → GitHub
  • awesome-design-md:收集了大量流行网站的 DESIGN.md 文件,方便编码智能体直接学习并构建匹配的 UI 界面 → GitHub
  • multica:将编码智能体转变为真正的团队成员,智能体能自主承担任务、编写代码、报告障碍并更新状态 → GitHub
  • graphify:一款 AI 编码助手技能,能将任何代码、文档、论文或图片文件夹转化为可查询的知识图谱,便于知识管理和检索 → GitHub
  • voicebox:一个开源语音合成工作室,为开发者提供灵活的文本转语音解决方案 → GitHub
  • GenericAgent:一个 AI 驱动的 PC 智能体,专注于桌面自动化和智能任务执行,提升电脑使用效率 → GitHub
  • magikaGoogle 出品,一个快速准确的 AI 驱动文件内容类型检测工具,可识别多种文件格式 → GitHub
  • open-agents:Vercel Labs 推出的开源模板,用于帮助开发者轻松构建和部署云端智能体 → GitHub
  • thunderbolt:由 Thunderbird 团队打造,强调用户掌控 AI,可自由选择模型、拥有数据并避免厂商锁定,致力于打造去中心化的 AI 体验 → [GitHub]( https://github.com/thunderbird/thunderbolt ]

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288989077930011 weibo.com/ttarticle/p/show?id=2309405288989442834557 weibo.com/ttarticle/p/show?id=2309405288989963190444 weibo.com/ttarticle/p/show?id=2309405288990336221236 weibo.com/ttarticle/p/show?id=2309405288990705582336 weibo.com/ttarticle/p/show?id=2309405288991103778821 weibo.com/ttarticle/p/show?id=2309405288991460556981 weibo.com/ttarticle/p/show?id=2309405288991959679128 weibo.com/ttarticle/p/show?id=2309405288992357875782 个

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288982119841895 weibo.com/ttarticle/p/show?id=2309405288982513844239 weibo.com/ttarticle/p/show?id=2309405288982874554403 weibo.com/ttarticle/p/show?id=2309405288983227138328 weibo.com/ttarticle/p/show?id=2309405288983587586201 weibo.com/ttarticle/p/show?id=2309405288984065736767 weibo.com/ttarticle/p/show?id=2309405288984422252685 weibo.com/ttarticle/p/show?id=2309405288984808128592 weibo.com/ttarticle/p/show?id=2309405288985164644474 个

2025 年 12 月 13 日,VeloxCon China 2025 在北京成功举办。作为 Velox 项目首次在中国举办的线下技术大会,汇聚了来自Meta、IBM、蚂蚁集团、阿里云、腾讯、小米、小红书等企业的数十位核心贡献者与一线工程师。

大会通过 18 场演讲将 Velox 置于真实业务场景之中,系统展示了其在架构演进、AI 数据处理、湖仓加速、流批融合等方向的最新实践。这些分享不仅直面性能、稳定性与兼容性等落地挑战,也反应了开发者社区对构建可靠、可扩展、可协同的数据基础设施的共同探索,彰显了中国开发者在全球高性能分析生态中的工程深度与协作广度。

夯实底座,突破能力边界
会议伊始,Velox 项目联合发起人 Pedro 发表开幕致辞。他回顾了 Velox 开源项目的发展历程,从项目启动、开源发布到建立技术治理结构,展示了 Axiom 架构、GPU 支持、PyVelox 等关键进展,强调了社区协作与工程严谨性是项目持续演进的核心动力。他特别提到,Velox 已建立了正式的技术治理机制,并迎来来自 IBM、Intel、NVIDIA、Microsoft 等多家企业的新增维护者,标志着项目正迈向更加开放和可持续的阶段。

在明确了社区与架构演进的总体方向后,大会议题迅速深入到如何利用 Velox 构建高性能计算引擎的具体实践中。阿里云 EMR Serverless Spark 技术负责人周克勇系统阐述了“可组合性”在数据计算领域的实践。他详细解析了阿里云如何深度集成并贡献于 Apache Celeborn、Paimon、Velox 及 Gluten 等开源组件,通过模块化组装构建出高性能湖仓一体引擎。他指出,基于该架构,阿里云 EMR Serverless Spark 成功创造了 TPC-DS 100TB 规模性能测试的世界新纪录,实现性能翻倍与性价比大幅提升。

接着,Meta 软件工程师 Masha Basmanova 阐述了现有查询引擎在跨语言通信、优化器能力与开发体验上面临的挑战,并介绍了基于 C++ 的统一前端框架 Axiom。该框架将 SQL 解析、逻辑优化与物理执行融为一体,通过内置的强大优化器与 Velox 运行时无缝对接,能够实现更高效、可扩展的查询处理。演讲最后,她积极展示了 Axiom 的开源路线图,并欢迎全球开发者加入,共同推动该项目的演进。

强大的执行框架,最终需要服务于极具挑战性的数据场景,特别是爆发式增长的 AI 数据。Meta 软件工程师孟晓烜则在之后的演讲中,深入阐述了应对AI训练数据规模激增与成本挑战的解决方案。他重点介绍了 Meta 如何通过数据归一化技术剥离重复特征,并构建可索引的序列存储系统。依托 Velox 技术栈,团队在训练数据的加载、生成与探索三大环节实现了端到端优化,显著提升了处理效率与资源利用率。

在 Meta 多位工程师从框架演进、可组合架构、数据标准化等角度深入分享后,蚂蚁集团高级技术专家黄叶伟也从企业落地实践层面分享了基于 Velox 的 Spark 加速实践。他重点介绍了基于 Gluten 与 Velox 构建的向量化引擎如何通过任务级 Fallback、Spill 优化、Shuffle 优化等关键技术,在混合部署场景下显著提升 Spark 性能与稳定性。他表示,该方案目前已实现日均数十万任务覆盖,平均节省资源超30%,并将在算子优化与架构扩展方面持续演进。

作为连接 Spark 生态与原生加速的关键中间层,Apache Gluten 的进展同样备受关注。来自 IBM 的莫芮与周渊聚焦 Apache Gluten与 Velox 的深度集成,阐述了其如何在大数据分析中驱动创新。他们介绍,Gluten 在保持对 Spark/Flink 作业透明加速能力的同时,正逐步增强对多后端引擎和复杂业务场景的适配能力。目前,该方案已在 Pinterest、顺丰科技及多个内部集群完成规模化验证,有效支撑了从日志分析到物流调度等多样化负载的性能提升与成本优化。

随着向量化加速在通用场景日趋成熟,针对特定存储格式的深度优化成为新的效能突破口。腾讯大数据开发工程师陈锦海分享了微信基于 Velox 加速 lceberg 湖仓分析的优化与实践,重点介绍了原生分桶方案。据他介绍,该方案通过动态识别表元信息自动设置分区数,能有效缓解 AQE 引发的写入倾斜,结合空闲资源灰度发布策略,可保障大规模作业的稳定上线。

扎根场景,释放协同效能
午餐后的议程更加聚焦 Velox 在真实业务中的集成深度与生产韧性,回应了开发者们对兼容性、稳定性与端到端效能等规模化落地的核心关切。
小米计算平台计算引擎负责人王胜杰分享了公司在 Spark 向量化升级中的规模化落地经验。面对业务迁移中的兼容性与稳定性挑战,他表示,小米通过自动兼容校验、双跑结果比对及内存异常感知的三级资源升级机制,已成功推动向量化改造在数十万作业中平稳落地。

面对海量数据挑战,全球科技公司也在探索相似的演进路径。Meta 软件工程经理 Stanley Yao 在演讲中分享了公司基于 Velox 推进 Spark 向量化改造的整体策略。他表示,团队通过从定制化方案到开源架构的持续演进,已实现关键业务管线向 Gluten(Flare)的平稳迁移,并获得显著的效率提升。未来,Meta 计划进一步扩大该架构的应用规模。

在 CPU 向量化趋于普及的同时,利用异构硬件挖掘更高性能成为新的前沿。IBM 研究院资深软件工程师 Zoltán Arnold Nagy 展示了基于 Velox 与 Presto 的 GPU 加速数据处理方案。他介绍道,Velox 通过与 cuDF 集成,可在 GPU 上高效执行算⼦,并针对多 GPU 分布式场景优化通信与数据交换。此外,为突破 I/O 瓶颈,团队正在探索结合 GPUDirect 存储与缓存层的加速策略。

对性能与稳定性的追求,也驱动着查询引擎架构本身的融合与创新。Meta 软件工程师谭家梁与大家分享了 Native Presto-on-Spark 的规模化应用。该架构以 Presto 查询优化、Spark 资源调度与容错机制以及 Velox 原生向量化执行为核心,实现了性能与可靠性的显著提升。他表示,目前该方案已在生产环境中取得成效,并将在未来持续推进全栈原生化演进。

对于国内庞大的云上业务,Velox 同样在支撑着关键数据服务平台。 阿里云高级工程师王彬与范阿冬系统介绍了Velox在阿里云日志服务中的深度集成与应用。他们指出,基于 Velox 构建的高性能查询引擎,通过混合执行、表达式下推、自动增量物化视图及免 Schema 分析等核心技术,可显著提升平台在处理海量实时数据时的查询效率与资源利用率。他们还强调,该架构不仅为日志分析、智能运维等场景提供了稳定支撑,也为面向 AI 的云原生数据平台演进奠定了坚实基础。

除了通用的日志与湖仓分析,Velox 也在向更垂直的时序数据场景渗透。腾讯高级工程师李兆龙分享了基于 Velox 构建云原生时序数据库的落地经验。他表示,通过在 Velox 中实现时序数据去重优化与存储写入增强,系统在应对高频写入与实时查询场景时,可显著提升吞吐效率与响应性能。目前该方案已有效支持物联网、实时监控等业务场景,未来还将进一步完善缓存与压缩机制,持续优化时序数据处理的整体效能。

IBM 软件工程师刘平接着分享了 Velox 在 Iceberg 数据写入能力上的突破性进展。他表示,目前 Velox 对 Iceberg 的支持以读取为主,其写入功能的完善将填补该方向的关键能力空白,为基于 Presto 与 Spark 的数据湖架构提供更统一、高效的数据摄入层。这一进展也标志着 Velox 正从查询加速向数据全链路处理拓展。

接着,来自阿里云的毕岩与周滔分享了 Velox 与 Apache Paimon 深度集成的解决方案,为提升引擎与存储的协同效率提供了另一种集成思路。在他们看来,现有方案存在表类型支持受限、缺乏可移植性等瓶颈, 但可以建立 C++ 原生 Paimon 库,通过其统一的数据协议与插件化设计,使 Paimon 能够被 Velox、StarRocks 等多种计算引擎直接高效调用,从而提升数据读写性能,并为湖仓格式的跨引擎协同提供新的基础支撑。

在批处理场景之外,流计算框架的向量化也正成为新的热点。蚂蚁集团技术专家刘勇介绍了基于 Velox 为 Flink 构建的统一向量化执行引擎 Flex。他表示,Flink 作为流批一体架构的核心,其原生向量化能力的补足至关重要。Flex 通过将 Velox 的高性能算子能力引入 Flink,同时结合自动化验证、可视化计划与精细化回退机制,现已实现了作业性能的显著提升,并支撑多条核心业务链路平稳运行。

随着 Velox 赋能的应用场景日益广泛和复杂,确保其在不同引擎和版本间的整体质量与可靠性变得至关重要。Meta 软件工程师 Eric Liu 阐述了在 AI 数据基础架构下,保障 Velox 多引擎版本可靠性的系统化方法。他指出,面对不同引擎与存储格式交织带来的复杂性,关键在于建立跨引擎测试框架与合成数据工厂。这一实践能有效提前发现全栈潜在问题,从而确保底层变更在大规模生产环境中的稳定与高效。

针对向量化引擎中窗口运算符内存溢出的典型难题,来自英特尔的贾柯分享了她的见解。她认为,通过为 Velox 引入流式窗口处理机制,可使计算随数据到达逐步执行并即时释放内存,从而从架构层面化解多数场景下的内存风险,显著提升复杂查询的稳定性。

最后,小红书 Native Engine 团队技术负责人魏秀利也分享了向量化引擎在公司业务中规模化落地的经验。据他介绍,通过将写入异步化并构建原生 Avro 读取能力,小红书在不增加业务复杂度的前提下,成功缓解了端到端延迟,印证了“执行与存储协同优化”在湖仓场景中的关键价值。

从底层执行引擎的持续创新,到日志分析、湖仓写入、流批融合等复杂场景的稳定运行,在本届 VeloxCon China 上,我们看到 Velox 的技术价值已在真实业务中不断被验证和拓展。同时我们也很高兴看到中国开发者成为这一进程的重要推动者。期待未来有更多志同道合者加入 Velox 开源社区,共建高性能分析基础设施。weibo.com/ttarticle/p/show?id=2309405288862951014427 weibo.com/ttarticle/p/show?id=2309405288863425233045 weibo.com/ttarticle/p/show?id=2309405288863777554599 weibo.com/ttarticle/p/show?id=2309405288864167624801 weibo.com/ttarticle/p/show?id=2309405288864519684108 weibo.com/ttarticle/p/show?id=2309405288864868073550 weibo.com/ttarticle/p/show?id=2309405288865375322190 weibo.com/ttarticle/p/show?id=2309405288865723449391 weibo.com/ttarticle/p/show?id=2309405288866084421729 个