2026年4月

Google Cloud介绍了 他们近期对 PostgreSQL 的技术贡献,重点在逻辑复制、升级流程和整体系统稳定性方面进行改进。此次更新体现了与上游社区的持续合作,核心引擎增强旨在解决可扩展性、复制和运维方面的挑战。

 

本次更新汇总了 2025 年 7 月至 12 月的工程工作,重点推进逻辑复制向 active-active 架构演进。其中一项关键改进是引入自动冲突检测,使数据库在复制过程中可自动识别行级冲突,无需人工干预。这解决了多节点写入场景中长期存在的问题,此前冲突更新可能导致复制中断。

 

向 active-active 复制方向的演进也在社区引发了关于一致性模型权衡的讨论。Franck Pachot如此评论

将带冲突解决的双向逻辑复制与 Oracle RAC 或 CockroachDB、YubyteDB 等分布式 SQL 进行比较,是对数据库一致性的误解。一种是最后写入胜出,另一种则是 ACID。

 

与此同时,也有人认为这一进展标志着 PostgreSQL 在企业环境中持续进化。Janardhan Korapala写到

重大的里程碑。当超大规模云厂商将 active-active 复制这类企业级特性贡献到上游时,说明 PostgreSQL 已成为无可争议的企业默认选择。

 

其他改进将逻辑复制的范围从表数据扩展到序列,减少了迁移或版本升级时手动同步的需求。团队还修复了订阅管理中的自死锁(self-deadlock)的问题,该问题在复制命令尝试访问同一服务器上的锁定资源时可能发生。

 

工作的另一重点是提升升级的可靠性与性能。对 pg_upgrade 的优化改进了大对象管理,缩短了大规模部署的升级时间。其他的更新会通过在升级期间保留必要的 WAL 数据、确保模式约束被正确保留来提高系统韧性。

 

除复制与升级外,Google Cloud 工程师还提交了多项漏洞修复以提升健壮性,包括处理诊断工具中的无效索引页、解决从嵌套路径加载扩展的问题,以及强化 WAL 刷写逻辑以确保极端场景下的数据持久性。

 

该公司还透露了正在进行的未来功能研发,包括复制结构化冲突日志、pg_dump 并行数据导出优化,以及大规模数据处理能力的增强。

 

查看英文原文:Google Cloud Highlights Ongoing Work on PostgreSQL Core Capabilities

从「AI For What」到「Value From AI」,100+可落地实践案例打通 AI 实战最后一公里!

4 月 16 日-4 月 18 日,QCon 全球软件开发大会将在北京举办。本届大会锚定 Agentic AI 时代的软件工程重塑,聚焦 Agentic AI、多智能体协作、算力优化、技术债治理、多模态和 AI 原生基础设施等前沿话题,邀请来自腾讯、阿里、百度、华为、蚂蚁、小米、网易等企业技术专家,带来百余项真实落地案例,系统性分享前沿洞察与实战干货,以技术共创探索 AI 落地新路径。

平安科技高级专家工程师褚秋实已确认出席 “Coding Agent 驱动的研发新范式” 专题,并发表题为金融级 Al Coding 落地实践:从“氛围”编程到“严谨”开发的主题分享。随着大模型与 Coding Agent 的推理和执行能力持续迭代增强,平安科技研发团队在 AI Coding 落地方面已迈入深水区。AI 具有极强的可塑性,他们通过对实际项目工程的持续探索与实践,在试点的高频迭代复杂业务系统中,AI 入库代码占比已达 60%。同时,平安科技研发团队也对 AI 如何驱动业务平台开发形成了新的解读:即通过“设计+规范”、“知识+工具”、“模式+流程”三大驱动,实现 AI 模型与工具的能力增强与研发团队工程优化的双向管齐下与双向奔赴。

褚秋实,平安科技专家工程师,长期担任核心业务平台研发负责人,先后负责过传统金融业务平台如车险报案理赔业务、寿险保全业务;互联网金融平台如贷前贷后业务;以及创新业务 AI 区块链应用等项目开发,积累了丰富的架构设计,研发管理,敏捷及工程实践的实战经验。在 AI Coding 兴起以后,带领团队持续在实际项目中探索 AI Coding 实践,形成集团内标杆示范案例。他在本次会议的详细演讲内容如下:

演讲提纲

  1. 平安爱码:平安科技上万开发者的 Coding Agent,研效提升的"曲率引擎"

  • 平安爱码 Agent 的形态和能力概述

  • 2025 年平安爱码赋能研效提升成果

2. 核心实践:金融级“严谨”AlCoding 的四大支柱

  • 规范驱动:核心实践构是建提质提效的 AI 规范驱动开发,我们在大型业务平台系统工程落地 AI Coding 的过程中,开展了两大规范驱动实践:

  • 首先,沉淀 AI 开发指导规范:针对前后端业务功能及技术任务细分,体系化梳理形成开发指南,作为 AI Agent 产能释放的关键,有力支撑了 60%的 AI 代码占比。

  • 其次,实现代码质量强约束与 AI“自愈”:借助 AI 将项目私域的架构设计与代码规范批量转化为 Lint、ArchUnit、P3C 等 CI 工具,无论是人工还是 AI 产出的代码,均须通过强制校验,将无形规范转化为有形约束,显著提升人机协作的代码一致性。

  • 知识工程:核心实践是如何沉淀一个大型业务系统的结构化私域知识,大型业务系统代码库动辄百万行,涉及大量企业私域的业务概念与规则,通用大模型难以精准理解。我们通过“软件项目知识银行“的实践,将一个软件系统关键知识利用图数据库、向量数据库及文档数据库等针对性结构化存储,并通过 MCP 将知识外挂赋能 Coding Agent,补齐模型的私域业务认知短板。

  • 上下文工程:核心实践是分场景精准管理上下文,确保 Coding Agent 在每次大模型请求时携带任务相关的精准上下文。基于一线研发实践,我们将核心任务场景划分为三类:项目功能开发、项目理解分析、项目开发质量保障,每一大类上下文又进一步细分。通过细分场景所需的具体规范、知识与工具,实现高质量私域上下文的精准加载。

  • 人机异步协作:打造“睡后编程”人机流程,我们 AI Coding 研发的先锋团队已开始全面转型异步协作模式,开发人员在工作日一定时段会调整工作重点(每日下午后两小时及周五下午)从传统开发转向布置 AI 异步开发任务,挖掘夜间及周末等非工作时间价值。通过实施 How-to/To-do 两阶段异步开发模式,最大化研发时间的利用率提升人机异步产出。

3. 总结与展望:Coding Agent 持续演化

  • 过去是,等等指令的"实习生"

  • 当前是,只认文档的"外包团队"

  • 下一步,主动规划的"技术合伙人"

这样的技术在实践过程中有哪些痛点?

  1. 很多项目的开发架构缺乏 AI 亲和严重制约了 AI Coding 在项目上的落地和发挥效果。开发架构在 AI 时代会异常重要,我们也在持续探索什么样的代码工程结构和代码组织方式是比较有利于 AI 开发的?比如 单体、微服务、模块化宏服务,前后端分离与前后端整合等怎么来提升 AI Coding 的效果?

  2. AI Coding 的编程推理模型持续在迭代能力越来越强,但是模型和项目代码库之间的隔阂全靠 coding Agent 的上下文来对齐,上下文窗口一直在扩展但是也是有限的,如何在有限的上下文上支持研发过程中多个种场景的 AI 提效,如项目理解场景、功能开发代码生成场景、质量保障场景等?

  3. 我们也在推动开发人员在 AI 加持下面的角色左移和右移,希望打造既懂业务又懂技术的前线交付工程师,全流程端对端怎么搭建稳定高效的 agentic 工作流?目前我们有一些局部尝试断点较多,特别在行业属性合规和准确要求高的要求下如何在端到端的 AI 开发上发力?

演讲亮点

  • 平安科技 AI 编码实践案例

  • 金融行业独家严谨 AI Coding 之道

除此之外,本次大会还策划了Agentic Engineering多模态理解与生成的突破记忆觉醒:智能体记忆系统的范式重塑与产业落地具身智能与物理世界交互Agent Infra 架构设计AI 重塑数据生产与消费AI 原生基础设施AI 驱动的技术债治理小模型与领域适配模型大模型算力优化Agent 可观测性与评估工程AI for SRE等 20 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 100+资深专家在 QCon 北京站现场带来前沿技术洞察和一线实践经验。

大会日程已 100%上线,更多详情可扫码或联系票务经理 18514549229 进行咨询。

感觉现在很多领域, 品牌的审美都不如从前:

  • 以前的歌旋律好听, 歌词考究, 传唱度也非常高, 而现在的华语乐坛几乎成了刷怪笼, 类似"跳楼机"的音乐层出不穷
  • 以前的 BBA, 有很多引领时代潮流的设计, 而现在宝马的小鼻孔变成了浮夸的大鼻孔, 奥迪的 A6 今年改成了轿跑类型的车, 觉得没有以前的成熟稳重气质, 新的雷克萨斯 es200, 更是丑的没眼看.
  • 以前的卡西欧,精工,西铁城, 推出了非常多好看又有设计的电子表,石英表, 我还有不少收藏, 现在的电子表只剩下卡西欧一家, 并且一直在炒冷饭
  • 以前的诺基亚, 三星, 摩托罗拉设计出了很多别出心裁的功能机, 精致好看, 现在的手机设计统一向苹果公司看齐, 创新型的设计也很难让人耳目一新了
    现在我还在听十几二十年前的歌, 看那时候的电影, 我的西铁城电子表换了一次又一次电池,仍然爱不释手, 如今这个时代好像很少出现
    "经典"的设计了, 总结, 人类一败涂地
    KnockPic_20260415110649

2026 年 4 月,运营整整二十年的 360doc 个人图书馆宣布将于 5 月 1 日停止服务。这家从 2005 年起步、巅峰时期登陆新三板被称为“知识管理第一股”的平台,最终宣布落幕,8000 万用户积累的 11 亿篇文章,除用户自行备份外,将被依法彻底删除。

有人将 360doc 的倒下归结为 AI 的冲击,但创始人蔡智给出了比“时代的眼泪”更为清醒的判断。在关停这个节点上,她接受了每日经济新闻《Ai 煮酒》的采访,既不回避旧模式的局限,也不盲目否定 AI 的价值,从用户主权出发聊了聊个人知识管理产品的未来。

未来产品的两大基石:数据主权与可持续商业闭环

问及未来真正能存活并繁荣的个人知识管理产品应该具备哪些核心特征,蔡智认为:“核心在于尊重用户数据主权和具备可持续的商业闭环。AI、本地化、社交协作都只是手段,不是目的。用户需要确信自己的知识不会被随意滥用或用于训练不明模型;平台也需要找到不依赖广告和数据贩卖的生存模式。否则无论技术多先进,没有用户信赖,都走不远。”

 

这精准地击中了中心化知识库的两个致命伤:第一个是数据主权。360doc 关停后用户数据将被彻底删除,这暴露了中心化存储的根本缺陷:用户的知识资产与平台生命周期深度绑定。

 

第二是不可持续的广告商业模式。个人知识管理产品的用户行为是低频、高价值的——深度阅读、笔记整理、知识关联,而广告的流量模式依赖高频、浅层注意力。两者的价值错配导致单位经济模型难以跑通。360doc 财报显示,2025 年营收同比下跌 43.84%的根源正在于此。蔡智强调“可持续的商业闭环”,背后隐含的判断在于,个人知识管理必须走向直接付费,无论是订阅制、服务费还是企业级方案,而不止是流量变现。

 

“反 AI 复古需求”存在,但 360doc 模式复活难

 

针对部分用户开始厌倦 AI 生成内容、回归原始文档和手写笔记的现象,记者问蔡智:未来是否会出现“反 AI 的复古知识库”需求?360doc 的模式有没有可能以某种形式复活?

 

蔡智的回答分为两层。一方面,这种需求确实会出现,部分人会因为信息过载和 AI 生成的“无意义感”而回归更原始、更可控的记录方式,比如本地文档、手写笔记。这种需求是对“自我意识被技术过度侵入”的一种抵抗。但她也明确否定了 360doc 模式原样复活的可能性。在她眼中,作为互联网特定时期诞生的中心化产品,时代环境、用户习惯与商业模式都已彻底改变,人不可能两次踏入同一条河流。未来或许会出现去中心化、用户自主掌控、基于隐私计算的新型知识库形态,但那已经是全新的事物,不再是原来的 360doc。

 

这一判断有三点商业现实作为支撑。首先是用户习惯的迁移,移动互联网时代,用户从 PC 端主动“收藏文章”转向移动端被动“消费信息流”,主动构建知识库的行为门槛显著提高。再是广告单价持续走低,而个人知识管理的获客成本并未下降,商业模式已经失效。另外,AI 也提高了新的用户预期,人们不满足于存储,而是希望智能对话,这需要持续投入 AI 研发能力,对中小团队构成较高门槛。

 

值得注意的是,蔡智对“复古需求”的肯定并非情怀,而是一个真实的细分市场。

 

眼下,个人知识库赛道正迎来史上激烈的卡位战,全球科技大厂纷纷加码个人知识库布局。海外,谷歌低调推进 NotebookLM,微软 Copilot Notebooks 将笔记、文档、会议录音整合进 OneNote;国内,腾讯 IMA 智能工作台、阿里夸克、字节豆包等也相继推出相关产品,将知识库功能内嵌于更大的 AI 入口产品中,争夺用户粘性与数据积累。

 

IEEE 调查显示,52%的技术领袖认为“个人助理/日程管家”是 2026 年消费者最需要的 AI 应用。同时,各类水墨屏平板的数字笔记产品持续迭代存在,证明有相当比例的用户愿意为“低技术干扰、高认知主权”的体验付费。相应的商业模式可以是硬件加订阅,或者纯净软件付费,但无论哪种形态,都不会回到 360doc 的中心化广告模式。

 

AI 是笔,人是执笔人:思维主权不可让渡

 

在三个问题中,最触及本质的是关于 AI 与个人知识沉淀关系的追问。当被问到:“如何看待 AI 虽然能实现“与知识对话”,但无法替代个人知识库承载的私人认知体系沉淀,以及未来 AI 与个人知识沉淀之间应该是怎样的关系?”

 

蔡智表示非常认同,她说,AI 可以帮你整理、关联、甚至生成新内容,但它无法替代你自己筛选、思考、内化的过程。个人知识库的核心价值正是那个“私人认知体系”,那是你与信息互动后留下的独特印记。未来,AI 是笔,而你是执笔人。AI 负责速度和广度,个体决定思维的深度。思维的主权,永远属于用户自己。

 

这段话为 AI 驱动的知识管理产品划定了一条明确的商业伦理边界:AI 是工具,不是主体。

 

当前市场上存在两种 AI 知识库路径。一种是“AI 替代”路径:AI 自动抓取、自动总结、自动生成知识卡片,用户仅需确认。这种模式看似高效,但长期来看会削弱用户的知识内化能力,导致产品粘性下降——用户越用会越觉得“这不是我的知识”。另一种则是“AI 增强”路径:AI 提供关联、检索、启发式提问,但将筛选、判断、结构化决策权保留给用户。

 

蔡智所说的“思维的主权永远属于用户自己”,本质上是在否定 AI 替代人类思考的商业叙事。对创业者而言,这意味着 AI 功能的商业化必须围绕“增强用户能力”而非“取代用户努力”来设计。订阅制的定价逻辑应该是“为用户节省的时间或提升的认知效率付费”,而不是“出售 AI 的自主决策权”。同时,这一观点也隐含了对数据使用边界的警示,个人知识库不应被默认用于训练平台的大模型。

 

360doc 的停运,为中心化、广告驱动的静态知识库模式画上了句号。而蔡智在访谈中提出的三个判断,数据主权与可持续商业闭环是基石、旧模式无法复活但去中心化新形态将出现、AI 是工具而非思维主体——不仅是对过去的总结,也是对未来商业模型的一个预判。

 

360doc 的墓地之上,新生的火种已经点燃。而蔡智留给行业的一句有力的话,或许可以作为当下所有产品经理的准则:“AI 是笔,而你是执笔人。”

 

昨天跟发小见了一面,吃饭之余聊起近况,似乎各行各业都陷入了降本降薪的困境,遂讨论起了副业的问题

如果在之前未雨绸缪,积累了能力/客户/模式,哪怕暂时找不到工作也能维持相当的一段时间

面对降薪等来自主业的不确定性影响,大家都有离开的底气吗

当 AI 的发展浪潮从“聊天写诗”的通用大模型涌向“干活办事”的自主智能体,我们正站在一个全新的技术分水岭。Agent 的落地深水区,不在于一次惊艳的推理,而在于长期的稳定运行、持续的自我演进以及对用户意图的终极对齐。这一切的核心底座,正是被行业视为 Agent “大脑海马体”的记忆系统与数据基础设施。

2026 年 6 月 26 日-27 日 ,AICon 全球人工智能开发与应用大会即将落地上海,在《Agent 数据、记忆与运行时基础设施》专题中,我们邀请到了来自 EverMind、MemVerge 和 OPPO 的三位专家。他们将分别从操作系统级长期记忆架构、独立于模型的 AI Memory 中间件、以及端云协同的全模态记忆工程三个硬核维度,为您呈现一场关于 Agent 的技术分享。

越过幻觉,走向演进——当 Agent 拥有了“海马体”

演讲嘉宾:邓亚峰 | EverMind CEO,盛大集团副总裁,前 360 集团副总裁、人工智能研究院院长,前格灵深瞳 CTO

如果你关注最近的 Agent 领域动态,一定对 OpenClaw 不陌生。邓亚峰将以 OpenClaw 和近期行业热点事件为引子,抛出一个可能颠覆很多人认知的判断:从通用大模型向具备长期记忆和自我演进能力的 Agent 跨越,才是当前最具商业和技术落地价值的深水区。

他提出了一个非常有意思的框架来理解长期记忆的价值——记忆的三重境界。

第一重是降本增效。在上下文窗口依然受限且成本不菲的今天,如何更聪明地利用每一寸上下文空间,让 Agent 在有限的 Token 预算下依然保持强大的任务连贯性,这本身就是一项极具工程价值的能力。

第二重是个性对齐。让 Agent 记住你喜欢什么样的回复风格,记住你常用的工具组合,记住你反复提及的那些关键信息。这意味着 Agent 从“通用的工具”变成了“专属的伙伴”。

第三重也是最具想象力的一重,是自我演进。当 Agent 能够基于与你长期交互的历史数据进行反思、总结和提炼,在没有你手把手指导下也能自主优化行为策略时,它才真正具备了“成长”的属性。

当然,概念谁都会讲,关键看怎么落地。邓亚峰将在演讲中深度公开 EverOS 的架构细节。这套系统被定位为“AI 时代的长期记忆操作系统”,其底层基础设施叫 EverMemOS。更值得期待的是,他会详细解读 MSA(Memory Sparse Attention)模型的核心原理。面对海量的历史记忆数据,如何在保证召回精度的同时大幅降低检索计算开销,这是整个行业都在攻坚的难题。结合具体的数字助理场景案例,这场演讲会让你直观感受到,一个有长期记忆的 Agent 和一个只有“金鱼记忆”的 Agent,在用户体验上的差距究竟有多大。

把记忆从模型里“拆”出来——独立 AI Memory 系统的架构哲学

演讲嘉宾:范承工 | MemVerge 联合创始人兼 CEO,前猎豹移动 CTO,前 VMware 全球高级副总裁、存储事业部总经理

现在很多开发者做 Agent 记忆,思路都很直接:拉一个向量数据库,把历史对话存进去,用的时候检索召回,往上下文里一塞。听起来合理,但为什么一到 LoCoMo 这类严苛的长期记忆基准测试上,准确率就死活突破不了 90%?

范承工博士的履历横跨存储、虚拟化、大数据和 AI 多个领域,从 Rainfinity 到 VMware 再到猎豹移动,他对“数据如何被高效存取和管理”这件事的理解深度,在这个话题上恰好是最稀缺的视角。他的核心观点很明确:AI 记忆不应该被绑死在模型身上,它应该成为一个独立的基础设施层。

这场演讲的第一个重头戏,是完整拆解一套独立于大模型的 AI Memory 记忆系统的技术架构。他会讲清楚一个关键问题——AI 记忆系统、AI 大模型、AI Agent 这三者之间,到底应该是什么样的架构关系和交互接口设计。深入到存储层,你会发现光靠向量数据库是不够的。这套系统依托图数据库与向量数据库的混合存储架构,不同记忆类型走不同的存取路径。范博士还会重点解读这套系统如何实现 90% 以上 LoCoMo 准确率——这背后涉及检索策略、排序算法、记忆更新机制等一系列精巧设计。

第二个值得关注的点是场景落地。他会特别分享 OpenClaw 记忆插件场景下的实战经验。OpenClaw 的开发者们一定对 Token 消耗深有体会。范博士将展示一个非常实用的案例:通过独立的记忆插件设计,如何在提升 Agent 响应准确率的同时,实现 Token 消耗的大幅优化。具体的优化方案和效果对比数据,现场都会给出来。

最后,他会把目光投向更远的未来。个人用户如何在本地构建私有化记忆库,让 AI 在长期对话中真正懂你且隐私绝不外泄?企业如何部署独立的 AI 记忆系统,把散落在各个业务系统里的组织知识变成可继承的 Agent 资产?当记忆数据爆发式增长,共享、存储和隐私保护技术又该往哪个方向演进?这些问题都会在演讲中得到前瞻性的探讨。

让 AI 看懂你的截图和语音——OPPO 小布记忆的亿级工程实战

演讲嘉宾:王闯闯 | OPPO 高级算法工程师,小布记忆产品算法架构负责人

前两场演讲讲的是 Agent 记忆的底层架构和中台方案,到了第三场,我们来看看真实世界里的记忆系统是怎么跑起来的。王闯闯负责 OPPO 经手过多个 S 级和 A 级项目的考验。他要分享的,是一套从碎片化数据到结构化记忆的生产级完整链路。

问题从用户最熟悉的场景开始:你每天截图、发语音、拍视频、收文档,这些异构多模态的碎片内容,怎么才能被 AI 真正理解并自动整理成有用的记忆?王闯闯用三个词概括了核心挑战——模态异构理解、跨模态关联、结构化生成。每一个词背后都是一堆技术难题。

接下来是这场演讲最硬核的部分:一键闪记的整体架构。小布记忆的触发入口极其丰富,小布助手、魔方按键、三指上滑截屏、AI 流体云识别取餐码、密码本自动填充、日历同步、相机大师参数提取……几乎做到了用户无感的“随手记”。在端侧,这套系统跑的是 OPPO 自研的 AndesVL 多模态大模型,AIUnit 模块承载了 NER 和 OCR 提取、图片分类总结、结构化字段提取、取餐码识别、账单理解等一系列任务。云端则负责内容安全审核和那些端侧搞不定的复杂推理。

这里有一个非常复杂的设计叫端云任务分流。分流模块会对输入图文信息打分类标签,然后判断走端侧还是走云侧。直屏单任务、单标签单实例这类简单场景,占到了流量的 80%,全部端侧处理,又快又省又保护隐私。分屏多任务、多标签多实例这类复杂场景才上云,确保推理质量。这个分流机制的设计思路和边界定义逻辑,对于任何在做端云协同的团队来说都是可以直接借鉴的。

有了单条记忆的提取能力,下一步是聚合。王闯闯会详细讲关联记忆的多规则融合召回加 Rerank 加 LLM 精排的多级架构,以及合集归纳的三链路统一加 Reranker 加 Verify 两阶段聚合方案。这套方案的效果数据很能说明问题——合集创建准确率从 83% 干到了 97%,新记忆加入准确率从 76% 提升到了 95% 以上。

最后他还会分享 OPPO 内部的工程化方法论。Model Selection 到 Prompt Engineering 到 Business Benchmark 的流程化开发工作流,基于 LLM-as-a-Judge 的自动化评测体系,Badcase 反馈闭环——这些都是经过亿级用户场景验证过的实战经验,拿来就能用。

会议推荐:

世界模型的下一个突破在哪?Agent 从 Demo 到工程化还差什么?安全与可信这道坎怎么过?研发体系不重构,还能撑多久?AICon 上海站 2026,4 大核心专题等你来:世界模型与多模态智能突破、Agent 架构与工程化实践、Agent 安全与可信治理、企业级研发体系重构。14 个专题全面开放征稿。诚挚邀请你登台分享实战经验。AICon 2026,期待与你同行。

最近在思考的一个问题,除了写代码,还能干啥?
对以后的路怎么走有点焦虑,如今 ai 发展越来越迅速,就算能撑过 ai 浪潮,也感觉很难撑过 35 岁的门槛。
所以就想我们这行,以后到底能干啥?
有没有大哥是过来人,或者也在思考这个问题的朋友,聊聊你们的想法

经过调研和考虑后,该功能按我个人测试的情况看,应该可以正常工作。但第一个版本,很可能会出现问题,所以有问题可以及时反馈force_smile

有独立博客的用户,可以到 https://2libra.com/blogs 上提交收录申请,审核通过后,系统会周期性的抓取你的 RSS 源,文章列表在抓取并审核后会写入库中。2Libra 会在数据库中保留文章标题、链接还有简介,正文需要通过点击标题后到你的博客进行完整阅读。除此之外,在文章列表中还支持站内用户的点赞以及打赏。

需要注意的是,申请的博客需要为你个人的博客,不要提交未经作者许可的博客 rss,若存在版权纠纷可以随时联系我删除相关内容thanks

欢迎各位提交体验一下。

最近,Etsy 的工程团队介绍了他们如何将长期运行的 MySQL 分片基础设施迁移至 Vitess。此次迁移将分片路由逻辑从 Etsy 内部系统迁移到了 Vitess,并通过 vindexes(虚拟索引)实现了数据重新分片、对原先未分片的表进行分片等功能。

Vitess 是一个用于 MySQL 水平扩展的开源数据库集群系统。它最初作为中间层部署在 ORM(对象关系映射)框架与数据库之间,负责查询路由,而由 ORM 继续指定目标分片。

在 Vitess 中,vindexes 定义了应用数据如何映射到数据库分片,以及查询如何在分片间进行路由。Etsy 高级软件工程师 Ella Yarmo-Gray 介绍了 Etsy 在迁移过程中面临的挑战:

随着新基础设施部署完成,我们开始着手研究 vindexes,它定义了 Vitess 内部的分片策略。由于 ORM 的分片映射是随机的,而非基于算法实现,如果采用现成方案,就需要对所有数据重新分片——这一手动过程可能耗时数年。因此,我们选择编写自定义 vindexes,将现有的分片逻辑移植到 Vitess 中,从而在无需承担数据迁移的复杂度与风险的前提下测试 vindexes 在我们环境中的运行效果。

自 2010 年左右起,Etsy 便采用分片 MySQL 架构存储大部分的生产数据,并使用自研的分片逻辑。该架构目前包含约 1000 个分片、425 TB 数据,每秒可处理 170 万次请求。

Etsy 工程师通过内部的对象关系映射(ORM)层访问 MySQL,每个数据库表对应一个模型。对于分片表,模型中会定义一个名为 shardifier ID 的唯一 ID 字段,用于确定每条记录存储在哪个分片。尽管大多数模型使用 shop_iduser_id 作为分片键,但整体上共使用了三十多种不同的 ID,记录与分片的映射关系则存储在一个未分片的“索引”数据库中。这种方案提升了系统可扩展性,并能将故障影响控制在小部分流量范围内,但扩容操作缓慢且依赖人工执行,索引数据库存在单点故障问题,同时开发人员必须自行管理分片。

几年前,公司决定迁移至 Vitess,以便在保持 MySQL 兼容性的同时解决这些问题:移除“索引”数据库,并对开发人员屏蔽分片的复杂性。此次迁移需要重新设计部分数据模型以优化分片策略、选定分片键,并在验证数据一致性的同时逐步将生产流量切换到新环境。Yarmo-Gray 总结道:

五年后,在提交了约 2500 个拉取请求、执行了 6000 次查询后,我们成功将 Etsy 的分片管理迁移至 Vitess vindexes!尽管我们为简化迁移过程做了大量工作,但替换 Etsy 这种规模和历史积淀的代码库的数据库基础设施依然充满挑战。

在过去几年里,Etsy 工程团队发布了一系列题为《使用 Vitess 对支付系统进行分片》的文章,记录了他们针对支付平台的迁移工作,讲述了迁移数据模型时遇到的挑战,介绍了关键高流量系统的切换过程,并对切换风险进行了评估

【声明:本文由 InfoQ 翻译,未经许可禁止转载。】

查看英文原文:https://www.infoq.com/news/2026/04/etsy-vitess-sharding-migration/

继 4 月 10 日亮相中美“乒乓外交” 55 周年纪念大会展区后,搭载北大-智源 SpikePingpong 算法的智元灵犀 X2 人形机器人于 4 月 13 日登陆纪念“乒乓外交”55 周年友谊赛,在上海体育大学纪念友谊赛现场完成无遥控、全自主乒乓球对打,与中美运动员切磋交流,以京沪双城联动的科技展演,让“小球转动大球”的外交佳话在具身智能时代焕发全新活力。

此次系列成果核心来自 SpikePingpong 算法,这是全球首个将高频脉冲视觉与模仿学习结合的人形机器人乒乓运动控制算法,实现高速动态场景下的精准感知与全身协调控制,完成从机械臂到人形机器人的“一脑多形”关键跨越,在高速动态对抗中展现毫米级轨迹预测与精准击球能力,标志着中国人形机器人具身智能技术迈入新阶段。

脉冲视觉+模仿学习:破解人形乒乓三大技术难题

乒乓球作为高动态、高对抗性运动,对机器人感知、决策与运动控制提出三重极限挑战:球速超 5m/s 需亚秒级反应、轨迹受空气阻力等物理干扰、全身协调需兼顾击球精度与姿态平衡。SpikePingpong 算法创新性融合 20kHz 高频脉冲视觉与模仿学习策略,构建端到端运动控制快慢系统,攻克上述核心难点。

1. SONIC 脉冲感知模块:基于北京大学黄铁军教授原创的脉冲视觉技术(Spike CV),通过高频脉冲相机捕捉乒乓球高速运动轨迹,实时补偿物理干扰,实现球-拍接触点的毫米级精准预测,较传统视觉方案响应速度提升 10 倍,为精准击球奠定感知基础。

2. IMPACT 策略规划模块:采用模仿学习框架,从人类顶尖运动员动作数据中提取击球策略,输出最优全身协调动作,实现对 30cm 目标区域 91%命中率、20cm 高精度区域 71%命中率的卓越表现,较前代 SOTA 方案提升 37%-38%。

3. 感控融合技术:深度适配灵犀 X2 的 29 个自由度本体与 Xyber-Edge 小脑控制器,实现从视觉感知到关节执行的亚毫秒级指令传输,让机器人在动态对抗中保持平衡的同时完成精准击球,展现类人化运动灵活性。

10 天速成乒乓高手:硬件-算法协同创新落地京沪

此次技术突破得益于智元“本体+ AI”全栈技术布局与北大-智源算法创新的深度融合。联合团队仅用 10 天完成从算法适配到系统联调的全流程开发,基于 SpikePingpong 算法、灵犀 X2 开放的 SDK 生态与模型积累,快速实现技术落地验证,并顺利完成北京、上海两场高规格展演。

灵犀 X2 作为中国自主研发的双足人形机器人代表,全栈自研硬件为算法提供坚实支撑:自主研发的 Powerflow 关节模组峰值 120N・m 扭矩输出,Xyber-DCU 域控制器保障多模态数据实时处理,抗摔柔性材料与全身 29 自由度设计确保运动稳定性与安全性,支撑机器人在京沪两地连续完成高强度对打演示。

从北京到上海:科技致敬乒乓外交精神

4. 月 10 日北京会场,灵犀 X2 与邓亚萍、郑敏之等乒乓名将互动对打,流畅完成连续接球、攻防转换、多回合对抗;4 月 13 日上海站友谊赛现场,机器人再度以全自主姿态登场,作为“科技友谊使者”与美国乒乓球运动员切磋球技,实现乒乓外交精神从体育交流到科技交流的延伸。

图:曾任基辛格博士助教的沃特金斯先生与智元机器人乒乓对打

北京大学计算机学院研究员、智源具身大模型负责人仉尚航教授表示:“55 年前,乒乓球以民间交流叩开中美友好大门;55 年后,我们用 SpikePingpong 算法为灵犀 X2 注入乒乓智慧,京沪双城展演既是对历史的致敬,也是中国具身智能实力的集中展示。这项技术将推动高速操控、精密交互等领域的广泛应用,拓展‘本体+ AI’生态边界。”

技术引领未来:人形机器人迈向通用运动智能

SpikePingpong 算法的成功应用,标志着中国人形机器人在高速动态场景具身智能技术上实现三大突破:首次将脉冲视觉用于人形机器人乒乓控制、实现物理干扰下的精准轨迹预测、达成全身协调的类人化运动表现。

未来,智元机器人将持续联合北京大学、北京智源人工智能研究院深化具身智能技术研发,以“本体+ AI”双轮驱动,推动人形机器人在更多国际舞台展现中国创新力量,让“小球转动大球”的精神在科技赋能下拥有跨越代际、连接世界的全新表达。

论文地址:https://arxiv.org/abs/2506.06690

 

ScreenShot_2026-04-15_104402_665.png
ScreenShot_2026-04-15_104416_161.png
ScreenShot_2026-04-15_104557_919.png

10 级的时候,会获得一个徽章【等级丰碑】
10 级是最高级,等级不会再涨,但是经验还可以继续累计

金币池拉满,概率 30%

2026 年开年不久的 AI 圈,似乎比去年更加热闹。

OpenClaw 在短短几个月里,成为开发者圈几乎“人手一只”的本地助手,甚至引得部委和协会出手预警潜在安全隐患;各类 AI Coding 工具的评测和榜单铺天盖地,谁家开发者一年“烧掉”了多少亿 Token,这种费钱的事儿也成了新的流量素材;不同于 Qwen 不断上新,DeepSeek 持续发布新论文,V4 的时间点被一再猜测;

这些看上去分散的事件,背后其实都在指向同一条主线:AI 的焦点正转向推理。

模型越来越聪明,智能体越来越能干活、越来越会干活。但企业首先要面对的,是另一组更现实的问题:一次调用究竟消耗多少算力,复杂任务的延迟能不能降下来,系统成本会不会先于业务价值一起失控。

也正因此,引发行业关注的,已经不只是“能力还能提升多少”,而是“推理效率还能被重写到什么程度”;AI Coding 被密集讨论,也不只是因为它能替开发者多写几行代码,而是因为所有人都越来越直观地意识到:模型能力每向前一步,推理成本都可能被同步放大。

而当 OpenClaw 和一众 Agent 框架把智能体从聊天窗口里放出来,大家对"推理"的期待更是被进一步放大。它不再只为一次问答调用,而是要支撑长时运行、工具调用、多轮决策和真实权限交互的完整链路。

于是,各种关于推理的矛盾开始集中显形:

一边是算力供给依然紧张,国内算力与顶级 GPU 之间的差距,逼着工程师在量化、并行、MoE、通信等环节不断“抠细节”;

一边是模型结构与工作流快速演化,从 Chat 到 Thinking,再到能够长时间自主运行的 Agent,单次任务对推理吞吐、上下文长度和系统稳定性的要求同时抬升;

另一边,监管与安全预警也在不断提醒行业:默认“全能”的智能体如果没有边界,不只是贵,还可能危险。

这也意味着,“推理范式”已经不再是一个单纯的工程优化问题,而是一条贯穿芯片、云平台、模型团队和业务场景的共同问题链:有限的算力究竟应该优先分配给哪里?是让模型想得更久一点,还是让它更快把事情做完?是继续追求极致的单卡性能,还是在成本、时延与安全之间重建平衡?

带着这些问题,我们请来了两位站在不同层级的一线从业者——长期在云端推理系统里“抠性能”的阿里云专有云推理加速负责人冯梦轲(翼宏),以及在芯片与算力架构一侧“抠极限”的平头哥半导体产品总监黄伟(金甲)。

接下来的对话,将从这些热点事件切入,沿着推理范式、AI Coding、企业智能体与国产算力的多重拉扯,去拆解一个正在决定行业走向的核心问题:当推理性能与推理成本成为新一轮 AI 竞赛的主战场,整个产业会被推向哪里。

一、推理范式现状及变化

主持人:每年年初,AI 行业都会有不少重要变化,今年也不例外。虽然没有去年的 DeepSeek 发布,但今年有 OpenClaw 以及一系列相关进展。两位今年印象最深的一件事是什么?

冯梦轲(翼宏):我感受最深的是,推理加速技术带来的“推背感”很强。从 To B 场景的 AI Coding,到 To C 场景的 OpenClaw,它们都在迅速成为行业共识,并得到广泛应用。这里面一个关键变化是,大模型正在从“对话”阶段走向“做事”阶段。

去年年初,像 DeepSeek R1 的出现,包括从 GPT-5 到 GPT-5.1,Chat 模式下的变化更多体现在对话体验和语气个性化上,用户体感并没有那么明显。相比之下,To B 场景的 AI Coding 在过去半年发生了很大变化,甚至正在重塑整个计算机行业的工作方式。比如在硅谷,求职时会讨论入职后能拿到多少 Token 配额;也有人晒出自己一年在 Cursor 上消耗超过百亿 Token 的账单。

另外,在 Agent 场景下,越来越多人愿意为更强的模型付费。因为同样解决 10 个问题,更强的模型可能做对 8 到 9 个,弱一些的模型可能只能做对 5 到 6 个,而人工修正的时间成本很高。所以从这个角度看,模型的智能水平基本就等于生产力水平。随着大模型开始真正做事,(好的模型)生产效率还会持续提升。

黄伟(金甲):我印象最深的,一是集团的千问 APP 上已经可以点奶茶,二是 OpenClaw 的火热。这两件事说明,AI 模型正在从认知智能走向行为智能。

我入行比较早,从 2016 年 ResNet 在图像识别上超过人类开始,我就一直觉得,AI 技术是在沿着从感知、到认知、再到行为的路径持续演进。今天看到这两件事,更能说明这种转变正在发生。

而这种转变,对芯片从业者尤其重要。因为每一次智能形态的变化,都会带来底层硬件和算力需求的变化。比如从 ResNet 到 BERT,算力需求是从单卡走向单机;到了大模型时代,又从单机走向集群。每一代技术,对底层硬件的需求都不一样。这种变化不仅是技术演进,也意味着新的产业机会。

主持人:刚才两位老师提到的不同现象,背后其实都指向同一个根源,就是底层推理性能的提升。没有推理性能,上层很多应用都跑不通。所以想请教两位,当前大家看到的推理范式是什么样的,未来又会怎么变化?

冯梦轲(翼宏):前段时间 GTC,黄仁勋把推理大致分成三个阶段:从 Chat,到 Thinking,再到 Agent 化的执行模式。国内发展更快,很多场景已经从单纯的 Chat,直接走向融合 Thinking、Agent 和 Coding 的新模式,尤其 AI Coding 已经成为行业共识。

我觉得今年还有两个方向会迎来明显增长:一个是 AI for Science,另一个是企业智能体。

AI for Science 对应的是大模型最复杂的一类任务场景,而且相对可验证。前段时间有研究案例显示,研究人员把实验数据输入大模型后,大模型不仅提出了合理假设,还被后续实验验证,最终形成论文。这说明顶尖模型已经开始真正加速科学研究。

企业智能体也是类似逻辑,它和 OpenClaw 很像,核心都在于长期记忆和工具使用能力。但在 To B 场景里,企业智能体的想象空间更大,对生产效率的提升也更直接,所以我认为这会是今年的重要趋势。

在具体的推理范式方面,我觉得关键看两个维度:一是序列长度,二是模型在做什么。Chat 场景下,每轮输入输出通常只有几百到一千 Token;Thinking 场景会进一步拉长到几千 Token;到了 Agent 场景,模型不仅要对话,还要调用工具、执行任务、再做总结,整个过程可能在 10 分钟内处理超过百万 Token。

这和过去的 Chat 模式已经完全不同。尤其在 Agent 模式下,上下文窗口被打满会非常常见,再加上长期记忆的引入,对推理技术提出了更高要求。不仅需要多级 KV Cache 等技术,也对底层算力带来更大挑战。因为序列越长,计算复杂度越高,推理的难度也会持续上升。

黄伟(金甲):大模型的演进,本质上是从认知智能走向行为智能,而现在只是开始。未来几年,像具身智能、Physical AI 这些方向的持续升温,都说明行业在探索让 AI 真正影响物理世界。

站在芯片和底层硬件的角度看,我觉得未来推理范式的变化,至少会带来三方面要求。

  1. 模型要更聪明。大家都希望模型一次能解决 8 到 9 个问题,而不是只解决 5 到 6 个。这背后既依赖模型算法演进,也依赖更充足的底层算力,让它算得更快、更好。尤其是面向具身智能,模型还需要更好地理解和处理物理世界。

    安全性会越来越重要。模型能力越强,大家对它的依赖越高,一旦出问题,影响也会更大。所以不仅模型本身要安全,底层算力和硬件也要具备更强的安全保障能力,确保模型始终运行在安全边界内。从这个角度看,很多安全问题最终都需要在硬件层面建立根能力。

  2. 时效性会成为关键。尤其当 AI 开始影响物理世界时,很多任务不能无限等待,它必须在限定时间内完成决策和动作。所以未来推理算力不仅要强,还要快,要在更短时间内提供更高的 Token Throughput。这会是非常明确的演进方向。

二、推理加速技术优先级,与软硬协同的优化方法

主持人:如果再往里看一层,就绕不开推理优化技术。想请教两位老师,目前主流的推理优化技术有哪些?如果排一个优先级,你们心中最重要的一项是什么?为什么?

黄伟(金甲):推理优化涉及很多层面,包括模型量化与压缩、底层算子优化、框架优化、内存效率优化,以及底层硬件和上层系统的协同优化。

如果从芯片视角看,我认为优先级最高的是模型量化和压缩。因为量化的本质,是不断逼近更低精度的极限。从 FP32 到 FP16,再到 FP8,甚至 FP4,每下降一个精度等级,往往都意味着在同样硅面积下可以提供更高算力,同时内存容量和带宽需求也会明显下降。这样一来,推理成本会大幅降低,ROI 非常直接,最终用户也最容易受益。

此外,AI 技术迭代很快,变化不只发生在模型层,也包括框架、基础设施和芯片架构。因此,另一个非常关键的方向是从模型到芯片的协同优化。只有上下层联动,才能真正实现 1+1 大于 2,把收益传递到最终应用端

从现在的发展看,量化已经进展很快。两三年前行业还主要讨论 FP16 混合精度,现在 FP8 已经普遍应用,FP4 也开始进入训练和推理。至于未来能否继续走到更低精度,比如 2bit,技术上正在探索,但能否真正大规模落地,还需要继续观察。

冯梦轲(翼宏):我和黄老师的判断比较一致:推理优化不是靠单点突破,而是一个多维协同的系统工程。

从业务场景看,主流的推理优化技术大致包括 PD 分离、并行策略、投机采样策略和 KV Cache 管理。不同场景下,重点也不一样。比如超长序列场景,需要组合流水线并行、Context 并行和张量并行;超低延迟场景,需要扩大专家并行规模,用更多卡分摊计算压力;Agent 场景则更依赖多级 KV Cache 缓存能力。所以我认为,推理优化的关键不在于单一技术,而在于根据业务场景灵活组合不同能力,同时配合软硬结合的工程优化。

但如果一定要选一个我最看重的方向,我会选和 MoE 相关的优化。过去一段时间里,很多关键的推理优化其实都和 MoE 有关,比如专家并行、面向 MoE 的新通信算子库,以及专家负载均衡。这些技术虽然是近一两年才快速发展起来的,但对整体推理性能的提升非常明显。

主持人:两位刚才都提到软硬协同优化,但这也带来一个长期问题:国内产业里硬件很多、模型也很多,端到端优化到底该怎么做?是用一套通用框架去适配多种模型,还是点对点地做定向优化?现在行业通常怎么做,哪种方式更优?

冯梦轲(翼宏):我认为,推理基础设施要想做到极致性能,向上必须结合具体模型结构,向下必须结合具体硬件做深度优化。因为推理技术不是独立演进的,它始终是由新场景、新模型和新硬件共同驱动的。

先看场景。像 Agent、Deep Research 这类应用出现后,10 分钟内处理数百万 Token 已经成为现实需求,这就带来了超长序列、超低延迟等新场景,也推动了流水线并行、大规模专家并行等部署方式的发展。

再看硬件。每一代新硬件出现,都需要重新做算子优化。尤其是国内新一代芯片开始支持 64 卡、128 卡直连的超节点形态后,跨节点通信不再是主要瓶颈,模型并行策略也会随之变化。

最后是模型。最近一些新模型开始引入线性注意力、稀疏注意力等新结构,替代传统 Self-Attention,这也要求我们在特定硬件上重新探索最优支持方式。

所以我的判断是,推理优化一定要围绕新场景、新硬件、新模型做深度适配,才能把性能真正释放出来。当然,底层推理特性本身仍然具有一定通用性。

黄伟(金甲):我觉得这不是一个非此即彼的问题,而是通用框架和定向优化需要长期并存。理想状态当然是,一套通用框架尽可能适配所有模型,这也是行业共同的目标。但在当前阶段,模型、框架、基础设施和芯片架构都在快速演进,要完全做到这一点并不现实。

从实际情况看,比较成熟的模型和技术经过多年打磨,通常已经能在通用框架上实现比较好的效果,基本可以开箱即用。

但对于新模型、新技术,尤其是在架构还不稳定、还在快速迭代的时候,如果不做定向优化,很难真正跑出应有的效果。

硬件也是一样。即便是同一家厂商,从 A100 到 H100,再到新一代架构,底层设计都在变化,也不可能用同一套方法完全覆盖,还是需要针对具体硬件做适配。

所以我认为,通用框架解决的是“覆盖面”问题,让更多模型先跑起来;定向优化解决的是“性能上限”问题,只有针对具体场景、具体模型、具体硬件做深度优化,才能把硬件能力真正压出来,达到最优效果。现阶段,更现实的做法就是两条路并行推进。

主持人:前不久,阿里云在云栖大会上提到,推理加速效果已经提升到 9.2 倍,这是一个非常惊人的数字。这背后贡献最大的技术变量是什么?这个提升是怎么实现的?

冯梦轲(翼宏):去年云栖大会上,我们在 PPU 芯片上,针对 DeepSeek 这类主流开源模型实现了 9.2 倍的性能提升。最近,这个数字已经进一步提升到 13.1 倍。

我觉得背后主要有三个关键因素。

第一,是深度参与社区。过去一年,推理加速发展非常快,我们也是通过持续参与社区演进,在 PPU 芯片上落地了关键的并行策略、投机采样等推理特性。

第二,是热点算子优化。针对 INT8、GroupGEMM 等热点算子,我们重点提升了访存效率和算子性能。

第三,是面向集群推理场景做能力创新,这一点也非常关键。这里举两个例子。

一个是 MoE 模型的专家路由优化。MoE 模型里有大量点对点通信,但在当前非对称互联拓扑下,并不是任意两张 GPU 都直连,整体带宽利用率会受影响。针对这个问题,我们动态分析 Token 路由路径,识别不同数据流中的公共部分,再通过环状通信做合并传输,最终在单算子层面实现了 1.57 倍的性能提升。

另一个是大 EP 部署模式下的优化。大 EP 最早由 DeepSeek 提出,去年也得到了广泛应用。它通过扩大集群规模提升性能,但同时也会带来更高的通信开销。针对这个问题,我们把传统“先传输、后量化”的模式重构为“先量化、后传输”,把整体传输数据量减半,最终在单算子层面实现了 1.7 倍的性能提升。

总体来看,这 13.1 倍的提升不是依靠单点突破,而是由推理特性优化、热点算子优化和集群能力创新共同实现的。在一些实际业务场景中,已经能够提供接近高端 GPU 卡的推理服务能力。

至于为什么过去通常采用“先传输、后量化”的顺序,主要还是沿用了训练场景下的技术惯性。训练对精度更敏感,所以通常会优先保证高精度计算,帮助 loss 更好收敛。但推理场景不完全一样,它更强调精度、性能和成本之间的平衡。因此在部分场景下,可以接受局部精度损失,换取整体性能提升,同时保证全局效果基本无损。

当然,这种方式也要分场景使用。比如文档处理类任务对精度不那么敏感,就更适合这种优化;但像 AI Coding 这类代码生成场景,对精度更敏感,就需要采用更稳妥的高精度方案。

三、推理加速技术的瓶颈与未来发展

主持人:我们都知道,推理加速和推理调优还有很大提升空间,尤其在国内更是如此。但如果继续往下走,当前最主要的技术瓶颈是什么?两位所在的产业链位置不同,看到的问题可能也不一样。

黄伟(金甲):这个话题业内讨论很多。对国内算力来说,比较明显的瓶颈首先还是硬件能力本身,与英伟达相比,在实际算力上仍有差距。其次是生态能力,以及 AI 算力向集群化发展后带来的互联通信问题。

现在无论训练还是推理,模型一旦进入大规模集群阶段,通信成本都在快速上升。像 MoE 这类模型,通信开销尤其突出。很多创新方案本质上不是消除了通信成本,而是通过计算与通信并行,把这部分代价尽量隐藏起来。这也说明,通信已经成为底层非常关键的瓶颈。

从芯片角度,我们能做的主要是继续在底层架构上创新,包括通信加速库、通信算子优化,以及模型并行过程中对内存使用和调度的优化。但真正要解决问题,仍然要靠从底到上的协同优化。

底层算力只能提供机制和接口,能不能把这些能力和具体业务、具体模型特征结合起来,真正发挥价值,单靠芯片厂商是做不到的。因为对业务的理解、对模型的理解,上下游天然存在差异,所以软硬件的垂直协同非常关键。

从这个意义上说,推理优化不可能是孤立完成的,只有越往上延伸、越做垂直整合,最终效果才会越好。

冯梦轲(翼宏):从实际业务场景看,我对这个问题相对乐观。如果从推理端到端效果来看,国内芯片和国际先进水平的差距,其实没有想象中那么大。

现在新一代国内芯片,峰值算力基本已经能超过 1PFLOPS,显存带宽也能做到 3 到 4TB/s。即便和 B200 相比,在显存带宽和 GPU 互联带宽上,差距已经不到一倍;真正更大的差距主要体现在算力上。

但在推理场景里,算力差距的影响并没有那么大,因为整个推理过程中,大部分算子其实是访存密集型,真正明显受算力约束的,主要还是长序列场景。因为 Attention 的计算复杂度会随着序列长度快速上升。

不过,这一问题也在通过模型结构创新不断缓解。比如我们最近在 PPU 上支持了千问 3.5 的线性注意力机制,在 Prefill 阶段实现了 2 倍以上性能提升,在 Decoder 阶段实现了 3 倍以上提升。

所以我觉得,国内芯片在硬件上的差异,反而倒逼大家更多从推理加速、算子优化和模型结构优化上寻找突破。基于国内芯片,在云平台、推理系统和模型结构之间做联合优化,正在成为一条非常重要的技术路线。

换句话说,硬件短期内未必能一步追平,但软件和模型层面仍然有很大的优化空间,而且这些优化完全可以在业务效果基本不变的前提下,带来数倍的性能提升。

主持人:接下来想聊一个更务实的话题。我们发展算力,不是为了替代,而是为了用更好的算力支撑 AI 性能持续提升,推动整个产业更繁荣。要实现这个目标,关键是什么?当下最高优先级的事情是什么?

冯梦轲(翼宏):我觉得最近 GTC 上黄仁勋提出的“Token 工厂”这个概念很有代表性。它的核心逻辑是:在保证推理服务 SLA 的前提下,持续降低百万 Token 的推理成本。

从当前进展看,基于国内芯片,在常规序列场景下,已经能够提供接近高端 GPU 的推理服务水平;在模型能力上,也可以支撑千亿到万亿参数模型的在线服务;在集群规模上,已经能够稳定支撑千卡级推理集群;在交互体验上,也能提供每秒 50 个 Token 以上的低延迟响应。

但对“Token 工厂”来说,最大的现实约束是延迟、并发和成本之间始终存在“不可能三角”。追求更低延迟和更高并发,必然需要更多资源;一味压低成本,又会影响响应速度和用户体验。这不仅是国产芯片面临的问题,也是所有推理系统共同面对的问题。

所以如果看大规模交付,我认为最关键的有三点:第一是成本,第二是稳定性,第三是硬件兼容性。稳定性方面,阿里专有云已经提供了从集群、实例到进程的三层容错机制,提升推理服务可靠性;兼容性方面,我们也在通过异构 PD 分离等方式,支持不同芯片的混合推理。

所以我认为,当下最高优先级的事情,就是围绕成本、稳定性和兼容性,把推理服务真正做成可规模化交付的基础设施。

黄伟(金甲):我基本认同刚才的判断。我从芯片视角补充一点:一款芯片要真正实现大规模商用,关键不只是性能本身,还取决于成本控制、迁移门槛和上下游协同。

以平头哥为例,我们之所以能够通过阿里云服务大量业务和客户,一个重要原因就是自研程度很高。不只是芯片架构本身,包括软件栈、通信总线协议、通信库等,很多关键部分都是自研的。这样做的好处,一方面是可以更有效地控制芯片和软件成本,另一方面也能把很多复杂性留在底层内部消化。

对业务方来说,更重要的是迁移成本被显著降低了。无论是迁移代价还是技术门槛,都不需要由业务侧承担太多,这样他们才能更容易接受和使用新的算力体系。

此外,另一个关键点还是协同。我们和通义实验室、阿里云在芯片、基础设施和模型层面做了纵向打通,把很多优化放在一体化体系里完成。这样不仅能提升整体效果,也能把底层硬件复杂度隐藏起来,让业务方尽可能沿用原有的使用方式。

所以在我看来,当下最高优先级的事情,首先是降低迁移成本,其次是做好纵向协同。只有这样,更好的算力才能真正被用起来,转化为产业发展的实际推动力。

主持人:翼宏,我知道阿里最近有一个突破,就是 AI Stack 和千问 3 结合,实现了“1+1 大于 2”的效果。我很好奇,这个增益主要体现在哪儿?是单卡性能、集群调度,还是整条交互链路都有提升?

冯梦轲(翼宏):这是专有云、平头哥和通义实验室联合优化的成果。我们在 PPU 芯片上发布了千问 3 Pro 专属模型,通过模型结构和推理技术的协同优化,在精度持平的前提下实现了性能翻倍。换句话说,在相同业务场景下,推理成本可以直接降低一半。

这里的核心思路是两点:让模型更匹配硬件,让推理技术更匹配模型。

在模型侧,我们做了精准瘦身,重新设计了模型结构和激活参数,使推理过程中的计算密度更适配硬件算力;同时进行了重新预训练和针对性强化学习,使模型在文本推理、代码生成和多模态任务上的效果与开源千问 3 基本持平,部分场景甚至更优。

在推理侧,我们围绕新的模型结构做了深度优化,包括调整 Tensor 分块、线程布局和流水线深度,提升访存效率和算子密度;同时针对 MoE 专家做了智能排布,按照调用量进行负载均衡,并对热点专家做冗余部署。

所以,这个“1+1 大于 2”的增益,不是单点提升,而是模型、推理、芯片和云平台协同优化后的整体结果。它体现的也不只是单卡或调度优化,而是整条推理链路效率的系统性提升。

主持人:最后想聊一个更有前瞻性的话题。GTC 2026 上,黄仁勋提到,AI 下一阶段的竞争将更多体现在推理效率,也就是系统级优化和生态能力的竞争。站在两位的角度看,未来一年推理加速还会有哪些变化?

冯梦轲(翼宏):我觉得有一个趋势非常确定:随着模型结构和芯片持续迭代,未来一年推理成本还有望再下降一个数量级。

从应用上看,除了企业智能体和 AI for Science 这两个方向之外,更大的变化在于,大模型正在成为新的社会生产基础设施。在这个基础设施之上,一方面,现有应用会被 AI 持续重构,比如购物、出行、企业 ERP、视频剪辑等;另一方面,AI 也会催生出全新的应用形态。

后者其实更难预测,但也更值得期待。我们正处在一个技术拐点上,随时可能出现新的突破,并迅速演变成行业共识,像 AI Coding 和 OpenClaw 就是典型例子。

所以我认为,未来一年推理加速不仅会继续降本,还会推动更多新场景和新应用落地。与此同时,基于国内芯片和国产云平台的 AI 基础设施,也会在这一轮发展中发挥越来越重要的作用,不仅能用好用,甚至逐步走向领先。

黄伟(金甲):我认为,至少在未来一年,AI 推理市场一定会继续高速增长,Token 消耗的速度已经很能说明问题了。需求传导到算力侧,最明确的信号就是降本。无论是通过软件优化进一步榨干硬件效率,还是推出新一代硬件,核心目标都会是提升推理性价比。

但从更长远的角度看,推理和训练有一个很大的不同:推理成本是和业务量直接相关的,业务增长越快,推理需求就越大。所以推理算力未来比拼的,不只是峰值算力有多高,而是能不能更高效、更智能地匹配业务场景。

换句话说,未来推理加速的重点,不只是算得更快,还要更懂业务、更贴近场景。最终,芯片和底层技术的演进,还是要服务于业务需求和场景变化。

近日,网易智企正式发布企业级 AI Agent 管理平台——帝王蟹 ClawHive。

如果说此前大火的 OpenClaw(龙虾)是单个执行力极强的 AI 助手,那么网易智企发布的“帝王蟹”就是指挥整个龙虾军团协同作战的管理平台

在生成式人工智能持续演进的背景下,AI Agent 正从早期的个人效率工具,逐步进入企业核心业务流程。但与技术快速渗透相伴的,是企业在安全、治理与规模化应用层面的明显滞后。此次发布,正是围绕这一现实矛盾展开。

据介绍,帝王蟹 ClawHive以四层纵深安全防御为核心,提供权限管控、算力调度与知识沉淀能力,支持对接钉钉、飞书、企业微信,帮助企业将 AI Agent 从个人工具升级为可管可控的组织级基础设施。

过去一段时间,以 OpenClaw 为代表的 AI Agent 工具在开发、运营、内容生成等场景中快速普及。这类工具通过自然语言驱动任务执行,使非技术人员也可以调用复杂的自动化流程,显著降低了软件使用门槛。

 

市场研究机构 Gartner 预测,到 2028 年,将至少有 15%的日常业务决策由 AI Agent 自主完成。这一趋势意味着,AI 不仅是辅助工具,更可能成为企业决策链条中的一环。

但从企业实践来看,AI Agent 的引入并未同步带来成熟的管理体系。多位受访企业技术负责人表示,目前企业内部往往呈现出“员工自发使用、管理缺位”的状态。

 

一方面,业务人员已经开始借助各类 AI 工具提升效率;另一方面,IT 与安全部门却难以及时建立统一规范,对数据流转、权限边界及执行行为进行有效约束。

近期披露的一些案例进一步放大了这种风险。例如,有安全研究显示,在开放的 AI Agent 技能生态中,存在大量未经充分审查的第三方能力包,其中部分具备潜在的恶意行为风险;同时,也有企业在实际使用中遭遇 Agent 执行越权操作的问题。这类事件使得“如何在可控前提下使用 AI Agent”,成为企业关注的核心议题。

在这一背景下,“帝王蟹”被定义为一类面向组织级管理的 AI Agent 平台,其核心目标并非提升单个 Agent 能力,而是为企业提供一套围绕 Agent 的基础设施,包括部署、算力调度、权限控制以及使用行为管理等。

从技术实现路径来看,这类平台首先试图解决的是部署门槛问题。

 

传统 AI 工具的落地,往往依赖本地环境配置或云资源对接,涉及模型调用、权限配置等多个环节,对非技术人员并不友好。而平台化方案通常通过“一键部署”的方式,将复杂的安装与配置过程抽象化,支持在本地物理设备或企业云资源中快速启用。

 

这种模式的本质,是将原本分散在不同技术栈中的能力进行统一封装,使其更接近企业 IT 系统的标准交付方式。

其次是算力与模型资源的管理。在当前的 AI 应用体系中,模型调用成本、计费方式以及供应商差异,都会对企业决策产生影响。企业若自行对接不同模型服务商,不仅需要承担集成成本,还需要持续管理费用与性能之间的平衡。

 

平台化方案通常通过集中接入多家模型服务,并在内部进行统一调度,使企业可以在一个界面内完成模型选择与资源分配。同时,也支持在部分场景下对接企业私有部署模型,以满足数据合规要求。

更为关键的,是围绕“技能(Skill)”的管理体系。在 AI Agent 架构中,Skill 不仅是单一功能模块,更往往涉及外部系统调用。例如,在企业实际业务中,一个完整的自动化流程可能需要访问 CRM 系统、OA 系统或财务系统,这意味着其权限管理与接口安全成为核心问题。如果由业务部门自行对接,不仅开发成本高,也容易引入权限滥用风险。

针对这一问题,平台通常会引入 API 网关与权限控制机制,对所有外部调用进行统一管理。通过对接口访问进行身份验证、权限分级以及调用审计,可以在一定程度上降低 Agent 执行过程中出现越权或数据泄露的可能性。

 

同时,技能的上线也需要经过审核流程,包括功能验证与安全评估,从而形成类似“应用商店”的内部生态。

在安全架构上,这类平台普遍采用分层防护思路。以“帝王蟹”为例,其设计强调从权限控制、数据隔离到行为审计的多层防御机制。具体而言,权限控制用于限定不同用户或 Agent 的操作范围;数据隔离确保不同业务单元之间的信息不会被无意访问;行为审计则通过日志与监控,对 Agent 执行过程进行记录,以便在出现异常时进行追溯。这种设计逻辑,实际上借鉴了传统企业 IT 系统中的安全模型,但需要适配 AI Agent“可自主决策”的特性。

除了安全与技术问题,管理层同样关注 AI 投入的产出效率。

 

在不少企业内部,AI 工具的使用已经涉及算力费用、订阅成本甚至专用基础设施投入,但其实际业务价值却难以量化。因此,平台通常会提供统一的管理面板,用于展示员工使用情况、Token 消耗、技能调用频率等指标。这些数据可以帮助管理者评估投入产出比,并据此调整资源分配策略。

在使用入口层面,企业级方案也倾向于嵌入现有办公体系,而非引入全新工具。例如,通过对接飞书、钉钉或企业微信等协同平台,将 AI Agent 以“机器人”或插件形式直接接入日常沟通环境,使员工无需切换系统即可使用。这种集成方式,有助于降低学习成本,同时也便于统一权限管理。

从更长周期来看,AI Agent 在企业中的价值,可能体现在“经验沉淀”层面。与传统软件不同,Agent 的能力很大程度依赖于提示词(Prompt)、工作流设计以及历史交互数据。如果这些经验仅停留在个人层面,其价值难以放大。因此,一些平台开始尝试将优秀的提示词、流程模板进行归档与共享,使其转化为组织资产。这一过程,本质上类似于知识管理系统在 AI 时代的延伸。

不过,需要指出的是,这类平台目前仍处于探索阶段。

 

一方面,AI Agent 本身的能力仍在快速演进,其稳定性与可预测性尚未完全成熟;另一方面,不同企业在数据结构、业务流程及合规要求上的差异,也使得“通用平台”难以完全覆盖所有需求。因此,平台化方案能否真正成为企业基础设施,仍有待时间验证。

从行业竞争格局来看,围绕 AI Agent 的基础设施建设,正在成为新的焦点。不同厂商在模型能力、开发工具以及平台治理之间展开布局,试图占据企业 AI 应用的关键入口。与此同时,开源社区与 Web 技术路径也在提供替代方案,使企业在“封闭平台”与“开放生态”之间进行权衡。

 

“帝王蟹”的发布,可以被视为企业在 AI Agent 落地过程中,从“工具使用”迈向“系统治理”的一个缩影。随着 AI 在业务中的参与度不断提升,如何在效率与安全之间取得平衡,将成为所有企业必须面对的问题。

 

而围绕这一问题展开的技术与产品探索,也将持续影响未来企业软件的形态。

 

Matrix 首页推荐

Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。 

文章代表作者个人观点,少数派仅对标题和排版略作修改。


前言

当地时间 4 月 1 日下午 6:35,阿尔忒弥斯 2 号(Artemis II)在佛罗里达州肯尼迪航天中心成功发射。此次飞船搭载 4 名宇航员,计划进行约 10 天的绕月飞行任务,目的是验证「猎户座」飞船的生命维持系统和其他核心技术,为未来的载人登月(阿尔忒弥斯 3 号)铺路。

不过,此次太空任务的「出圈」,也许并非因为任务本身,更多人得知这次飞行任务,多半是因为一张由 iPhone 17 Pro Max 拍摄的照片:宇航员透过舷舱窗户向外望去,定格下了地球的身影。

是的,你没看错,这张照片确实出自一部 iPhone。有趣的是,这几张首批公开的地球影像,并非使用后置摄像头拍摄,而是用 iPhone 17 Pro Max 的前置摄像头完成的,清晰捕捉到了地球的弧线与绚丽的明暗交界线。

iPhone 17 Pro Max 前置镜头拍摄画面

这是宇航员克里斯蒂娜·科赫(Christina Koch)在「猎户座」飞船飞向月球的途中,透过舱窗回望地球所拍下的,exif 数据显示,拍摄设备为 iPhone 17 Pro Max,拍摄时间为 4 月 2 日。

照片 exif 信息

历史首秀:首个进入太空的 Apple 设备,不是 iPhone

但是 iPhone 17 Pro Max 并非历史上第一个进入太空的 Apple 设备。让我们将时间拨回到 20 世纪 90 年代,一台 Macintosh 便携式电脑被送入太空参与实验,NASA 将其搭载于航天飞机任务中,属于人机交互实验的一部分,主要目的是寻找失重环境下更合适的电脑光标输入方式。此外,当时的宇航员还通过定制的 AppleLink 软件和调制解调器,向地球发送了人类历史上第一封来自太空的电子邮件。

首个进入太空的 Macintosh 电脑,来源

邮件内容为:

Hello Earth! Greetings from the STS-43 Crew. This is the first AppleLink from space. Having a __GREAT__ time, wish you were here…… send cry, and CS! Have a nice day…… Haste la vista, baby…… we'll be back!

 

(译文) 你好,地球!来自 STS-43 机组人员的问候。这是来自太空的第一条 AppleLink 信息。我们过得非常开心,真希望你也在这里…… 快来联系我们吧!祝你度过愉快的一天…… 再见了,宝贝…… 我们还会回来的!

太空娱乐:iPod 为宇航员减负

时间来到 2006 年,iPod 在发现号航天飞机(Space shuttle Discovery)拍摄的照片中出现,主要用于宇航员的个人娱乐,比如听音乐。在 iPod 流行之前,宇航员通常会携带笨重的 CD 播放器和数十张光盘上天;而在对重量要求极为苛刻的航天飞行任务中,一个小小的 iPod 就能装下数千首歌,其体积和重量上的优势不言而喻。不过,太空中没有标准的充电插座,因此 NASA 为 iPod 专门配备了特制转换器,使其能使用 4 节 AA 电池供电。

iPod 进入太空,来源
iPod 充电细节图

民间尝试:iPhone 4 化身地球拍摄仓追踪器

到了 2010 年 9 月,发生了一次非常著名的「民间航天」实验。纽约州的艺术家卢克·盖斯布勒(Luke Geissbuhler)和他当时 7 岁的儿子马克斯 (Max),用极低的成本完成了一次震撼全球的拍摄。这对父子从纽约州纽堡市发射了一只气象气球,将其送至平流层上部,距离地球表面约 19 英里(约 30.6 公里)的高空。这套装置中搭载了一部当时刚发布的 iPhone 4 和一台 GoPro,用于拍摄地球影像。

卢克与儿子正在调试设备
iPhone 4 被挂载在气球上作为定位器

值得注意的是,父子二人并未使用 iPhone 4 的摄像功能,而是将这部智能手机当作飞行器的 GPS 追踪设备,真正执行拍摄工作的是 GoPro。随着气象气球逐渐升入大气层,受气压影响慢慢膨胀,最终发生爆裂。随后,太空舱自带的降落伞确保这套装置平稳下落、返回地球。最终,这对父子借助 iPhone 4 的定位功能,在距离发射点约 30 英里(约 48.3 公里)的地方找到了他们的地球拍摄仓。

气球落地位置

正式升空:iPhone 首次进入太空

而这并非 iPhone 4  唯一一次「飞天」。2011年 7 月 8 日,两部 iPhone 4 随美国亚特兰蒂斯号航天飞机(Space Shuttle Atlantis)被送往国际空间站。值得一提的是,这次飞行是亚特兰蒂斯号的谢幕之旅,却是 iPhone 首次正式进入太空。此次进入太空的 iPhone 4 主要作为科学仪器使用,它们安装了名为 SpaceLab 的iOS应用程序,宇航员利用 iPhone 内置的陀螺仪、加速计和摄像头,来测量辐射水平、追踪地理位置以及评估飞船高度。

SpaceLab App

核心工具:Apple 设备助力太空任务

时间推进到 2021 年 9 月,在由 SpaceX 主导的 Inspiration 4(灵感 4 号)轨道任务中,Apple 设备再次扮演了核心的科学研究工具角色。此次任务的成员包括一位经验丰富的飞行员、一名医师助理、一名骨癌幸存者以及一位美国空军退伍军人。SpaceX 为 4 名成员都配备了 Apple Watch Series 6,每位成员全程佩戴,用于收集研究级的 ECG(心电图)、心率、睡眠质量、血氧饱和度以及舱内环境噪音数据。

宇航员们佩戴着 Apple Watch Series 6

与此同时,iPhone 12 Pro 作为主要的数据采集平台,让平民宇航员在没有地面指挥的情况下,借助 iPhone 上的 AI 引导程序,成功完成了对任务成员的器官影像扫描。此外,宇航员们还配备了 iPad mini 4,平板上预装了一款名为 Cognition 的专业应用,用于测试宇航员在太空环境下的认知能力和行为表现。

太空准入:Apple 设备的严苛测试

看到这里,你可能会有疑问:这些 Apple 设备进入太空前,是否需要通过特定测试才能被允许带上飞船?答案是肯定的。

以此次阿尔忒弥斯 2 号携带的 iPhone 17 Pro Max 为例,它在被允许进入太空前,必须经历多项严格测试。比如电池稳定性测试,锂离子电池在辐射和压力变化下容易变得不稳定,NASA 对其进行了严格的热失控测试,确保即便电池损坏,也不会起火或爆炸。此外,还有耐用性与碎裂测试,NASA 重点测试了 iPhone 17 Pro Max 的屏幕玻璃强度:一旦玻璃在微重力环境下碎裂,细小的碎片会漂浮在空中,被宇航员吸入肺部,这会构成极大的安全隐患。

iPhone 17 Pro Max

而且,这些 iPhone 17 Pro Max 并非以我们日常使用的状态进入太空,其所有蜂窝、Wi-Fi和蓝牙芯片都已在物理层面被严格限制。宇航员无法连接互联网,手机仅作为独立的本地摄影和记录工具使用。

未来可期

如今,随着时间的推移,已有多款 Apple 设备被送上太空。近年来,Apple 新发布的空间计算设备 Apple Vision Pro,已在医疗、商业办公协作、工业制造与工程等专业领域实现了具体应用落地。那么未来,Apple Vision Pro 是否有机会跟随宇航员进入太空进行科研任务,并拍下人类历史上第一支在太空拍摄的 AVP 空间视频呢?

Apple Vision Pro

    趁着四月底的小长假,我去了趟南昌和赣州。此前,江西并不在我的旅行计划内。虽不至于被网上「环江西发展带」之类的梗影响情绪,但确实因为了解有限,一直没生出过探索的念头。

    转机源于深夜刷到的一段视频。那是家开在老旧小区里的南昌苍蝇馆子,几张桌子露天摆着,两台比我年纪还大的立式风扇嘎吱响。镜头里,主播拌起一碗粉,不知是光线原因还是调料有门道,挂满酱汁的粉条透着亮,猪肚和葱花散在上面。作为拌粉爱好者,我隔着屏幕都能想象出那种香味。顺着搜了搜,发现江西小炒也不全是传闻中的「变态辣」,加上被湖南女友「特训」了一年多,我对自己的耐受力有了点信心。

    就是这个瞬间,让我决定去江西实地尝尝。

    第 0 天:深夜抵达的安慰

    打工人的假期余额有限,我选了傍晚从深圳出发的高铁,抵达南昌时已过深夜十一点。刚下过雨,空气里有一股风吹过的清冷,混合着泥土味。我们在打车去酒店的路上就迫不及待点好了外卖:两碗拌粉,一碗鸡蛋肉饼瓦罐汤。

    外卖送到时,粉确实有点坨了,但用力搅拌几次,口感还算软韧。花生米油亮且脆,萝卜干很提味。我点的是猪肚口味,肉质处理得挺嫩,虽谈不上惊艳,但对风尘仆仆的旅人来说,这顿夜宵足够落胃。瓦罐汤里的肉饼油脂已经煨进了汤里,喝上一口热汤,正好中和了拌粉那股直接的辣意。

    第 1 天:现炒码子、古今交错的博物馆、滕王阁和万寿宫

    第二天睡了个踏实的懒觉。窗外正如预报所说,细雨迷蒙。我们简单洗漱了一番,打算去住处附近的粉面馆试试现做的味道。

    推门进去,屋里的温度比外面高出几度。角落里师傅正对着猛火爆炒码子,热浪一波波袭来。我选了牛腩拌粉,女友选了肉沫拌粉,照例又配了一罐花生排骨汤。

    现做的牛腩拌粉明显不一样。筷子一翻,底层的浓油赤酱裹住白粉,转眼就染成深酱色。大口吸溜,葱油和酱油的香直冲上来。牛腩挑了偏瘦的肉,不柴,卤香和米粉的油润咬在一起,比外卖版多了层次。女友的肉沫拌粉也香得停不下来。

    下午去了美术馆。最令我印象深刻的是陶瓷工艺与敦煌莫高窟的跨界展:佛像被烧制在瓷片上,当上方的人造光打下来,瓷砖特有的窑火质感让菩萨的宝相显出一种定格的纹理。窑火留下的粗糙纹理让宝相显得特别沉甸甸,比纸上画的佛多了几分「活过」的重量。我忽然想:一千多年前的匠人要是看到今天这融合,大概也会觉得有趣吧。

    美术馆建筑本身也值得琢磨,1969 年落成,苏式风格里揉进了「山」字布局和重檐四角亭的中国元素。从地铁口搭电梯上来,看着屋顶那颗标志性的红五星从檐口一侧逐渐现身,这种视角的切入感很像电影里的长镜头。

    后面的博物馆简单梳理了江西历史,介绍了江西这个名称来源——「江南西道」的来历。我在接下来的几天里,也会感受到宋代建筑规整秩序下藏着的烟火气和烟雨江南的余韵。

    下午四点多回酒店休息。两个小时后雨停了,几分夕阳穿过厚云,正好照在纪念碑和逐渐亮灯的美术馆上。

    我们在滕王阁几百米外找了个安静打卡点。远处看,阁楼榫卯清晰,赣江和对岸高楼形成古今对望的画面。如今的滕王阁,已经和一千多年前的完全不同。但我觉得也能接受。虽然它装了电梯,但一百年后也是一个带电梯的文物。走近仰望时,那种压迫式的巍峨让我突然明白,为什么王勃当年能写出那么磅礴的句子。只是红绿灯光有点俗气,如果换成暖橙色该顺眼多了。因为背不出《滕王阁序》拿不到免票,心疼一百多块的门票,最终只绕了一圈,心里多少有点小遗憾。

    我们转头去了万寿宫。街区商业化布局已经很成熟,灯火和人流交织,却没破坏那种老城该有的韵味。路过一栋小楼时,二层窗边坐着一位蒙着轻纱的艺人,正低眉拉二胡。悠扬的琴声从二楼飘下来,在喧闹的市声中竟意外清晰,像一根细线轻轻拨动心弦。周围不少人停下脚步,有人举起手机,有人只是安静听着。这抹清亮的弦音刚好中和了身体和心里的燥热——除了大开大合的豪爽和烟火气,原来江西也可以那么温婉流转。

    晚上累得不想出门,又叫了外卖。几道菜式:

    牛腩烧荷包蛋蛋皮炸出了气孔,吸满了肉汤,一抿就冒汁,是不折不扣的拌饭神器。

    香辣牛蛙:牛蛙切成小块,配上泡椒和紫苏,鲜嫩且香气特别。这道菜的辣度对我这个广东人来说刚过临界点,但辣椒和肉质的鲜甜结合得很好,让人忍不住多吃几口。

    最后再配上一盘油淋小白菜,正好平衡了整餐的重口。

    第 2 天:藏在生活区里的绿洲、古寺与街巷

    在南昌的第二天雨总算停了。为了避开人头攒动的主流景点,我们选了离五一广场约二十分钟车程的北湖。在墩子塘站下车,沿着湖边往南再折向西,这片区域连接着当地人的生活区。

    北湖正如我预想的那样,不是什么名声在外的风景区,更像是什刹海那种嵌入城市肌理的小湖。周边没有刻意修饰的景观,湖岸贴着居民楼,走几步就能路过几家不大的咖啡馆。这些店的设计并没跳脱出老社区的底色,融入得还算自然。路过一家开在院子里的赣菜馆,还没进门,炒菜的油烟香已经飘了出来。院里散放着几张桌子,一楼打通成了餐厅,可惜刚吃过饭,只能作罢。

    路边的一辆电动车引起了我的注意,踏板处的挡风被里安然卧着一只小猫,不知是主人留下的还是它自己钻进去的。拉链被贴心地拉上了一半,留了个透气的口。看到我们凑近,它也不躲,只是换了个更舒服的姿势伸个懒腰,继续睡它的午觉。

    再往前走,生活的痕迹愈发粗糙但真实。路边有摆摊卖果蔬的阿姨,也有敞开门供人进出的公共空间。在名为「T16 绿洲」的区域,茶馆、书吧和小店聚在一起。这里不值得游客特意跨城而来,但对住在附近的人来说,有个能和朋友散步聊天的地方,确实是一种具体的幸福。

    路过北湖附近的佑民寺时,我们没时间进去,只在围墙外站了一会儿。寺外是车流和叫卖声此起彼伏,香火悠悠从墙后飘起逸散空中。寺庙藏在闹市里,市声喧闹,却莫名透出一股厚重的肃穆。那种「古建筑被现代生活包裹」的反差,反而生出一种奇妙的宁静。如果下次再来,一定要进去坐坐,感受一下「洪州禅」发源地的安静——大概能和重油重辣的江西饭菜,形成最完美的对比吧。

    最后的一站是大士院和蛤蟆街。你可以把它理解为南昌版的太平街或上下九。虽然产品同质化的现象在所难免,但作为离开前高效采购手信的地点,或者顺手买份水煮小吃,这里依然是最方便的选择。

    临行前的中午,总算寻到了一家地道的苍蝇馆子。

    • 黄豆鸡脚是第一道惊喜。黄豆软糯,鸡脚炖得胶质满满,一抿就骨肉分离,辣椒香味早已渗进骨头里。汤汁浓稠发亮,淋在饭上特别下饭——这才是真正的拌饭神器。鸡脚入口干净,透着新鲜。
    • 豆豉黄鱼是老板推荐的招牌。用勺子拨下一块,鱼肉鲜香滑嫩,蘸点底部的豆豉酱油,咸香刚好挂在肉上,入口即化,细嫩程度超出了预期。
    • 第三道蒜炒通心菜,我作为广东人坚持要的一抹绿意。不过火候稍显局促,还带着点青气。

    第 3 天:宋朝遗迹、川菜馆、登台与入巷

    抵达赣州办理完入住,已接近晚上九点。在附近点了一份烧烤,价格虽相宜,但味道乏善可陈,便不再赘述。

    习惯性地看了眼天气预报,三四月正是江西的雨季,接下来的赣州行程恐怕都要在雨水的阴影下进行。不过既来之则安之,我们还是决定按原计划出发。

    第一站,我们去了老城的文庙。里面游人稀少,红墙黄瓦配着古柏,安静得让人不由自主放轻脚步。站在大成殿前,我忽然想起学生时代最怕考试的样子。中考前,我路过学校旁边的教堂,看见神父正为学子祈祷。现在看着这些祈福的年轻面孔,心里有点复杂:古人求功名,我们现在又在求什么呢?虽然信仰不同,但无论是哥特式的尖顶,还是中式黄绿琉璃瓦,似乎都在静静悲悯着世人。

     

    抬起头,透过树影望见旁边的慈云塔——那座宋代砖塔静静立在小学校园里。古今就这样重叠在一起,反而让我莫名感到安心:有些东西,历经千年,依然好好地留在生活里。

    从文庙出来,穿过一片居民区,天气正好放晴。墙角和阳台斜出的三角梅开得格外扎眼。再往前走几步,宋代城墙便在赣江边铺展开来。走在城墙上,最震撼的是那些城砖——从北宋到民国的铭文依旧清晰可见。用手摸上去,粗糙而真实,像在翻一本活的历史书,岁月感扑面而来。

    顺着城墙往北走,便到了建春门。站在城墙上往下看,古浮桥横跨在江面上,一百多只木船首尾相接,这种俯拍视角比站在桥面上看更具结构美。走在桥上,脚下木板吱呀作响,身旁是来往的行人,这座使用了八百多年的浮桥,至今仍承载着两岸的通行,是那种并未进入博物馆的鲜活古迹。

    随后的寿量古寺和灶儿巷也都在步程之内。灶儿巷全长两三百米,连通着不少深巷,两旁多是成规模的明清建筑。遗憾的是,这里的保育与活化显得有些吃力,不少老屋已经人去楼空,挂着危房警告的木门紧锁,只有零星一两家餐厅还在营业。

    午餐没在计划内,走到标准钟附近时已近正午,空气微热,我们打算就地解决。街口的一家餐馆吸引了注意。黑底金字的招牌写着中英文「波波川菜店」,红色的遮阳篷配上拱形玻璃门,参考了民国时期西风东渐的风格。推门进去,装修以木质元素为主,大厅错落摆着几张圆桌,围绕着被玻璃隔开的天井。中间种了一棵树,自然光落下来,配合店内的暖色灯光,营造出一种亲密感。透过一侧的玻璃,可以清楚看到厨房里厨师掌勺的过程。

    • 西红柿炒蛋是传统的咸甜口,很下饭。
    • 爆炒腰花和鲜炒牛肉底色相似,葱香与藤椒味厚重,霸道地打开了味蕾。牛肉嫩滑,打了花刀的腰花也没有异味,两道菜都处理得干脆利落。

    下午在宾馆稍作休整,我们搭乘 1314 路公交前往宋潮不夜城。这辆车的复古设计挺用心,票价也亲民。

    宋潮不夜城位于三江汇流的入口处。广义上的江南宋城景区涵盖了军门楼、郁孤台、客家大院等。抵达时天色已晚,出于安全考虑,我们重点看了军门楼后的街道和郁孤台。

    晚上我们去了郁孤台。站在台下俯瞰清江北去,心里忽然有点空落落的。辛弃疾那句「郁孤台下清江水,中间多少行人泪」我只记得前半句,但那种「青山遮不住,毕竟东流去」的无奈,竟然和我这个打工人临时起意来江西的随意形成了奇妙的对比。没赶上白天晴天,雨后的江面有点模糊,反而多了几分朦胧的沧桑感——古人的家国愁绪,我一个小游客大概是体会不到了,但那股跨越千年的厚重,却实实在在砸在了胸口。没赶上晴天登顶,多少有点可惜。

    晚餐选在郁孤台公园附近的一个旧院子活化而来的餐厅。

    • 生滚雪梨糖水清冽冰甜,配上糯米丸子,是很好的下火甜品。
    • 生啫小黄鱼放在砂锅里,配蒜头和红葱头煎香,做法很像粤菜的啫啫煲,鱼肉细嫩,但女友说稍有一点腥气。
    • 鲍鱼辣椒炒肉 68 元的价格在当地不算便宜,主要在于加了鲍鱼。五花肉的油脂混着鲍鱼的韧劲,口感比常规版本丰富,至于这种搭配是否多余,就看个人喜好了。

    第 4 天:八境公园

    在赣州的最后一天,天色阴沉但总算没下雨。我们抓紧时间补全了宋代城墙之旅,从涌金门一路走到八境公园。

    登上八境台,章江与贡江在此汇流成赣江,地理位置极其关键。在此远眺,两江交汇的波纹清晰可见,古人笔下的悲喜在此刻有了具体的坐标。走在八境公园里,阴郁的天色反而压出了湖水与树木那股浓郁的墨绿色。一两座石拱桥横跨其间,像是深色画作里的一抹鲜亮,恰好连接起视线。只可惜,不久雨势便由小转大,我们没能漫步太久,只得匆匆折返。

    最后一顿在住处附近解决。酒酿丸子酒香清纯不烧喉;鸭舌极辣,高汤豆腐吸饱了鲜辣汤汁;艾米果里包着腌菜、腊肉和豆干,很有地方特色;家常炒粉则胜在葱油、鸡蛋和辣椒爆出的锅气。吃完这顿烟火气十足的饭,我们便动身前往高铁站。

    旅行实用笔记:衣着、住宿以及拍摄设备心得

    衣着建议

    四月初的江西气候温和。不下雨时白天气温能到 28°C 左右,入夜或降温后会跌回 20°C 以下。穿一件短袖,外搭一件薄外套和牛仔裤即可应对。

    住宿参考

    此次在南昌和赣州均选择了亚朵酒店。在当地属于中高价位,但相比一线城市,性价比依然突出。两家店都比较新,服务态度在线。不过,其早餐水平较我此前在其他城市的体验略显平淡。建议想体验当地风味的游客去街边找早餐店,更能挖掘到惊喜。

    拍摄设备与心得

    因为计划里步行闲逛占大多数,所以不准备带相机,而这几天恰逢 vivo X300s 发售,所以找少数派的虎老师借了设备趁机体验一番。

    与此前使用的 X100 Ultra 相比,这款机型的镜头模组没有那么突兀,更加便于携带,减少负担。但所幸长焦表现依然扎实。在这次旅行中,我全程使用其「人文模式」进行记录。也简单聊聊一些使用体验:

    • 画质特征:与普通模式相比,人文模式的计算摄影痕迹较轻。它能拉开画面的明暗对比,同时在阴影和高光中保留足够的细节,不会有那种过度磨平的「塑料感」。
    • 滤镜倾向:我基本锁定在「质感」和「负片」模式。这种模式自带一种类似胶片的颗粒感和柔光效果。在拍摄时,只需根据现场环境微调色彩饱和度和明暗,就能呈现出很强的个人风格。即便不加后期,画面也很耐看。
    • 配件扩展:若搭配原厂的摄影师套装,还可以使用增距镜。这让手机在 200x 甚至 400x 的混合放大倍率下依然具备可用性,便于在室外拉近镜头或捕捉建筑局部特写。

     

    结语

    原本只是为了那口鲜辣而临时起意,最终却走成了穿梭古今的时光探索。在江西,古今的界限其实很模糊:那些古籍里的诗意,此刻正实实在在地包裹在重油重辣的市井生活里。没能去成的寺庙,还没尝遍的小馆,没探索的公园,都留作下次再来的理由。

     

    除结尾处手机外观照片,本文其余旅行照片均使用 vivo X300s 拍摄。

      稳定版 Linux 7.0 内核发布

      稳定版 Linux 7.0 内核于 4 月 13 日正式发布,此次大版本发布仅源自 Linux 内核版本发布惯例——在次版本号达到 X.19 后便提升主版本号,因此并非某项重大变革导致的大版本升级。不过此次 Linux 7.0 依旧包含众多新特性与改动,例如对英特尔 Nova Lake 平台的更多支持、英特尔 Crescent Island 加速器的进一步适配、新增对 AMD 新一代图形 IP 模块的支持、XFS 文件系统的自修复能力、多项性能优化、英特尔 TSX 指令集默认设为自动模式,以及 Linux 内核终于实现标准化的通用 I/O 错误上报机制等。来源


      高通中国与网易游戏合作,多款游戏适配骁龙 X 平台 PC 设备

      高通中国与网易游戏应用与平台发展事业部于 4 月 13 日宣布,双方基于网易游戏官方游戏平台「网易发烧游戏」达成深度生态合作,旨在共同推动更多由网易游戏研发和发行的游戏以及平台应用,全面适配搭载骁龙 X 系列的 Windows PC 设备。网易游戏旗下已有 25 款游戏完成面向骁龙 X 系列平台的适配,包括《永劫无间》《漫威争锋》《界外狂潮》《七日世界》《光·遇》《燕云十六声》等多款 PC 游戏,覆盖动作竞技、多人射击、开放世界等多个品类。同时高通中国还联合网易游戏完成了针对 MuMu 模拟器的深度适配与联合优化。MuMu 模拟器从底层针对骁龙 X 系列架构进行开发,可提供更高的运行效率与更强的系统稳定性。本次适配不仅全面支持包括骁龙 X2 Elite 系列平台在内的骁龙 X 系列平台,还兼容此前多数的骁龙计算平台。来源


      微信宣布微信表情也可以在手机端上传

      微信官方于 4 月 13 日宣布,微信表情投稿迎来新路径。创作者现可通过「微信表情助手」小程序,用个人视频号一键登录,快速发表手机相册中的作品。上传后,你制作的表情包能在视频号首页专区展示。其他人也可以从你的表情包作品直接跳转到你的视频号,一眼识别到表情包原创作者。同时,表情专辑与视频号、公众号、小程序、红包封面的连接能力全面打通,让表情能在微信全域流动起来。目前「微信表情助手」仅开放个人视频号作者。来源


      MiniMax 开源 M2.7 模型

      MiniMax 于 4 月 12 日宣布开源 M2.7 模型,据称能让模型深度参与自身训练与优化流程,构建复杂的 Agent 框架并完成高度复杂的生产力任务。M2.7 具备自我进化能力,内部系统可自动收集反馈、构建评估集,持续优化自身架构、技能和记忆机制。在优化编程能力时,M2.7 可以自主运行超 100 轮循环,最终内部测试可实现 30% 性能提升。还具备 OpenRoom 交互系统,把 AI 交互从文本扩展到可视化界面,支持实时场景反馈,支持高度扩展,未来可探索全新人机交互方式。来源

      与此同时,MiniMax 宣布其最新的 M2.7 模型现已支持接入 Hermes Agent。Hermes Agent 是一款强调持续学习与自我进化的开源 AI 智能体,它会在使用过程中自动沉淀经验、生成可复用的技能,并在后续调用中不断自我改进。来源


      微软开始测试类 OpenClaw 的 Copilot 服务

      据 The Information 报道,微软目前正在测试类似 OpenClaw 的 AI 服务,旨在令 Microsoft 365 Copilot 也拥有替用户在后台自动处理事务的能力,比如从邮箱和日历信息中自动生成每日待办事项。微软还在探索这类服务限制在特定功能下的应用,如营销、销售、会计等,以减少单个服务需求的权限请求。微软副总裁 Omar Shahine 回应媒体证实此事,称公司正「在企业语境下探索 OpenClaw 这样的技术的潜力」。信源还表示,微软认为自己可以解决类 OpenClaw 工具的安全问题。预计 6 月 2 日开始的 Build 大会上,该功能会有部分展示。来源


      Meta 在内部构建 AI 3D 版本虚拟扎克伯格

      据金融时报报道,Meta 正在内部开发一款 AI 驱动的 3D 影像虚拟扎克伯格,用于即时与员工对话并提供反馈。虚拟扎克伯格将由扎克伯格的海量影像与声音训练,扎克伯格本人正监督这项开发工作。信源称该项目消耗了大量本就不足的算力。Meta 有计划将公众人物转化为可实时互动的分身,此项工作也是这一计划的一部分。此前,Meta 还在开发一款 CEO AI 代理,用于快速向扎克伯格传递公司内各项事务。来源

      值得一提的是,Meta 于近期收到了来自 70 多个民权组织的联名抗议,称其去年展示并拟推动上线 Meta AI 眼镜的人脸识别功能「Name Tag(姓名标签)」将成为犯罪者秘密跟踪、侵犯潜在受害者的工具。来源


      中央网信办发布《关于加强网络直播打赏规范管理的通知》

      4 月 13 日,中央网信办发布《关于加强网络直播打赏规范管理的通知》。通知提出网络直播营利行为与网站平台合规健康运营的多项工作要求,主要包括明示打赏规则、规范打赏营利权限开通、提供打赏限额功能、提供打赏提醒功能、规范打赏金额排名、规范打赏互动、完善未成年人保护机制、建立打赏营利行为负面清单、加强异常打赏识别处置、完善投诉举报受理机制、加大处置和曝光力度等十一项,对多种不规范、不合理的打赏现状做出了具体指导。来源


      不妨一看的简讯

      • Adobe 于 4 月 12 日在其官网发布公告,为 Acrobat、Acrobat Reader 软件发布紧急安全更新,修复 CVE-2026-34621 零日漏洞,建议所有用户尽快安装。受影响的软件包括 Acrobat DC、Acrobat Reader DC 以及 Acrobat 2024,用户如果开启了自动更新,则系统会在检测到更新时自动安装。需要手动更新 / 下载安装包的也可以在软件中选择「帮助」 > 「检查更新」,或前往Acrobat Reader 官网手动下载更新。来源
      • 据人民财讯,经荣耀内部查证回应,荣耀将与字节跳动就「豆包手机」合作展开接洽的传闻不实。来源
      • 华为已在商城提前上架下周发布的 Pura X Max 并开放预售。来源
      • Anthropic 为 Microsoft Word 开发了一款 Claude 插件,可用于替代 Copilot 提问文档相关内容,该插件目前已向团队与企业订阅开放测试。来源
      • 黑客团体 ShinyHunters 宣布已通过攻破云成本监控工具 Anodot 窃取到 GTA 开发商 Rockstar 内部资料,并要求 Rockstar 在 4 月 14 日前交付赎金。来源
      • 因内存短缺,微软美国区官方商城将 Surface 全系列售价调涨,涨幅 100 至 300 美元不等,部分型号较发布时起售价高出 500 美元。来源
      • 微软确定将于 2026 年 5 月 25 日终止 Android 端 Outlook Lite 应用运营,现有剩余用户此后将无法继续使用该应用。来源
      • 国产掌机厂商 Anbernic 公布了一台名为 RG Rotate 的旋转屏 Android 掌机,机身采用铝合金与 ABS 材质,自研超薄转轴,有银黑两色可选,售价尚未公布。来源


      少数派的近期动态

      你可能错过的文章

      > 下载 少数派 2.0 客户端、关注 少数派公众号,解锁全新阅读体验 📰

      > 实用、好用的 正版软件,少数派为你呈现 🚀

        上周,我们正式发布了少数派的第一方周边——麦金獭钢化膜。上线后,我们很快收到了来自用户的积极反馈,不少用户表示,这款无感膜的实际使用体验超出了预期,也给予了我们很多真诚的认可。

        但与此同时,后台和社区也有不少朋友针对这款麦金獭无感膜提出了一些疑问,涉及使用、选择等多个方面。为了方便大家更快速地了解产品、解决困惑,我们特意整理了常见的 10 个问题做一期答疑,希望能帮到关注或在使用这款产品的朋友。

        若有未覆盖的疑问或建议,也欢迎在评论区留言,我们会认真倾听,和大家一起打磨更好的产品。

        常见问题解答

        麦金獭无感膜好不好贴?

        可以放心。产品包装内附赠贴膜神器,配合图文与视频教程,整体上手难度并不高,即使是第一次贴膜,也能按照步骤顺利完成。

        教程入口就在产品包装右下方二维码,扫码后即可查看详细的图文和视频指引。步骤清晰、操作简单,跟着教程一步一步来,就能更轻松地贴好。

        建议正式操作前,先完整看一遍教程,再开始贴膜。

        不小心贴坏或者收到商品破损怎么办?

        不用慌,我们为大家准备了贴心的售后保障。

        如果不小心贴坏或者收到商品破损了,请务必保留好包装内的贴膜神器,后续请联系所购买平台的在线客服,提供相关图片或视频说明具体情况,经客服核实后可申请售后补发单膜一张(每单仅限一次,仅限一张)。

        另外我们也收到极少数用户反馈,个别钢化膜在收货时出现碎裂情况。经排查,主要原因来自物流运输过程中的暴力分拣。目前我们已对包装进行升级,在原有缓冲棉基础上额外增加气泡袋保护,以进一步提升抗冲击能力。

        如您不幸遇到类似情况,请第一时间联系在线客服,我们会为您妥善处理。感谢您的理解与支持。

        同时也提醒已购买用户:贴膜神器请妥善保留,后续我们将推出单膜版本,复购价格会更友好。

        麦金獭无感膜 AR 款与高清款厚度区别?

        厚度其实是一样的,都是 0.13mm,贴上基本感觉不到区别。

        主要差别在显示效果:AR 款在强光下会更舒服一点,降低反光,屏幕可读性更好。而高清款就是更纯粹的通透感。

        这款膜适合什么类型的人群?

        这款无感膜,主要面向对手感和显示都有高要求的用户。

        如果你在意的是:

        • 贴上之后几乎没有存在感的顺滑触感
        • 不喜欢传统贴膜带来的厚重、边沿硌手感
        • 同时又希望屏幕依旧保持清晰、通透的显示效果

        那这款麦金獭无感膜会非常适合你。

        麦金獭无感膜适配哪些机型?

        目前适配的机型包括 iPhone 16 Pro、iPhone 16 Pro Max、iPhone 17、iPhone 17 Pro、iPhone 17 Pro Max 以及 iPhone Air。覆盖当前主流新款 iPhone 机型,你可根据设备型号直接对应选购。

        后续我们也会根据用户需求,持续补充更多机型版本,敬请期待。

        膜面顺不顺滑?

        麦金獭无感膜 AR 款采用磁控溅射工艺,将金属 / 陶瓷微粒直接附着于玻璃表面。相比传统喷涂疏油层,具备附着更牢、衰减更慢的特性,能够在更长时间内保持稳定的使用体验。

        实际体验上:

        • 手感接近原厂屏幕,滑动顺畅不拖手
        • 长时间使用也不容易发涩
        • 指纹不易残留,整体更清爽

        需要说明的是,贴膜属于消耗品,在日常使用过程中接触到钥匙、沙粒等硬物时,仍有可能在膜面留下细微划痕,这是正常现象,目前行业无解。

        贴膜后的显示效果如何,会不会影响屏幕观感?

        实测透光率可达 96% 以上,在保证保护性的同时,尽可能还原屏幕本身的色彩与清晰度。无论是追剧、看照片,还是日常使用,都能保持通透、干净的观感,不会出现发雾或明显偏色。

        优惠截止日期是什么时候?

        麦金獭无感膜的优惠活动截止日期为 2026 年 4 月 15 日。想要入手的朋友可以抓紧时间,趁优惠期间选购,享受更具性价比的体验,错过后将恢复原价哦。

        购买链接:

         

        产品反馈活动什么时候结束?

        针对麦金獭无感膜的用户晒单反馈活动,截止日期为 2026 年 4 月 19 日。大家在使用过程中如果有任何晒单分享、体验反馈,都可以在截止日期前提交

        我们会认真倾听每一条声音,不断优化产品体验。

        麦金獭无感膜有防窥款吗?

        目前这款麦金獭无感膜仅有 AR 抗反射涂层款和高清款两种选择,暂时没有推出防窥版本。

        AR 抗反射款适合经常在强光环境下使用手机的用户,能有效减少反光;高清款则适合追求极致通透显示的用户,大家可以根据自己的使用需求选择。

        用心打磨的防护

        解答完大家最关心的 10 个问题,我们聊聊麦金獭无感膜的部分打磨历程。

        作为少数派自研硬件,我们的核心始终是:在不牺牲实用性的前提下,让大家既能获得可靠屏幕防护,又能还原裸屏般的使用体验。

        所以我们没有单纯追求数字上的「薄」,而是将玻璃基材打磨至 0.13mm,既能让手指划过屏幕边缘几乎感觉不到贴膜存在,又能精准贴合屏幕曲面,从根源上解决模糊、割手、翘边等常见痛点;搭配电镀疏油层,手感丝滑不粘手,防指纹、防油污,日常操作和手游都不会出现断触、延迟。

        为了还原裸屏观感,我们使用专业仪器实测,结果表明麦金獭无感膜透光率达到 96% 以上,数据真实可复现;同时与专业调色团队合作,贴膜后与裸屏的色准差异极小,不干扰手机原彩显示与 HDR 内容观感,杜绝发雾、偏色问题。

        AR 抗反射款通过特殊镀膜工艺,降低强光反光,户外看导航、刷内容无需拉满亮度,前置镜头区域无遮挡,自拍、视频通话不会出现眩光、雾化。

        最后,我们为麦金獭无感膜提供了全套配套保障,兼顾便捷与安心。包装内附赠的贴膜工具经过优化设计,定位更精准、操作更便捷,进一步降低小白贴膜难度;售后保障除免费申领单膜外,后续若有使用问题,也可联系客服获得专业解答。

        最后想说

        做这款钢化膜,我们没有追求「六边形战士」,只是想解决大家贴膜的痛点——不厚重、不刮手、清晰、好贴。

        从开售第一天的热情支持到大家的真实晒单,我们知道这份用心被大家感受到了。

        如果你也在找一款「贴完就忘」的钢化膜,如果你不想再为厚重、反光、难贴的钢化膜烦恼,不妨趁首发优惠,入手体验一下。

        愿这张薄薄的钢化膜,既能保护好你的手机屏幕,也能不打扰你的每一次使用。

        购买链接:

         

          Matrix 首页推荐

          Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。 

          文章代表作者个人观点,少数派仅对标题和排版略作修改。


          我关注并评测 Matter 产品已有数年,尽管大部分内容是面向海外读者的,但在日常使用中,我最深切的苦恼却是:在国内市场很难找到符合国标需求且好用的原生 Matter 设备。

          最近由于搬家计划,我开始盘点新居所需的智能设备,并筛选哪些环节目前还无法用原生支持 Matter 的版本(而非网关桥接方案)来替代。作为「在国内折腾 Matter」系列文章的开篇,我想聊聊目前在国内搭 Matter 全屋智能的痛点与出路。

          第一道坎:基础品类的「至暗时刻」

          智能家居的大头还是在基础的开关和照明上,当然我还喜欢做能耗管理,所以智能墙插也算在内吧,毕竟都是通断器。然而现实就是,你能想到的一些全球市场上活跃的做 Matter 品类大红大紫的中国大品牌,并不在国内市场推出本土标准的开关和墙插面板。

          在这种局面下,折腾的路径被收窄到令人窒息。你只能在 130 线白牌 ODM 产品中抽盲盒,或者选择更为硬核的路径:全屋改用欧规 / 英规底盒。虽然这些底盒微调后能塞进国内的坑位,但这绝非普适方案,还得准备对应规格的转换器和排插。或许有人会提议使用通断器模块改造普通开关,但基于 Matter 现阶段的稳定性,我很难有信心将这些设备「半永久」地封装进接线盒里。一旦掉线,你将面临必须带电拆卸面板进行重置的灾难级维护成本,甚至需要关掉整路电闸,这种反人性的体验显然也背离了智能化的初衷。

          Aqara 在 IFA 2025 展示的 Matter 产品

          我曾有一个 Thread 通断器彻底罢工在墙内,面对僵硬的预留线,拆解难度之大让我最终选择了放弃。想起 Sheng Wang 在脱口秀中说,开市客教会我们适时放弃,如果八分钟内找不到地方停车,那扭头就走。同样地,面对一个频繁失联、维护成本极高的 Matter 设备,我有时也只能无奈放手。

          另一个更棘手的挑战在于单火线方案的缺位。在与多位产品开发者交流后,我发现厂商要么受限于欧美市场的研发惯性,不愿为国内特定的单火环境增加 SKU,要么受限于 Thread 协议在单火低功耗控制下的技术门槛。重新拉零线虽然一劳永逸,但对于大多数后装房用户而言,最现实的妥协方案或许是放弃改动开关,转而将所有传统灯替换为智能灯具,毕竟有了语音控制和自动化,我一年也不会按几次那个实体开关。

          此外,Matter 门锁在国标市场也几乎不见身影。目前市面流通的多为欧规或美规版本。所幸近期已有部分厂商释放出相关技术方案的消息,但愿在下个月搬家前,真的能有一款量产的国标 Matter 门锁,最好再带上 Aliro 方便我用 Apple 钱包开锁。

          第二道坎:触发与感知,Matter 配件的本土选择

          相较于基建类面板,传感器、无线按钮等触发类设备在本土市场展现出了更强的生命力。如果你略懂企业采购渠道,海曼(Heiman)等品牌推出的 Matter-over-Thread 传感器是个不错的选择,小巧精致、响应极快。与此同时,Aqara 也在加速补齐其在本土市场的 Matter 产品矩阵,从传感器到灯具,甚至出现了国内首发速度反超海外的局面,告别了以往令人焦灼的「入华等待期」。

          海曼 Heiman Matter 烟雾报警器

          不过,一些进阶功能往往被限制在 Zigbee 原生模式下。在 Matter 协议中,目前大多只能实现基础功能。例如 Aqara P100 多维传感器,在 Matter 模式下可能仅被识别为一个简单的门磁。

          值得期待的是宜家。作为家居巨头,宜家从去年底开始全球更新其 Matter 产品线,这批新品原生支持 Matter-over-Thread,且保持了量大管饱的定价策略。预计今年内,国内用户就能以极其亲民的价格在宜家门店买到这些标准化的智能配件,其竞争力将直指米家和涂鸦的白牌方案。

          白电残局:大厂的「鸽子」在飞

          在去年的柏林 IFA 展会上,我高强逛展度追踪 Matter 新品。在展会接近尾声时,老板看到领英上连接标准联盟的人发了一张 Matter 冰箱的照片,说这是他苦苦追寻的「白鲸」一定要去看看。于行业来说 Matter 白电难得一见,于消费者更甚。

          美的 Midea Matter U 形空调

          相比欧美市场偶尔能见到的 Matter 空调或温控器,国内白电市场几乎是一片荒漠。洗衣机、洗碗机等大型家电在 Matter 协议上的进度极其缓慢。虽然我曾在连接标准联盟的展示厅内目睹过美的(Midea)旗下的 Matter 风扇、美式空调、与洗碗机原型,但这些设备目前多为针对外销市场或研发阶段的测试品,在国内零售渠道仍处于「查无此人」的状态。厂商虽然声称已做好升级准备,但实质性的产品迭代至今仍未破局。

          生态困局:夹缝中选择

          国内市场缺乏一个绝对中立且统治级的生态平台,导致用户的选择极其局限。在国内头部平台对 Matter 支持乏力的情况下,核心玩家只能在 Apple Home 与三星 SmartThings 之间艰难徘徊。前者更新步调迟缓,甚至对 Matter 1.3 协议中核心的能耗管理功能视而不见;后者虽然响应迅速,但在本土化适配上却显得不如人意——最新的固件更新往往先倾斜于几款海外型号,国内网关不仅缺乏明确的更新计划,甚至在功能上线时间上也要落后一两个季度。

          三星 SmartThings 和 Aqara G350 Matter 摄像头

          这种「时差」带来的体验落差是巨大的。例如前阵子推出的 Matter 摄像头功能需要 59.x 版本固件支持,而国内三星网关一等就是四个月。这意味着即便你购买了最新的硬件,也因为身处内地而无法在第一时间解锁核心功能,本土用户在某种意义上沦为了生态中的「二等公民」。

          在此背景下,Aqara 与 Home Assistant 展现出了更强的潜力。Aqara 的「随处即网关」策略落地和三星比不相上下,后续推出的网关类产品几乎全线内置 Matter 控制器与 Thread 边界路由,其功能丰富度甚至看齐三星。但 Aqara 偶现的地区锁实在令人恼火。如果 Aqara 能进一步开放本土市场的功能权限,我会更愿意用Aqara而不是三星作为第二平台做设备自动化。

          装载 Home Assistant 的 Mini PC

          而对于硬核极客而言,Home Assistant(HA)依旧是目前响应 Matter 协议速度最快、自由度最高的孤岛。在其背后 Open Home Foundation 的推动下,HA 对各类开放协议的标准化支持远超商业闭环生态。唯一的痛点在于,在内地环境部署 HA 涉及到较高的网络维护成本与技术门槛,这并非普罗大众能够轻松驾驭的方案。

          好消息是,HA 的创始人 Paulus 三月来国内拜访本地社区和合作伙伴。在与我的独家采访中他透露正在调研中国市场的本土化适配可能,并希望联合更多本土厂商推动开放协议硬件的普及。这为国内的 Matter 玩家提供了一抹难得的曙光。

          价格与售后:标准化背后的代价

          关于价格,我觉得需要破除一个误区:开放协议不等于廉价。Matter 的研发与认证成本较高,在厂商习惯使用私有协议,或者不做认证降本增效的当下,Matter 并非价格战的利器。但相比过往高昂的 Work With 成本,Matter 已经算是性价比方案了,标准化带来的长效价值正在逐步显现。随着今年晚些时候 IKEA 的 Matter 产品进入中国市场,我们有望能看到 Matter 均价能压到接近米家差不多的水平。

          售后与稳定性则是另一项长期博弈。Matter 仍处于生长期,极度考验厂商的优化能力与家庭网络的稳定性。一两百元的入门路由器很难承载数十个 Matter-over-Wi-Fi 设备的并发请求,而 Thread 协议以及多 fabric (生态)并存的情况也让排障过程变得极为困难。品牌售后若无深厚的技术积淀,很难应对这种复杂的分布式系统所带来的问题。

          现阶段在国内玩转 Matter 充满了磨难,但其背后的愿景——科技巨头的罕见共识、代码开源、纯本地运行、不依赖云端、多平台无缝流转——这些特性构成的底座,赋予了智能家居真正不受制于人的生命力。纵使目前需要依靠网关与桥接来填坑,纵使路阻且长,但对于我来说,这份能掌握家庭数字主权的确定性,足以抵消当下所有的折腾与痛点。

          (图源:南桥北桥不是桥,未经允许禁止转载使用)

            页面布局调整为常驻 3 栏布局

            原来的左右结构,在大部分页面标题不长,内容不多的情况下,会浪费掉不少空间,且很多功能导航会有所局限。之前尝试的可隐藏侧边栏的目的就是为了解决这个,但发现展开和收起,或固定的情况下,体验还是有所割裂(不少用户反馈找不到动态等新功能入口)。因此,新版本对页面布局做了较大改动,由之前的可隐藏的侧边栏修改为常驻的左侧侧边栏,主体内容的宽度也由此缩窄一部分。常驻侧边栏的好处是体验会更好,导航到新功能的速度会明显加快,更符合浏览直觉。

            需要说明的是,子节点的列表以及帮助文档的列表,均会动态的在侧边栏中展示。由于布局的大改动,首次体验大概率会不习惯,需要时间适应,不考虑增加选项的目的是让页面后续更好的维护。

            不同的设备屏幕显示效果可能在本次更新没做好,可以进行反馈继续改进。另外一些元素可能因为宽度存在挤压,我会继续优化。

            其他改进

            除了这个大的变动外,这个版本也做了一些的体验改进,以下是其他的内容更新说明。

            1. 新增了博客文章的浏览数。
            2. 列表的打赏、布局、弹窗等地方均做了样式优化。
            3. 现在帖子的正文更多菜单,移动到了回复按钮右侧。菜单新增了一个平铺和树的评论视图快捷的切换菜单。
            4. 修复了新添加进合集后,合集内排序不正确的问题。
            5. 优化徽章列表弹窗的关闭按钮为常驻。
            6. 金币池的追加周期改为 2 周内,且次数增加到 5 次。