标签 AI基础设施 下的文章

fce16b0fecfa0585fd346adc9d8b25fc.jpg

由 OpenBuild 联合 SegmentFault、VibeFriends 和 Monad 共同发起,并携手 KIMI、智谱 AI、豆包编程、YouWare、阶跃星辰、Rokid、硅基流动、立创开源等多家顶尖 AI 公司举办的「Rebel in Paradise AI 黑客松」已正式拉开帷幕。这场聚焦“智能体时代原生基础设施、产品与市场”的深度探索之旅,现已面向全球开发者开放报名通道。

如果你的桌面还堆满关于 AI Agent 的技术文档却无处实践;如果你的脑海中早已构想出一个能够自动化工作流、创造价值的智能体应用却缺少舞台;如果你渴望与 Kimi、智谱 AI、豆包编程等一线团队的技术专家面对面交流,那么,你的机会来了。

这可能是智能体时代最后的“末班车”

Rebel in Paradise AI 黑客松三大核心赛道

过去一年,AI 智能体从概念走向落地,正在重塑工作方式与商业逻辑。但真正的创新浪潮才刚刚涌起。本次黑客松瞄准三大核心赛道,直击行业最前沿痛点:

赛道一:Agent-native Payments

智能体间的价值流转与支付协议、微支付系统、自动化结算方案——这是构建智能体经济系统的基石。

赛道二:Intelligent Markets

基于智能体的预测市场与交易系统,探索数据市场、算力市场、AI服务市场的全新可能性。

赛道三:Agent-powered Apps

由智能体驱动的下一代应用,从工作流自动化到个性化助手,再到协作工具,用代码定义未来。

Hackathon 时间

👥 报名与组队期: 即日起 - 项目提交前均可报名组队

💻 项目提交截止: 2026年2月28日 23:59:59

✅ 最终结果公布: 2026年3月10日

如何参与

👉立即报名:https://rebel.openbuild.xyz

本次 Hackathon  以线上为主,开发者完全可选择全程线上参与,完成项目构思、开发与提交。同时我们也会在线下举办两场 Hacker Camp:

👉 北京(1月31日): https://luma.com/irllzbeu

👉 深圳(2月7日): https://luma.com/je6if25j

为开发者提供的额外深度交流与实战辅导机会,你可以将此视为一次与导师、队友线下碰撞火花的“加速器”。

无论你身在何处,均可参与线上环节,享受同等技术辅导、资源支持与评奖资格。当然,无论是否报名 Hackathon,也非常欢迎亲临线下活动现场,与数百名开发者同台交流。

为什么你必须把握这次机会?

**💰 总奖池 $40,000:** $20,000现金 + $20,000 资源奖励

🔥 稀缺资源支持: 包括 LLM Token、 NVIDIA DGX、顶尖公司参访机会等

🆙 成长直通车: 一线AI公司技术专家辅导、投资人对接、项目孵化支持

💬 社群与背书: 加入由高质量开发者、创业者和技术领袖组成的创新网络

智能体时代的竞争,已从“是否会使用工具”升级为“能否创造智能体”。这趟驶向未来的列车已经鸣笛,车厢里坐着Monad、Kimi、智谱AI的技术领袖,也坐着与你一样渴望用代码重塑世界的开发者。

别等到2月28日才后悔没报名。最好的开始时间,永远是现在。

快速答疑(Q&A)

Q:可以纯线上参与,完全不参加线下活动吗?

A:完全可以。 线上参与即可完成全部黑客松流程并获得完整资源支持。

Q:没有成型的项目或想法,可以报名吗?

A:可以。 线下活动无门槛,线上黑客松最终需提交项目,但我们鼓励从0到1的探索,并设有相应辅导环节。

Q:如何组队?

A:建议自行组队,也可在活动社群中招募队友。

Q:可以同时报名北京和深圳两场线下活动吗?

A:可以。

Q:资源支持(算力、硬件等)如何申请?

A:组队成功后即可提交申请。

Q:能选择多个赛道吗?

A:可以多选,组委会将进行简单审核。

我们相信,下一个时代的“一人公司”,将由智能体与你共同构建。

合作伙伴

a29ee9b59442ba5f9ec3ab9f372566ef.jpg

微软:2026 年 AI 发展的 7 个趋势

说实话,每次看到“AI 趋势预测”这类标题,我都会先深吸一口气。

不是因为害怕,而是因为这类文章太容易写成两种极端:

要么是“AI 要统治世界了快跑”的恐慌文,要么是“拥抱 AI 否则被淘汰”的焦虑营销。

最近读了微软发布的 2026 年 AI 趋势文章,里面有 7 个预测。

我不打算照搬原文,而是结合我自己的理解,和你讲下这 7 个趋势与我们有什么关系,看你是否能在这 7 个趋势中找到自己的机会。

趋势 1:AI 成为你的数字同事

AI 不是来抢你饭碗的,是来帮你“开挂”的。

想象一下,以前你开发一个页面要 3 天,现在 AI 帮你写代码,你只需要专注在业务需求、用户体验等事情上。

这就像以前洗衣服要手搓,现在有洗衣机了。洗衣机没有让“洗衣服”这件事消失,而是让你有时间去做更重要的事。

所以与其担心被 AI 取代,不如想想“我能用 AI 放大什么?”

趋势 2:AI 代理更安全

现在的 AI 有时候像个热心但冒失的实习生——你让它帮你写邮件,它可能把你的私人信息也一起发出去了……

2026 年的 AI 会更像一个训练有素的助理:知道什么该做,什么不该做,什么信息可以用,什么必须保密。

所以虽然 AI 能帮你处理各项事务,但也要有基本的安全意识,尤其不要让他删库跑路了。

趋势 3:AI 解决全球医疗危机

想象一下,当你走进医院,AI 系统能在几分钟内准确诊断你的病情,准确率高达 85.5%,而传统医生的平均准确率只有 20%。

这听起来像科幻电影,但微软最新的 AI 医疗诊断系统已经达到了这个水平。

这意味着 AI 将成为第一线的健康顾问,当然,这不是说 AI 要取代医生。而是说,AI 可以让医疗资源的分配更均衡一些。

所以新的一年,你可以关注 AI 在健康领域的应用,但看病还是要去正规医院,别指望 AI 给你开药方。

趋势 4:AI 成为科学研究的催化剂

以前做研究,光是文献综述就要花几个月。

现在 AI 可以帮你快速梳理几千篇论文,找出关键信息。

这就像以前考古要一铲子一铲子挖,现在有了探地雷达,能更快定位到有价值的区域。

所以如果你是学生或研究者,学会用 AI 辅助学习和研究,会是一个很大的竞争优势。

趋势 5:AI 基础设施会变得更智能、更高效

支撑 AI 运行的基础设施会持续优化,这意味着 AI 基础设施能够智能调度算力,确保每个任务都能在最佳时间、地点获得最优资源。

以后无论你在哪里,使用什么设备,都将获得一致且高效的 AI 服务。

云计算将变得像自来水一样普及和可靠。

趋势 6:AI 正在学习理解代码背后的“为什么”

AI 不只学习代码语言,还在理解代码背后的上下文。

这意味着以前的 AI 写代码就像个新手程序员——你说什么它写什么,但不理解你到底想解决什么问题。

现在的 AI 开始能理解“你为什么要这么做”,然后给出更合理的方案。

对我们程序员来说,AI 将能更好地协助你维护和改进现有系统。

趋势 7:量子计算的突破比想象中更近

专家预测,量子计算的重大突破将发生在“几年,而不是几十年”的时间框架内。

随着量子计算的出现,密码学、药物发现、气候模拟等领域将迎来革命性突破。

当然对我们来说,这暂时不需要操心,但可以保持关注。因为这是那种“一旦发生就会改变很多事”的技术。

普通人该怎么办?

这些趋势的共同点是:AI 正在从工具变成伙伴,从辅助变成合作伙伴,从后台变成前台

不过看完这 7 个趋势,你可能还是会问:所以我到底该做什么呢?

我的建议很简单,三句话:

第一,别焦虑,但要保持好奇

AI 发展很快,但天不会塌下来。与其焦虑“会不会被取代”,不如花点时间玩玩各种 AI 工具,看看它们能帮你做什么。

第二,找到你的“不可替代性”

AI 擅长的是“标准化”的事情。而你的独特经历、审美、判断力、人际关系——这些是 AI 很难复制的。想想你有什么是 AI 做不到的

第三,学会“和 AI 协作”

未来最吃香的不是“会用 AI 的人”,也不是“完全不用 AI 的人”,而是“知道什么时候用 AI、什么时候用自己”的人。

说到底,AI 是工具,不是对手。

就像汽车发明后,马车夫确实失业了,但司机、修车工、交通规划师这些新职业也出现了。

变化一直在发生,我们要做的,是在变化中找到自己的位置。

PS:岂可修,这让我想到了阿里的文化——拥抱变化

我是冴羽,10 年笔耕不辍,专注前端领域,更新了 10+ 系列、300+ 篇原创技术文章,翻译过 Svelte、Solid.js、TypeScript 文档,著有小册《Next.js 开发指南》、《Svelte 开发指南》、《Astro 实战指南》。

欢迎围观我的“网页版朋友圈”,关注我的公众号:冴羽(或搜索 yayujs),每天分享前端知识、AI 干货。

公司收购 Langfuse,正式进军 LLM 可观测性 (LLM observability) 领域,并推出原生 Postgres 服务,以统一事务型与分析型工作负载。

旧金山 — 2026 年 1 月 16 日 — 实时分析、数据仓库、可观测性 (observability) 以及 AI/ML 领域的领导者 ClickHouse 今日宣布完成 D 轮融资,融资金额达 4 亿美元。本轮由 Dragoneer Investment Group 领投,Bessemer Venture Partners、GIC、Index Ventures、Khosla Ventures、Lightspeed Venture Partners、T. Rowe Price Associates, Inc. 管理的账户,以及 WCM Investment Management 共同参与。

此次融资正值 ClickHouse 持续且加速增长之际。目前,公司通过全托管服务 ClickHouse Cloud 已服务超过 3,000 家客户,年度经常性收入 (ARR) 同比增长超过 250%。在过去三个月中,Capital One、Lovable、Decagon、Polymarket 和 Airwallex 等客户开始采用该平台或扩大了现有部署。这些新客户加入了 ClickHouse 已建立的客户群体,其中包括 Meta、Cursor、Sony 和 Tesla 等 AI 创新者及全球知名品牌。

“ClickHouse 的初衷就是为最严苛的数据工作负载提供卓越的性能和成本效率,而今天的增长势头正是这一战略的最好证明,”ClickHouse 首席执行官 Aaron Katz 表示。“面向未来,我们正在支持统一的事务型与分析型工作负载,让开发者能够在坚实的技术基础之上构建各种由 AI 驱动的应用。同时,我们也在拓展产品能力,引入 LLM 可观测性,帮助 AI 应用构建者在进入生产阶段时,更好地评估 AI 输出的质量和行为。新的资金支持,加上持续的产品执行力,使我们有能力在 AI 时代打造领先的数据与 LLM 可观测性平台。”

图片

对大规模数据基础设施与 AI 的高度确信投资

Dragoneer 成立于 2012 年,由 Marc Stad 创立,采用高度精选、以研究为核心的方法,专注于与少数具有品类定义意义的公司建立长期合作关系。过去十年中,该公司投资了多家领先的数据平台以及多家基础性的 AI 公司。

随着 AI 系统逐步从实验走向生产,对底层数据基础设施提出了更高要求。AI 驱动的应用会产生远高于以往的查询量,对延迟更加敏感,同时还需要持续的评估能力和可观测性。在这样的背景下,真正的价值正越来越集中到那些能够支撑大规模、数据密集型生产工作负载的基础设施平台之上。

“每一次重大的平台变革,最终都会回馈那些最贴近生产环境的基础设施公司,”Dragoneer Investment Group 合伙人 Christian Jensen 表示。“当模型能力不断提升,真正的瓶颈就转移到了数据基础设施上。ClickHouse 的突出之处在于,它能够在大规模 AI 系统运行时,提供所必需的性能、效率和可靠性。”

在严谨的评估过程中,Dragoneer 认为 ClickHouse 已成为现代数据技术栈中具有品类定义意义的领导者。该平台广泛支持关键任务级的实时工作负载,深度嵌入于始终在线、面向客户以及 AI 驱动的系统之中。

ClickHouse 的增长不仅来自对现有系统的替代,更来自对全新工作负载的支持。通过在大规模场景下实现高性价比的实时分析,ClickHouse 让许多过去因延迟或成本受限而无法落地的应用场景成为可能。与主要服务内部分析团队的许多数据基础设施平台不同,ClickHouse 经常直接嵌入到面向终端用户的产品中,在这些场景下,性能和可靠性会直接影响用户体验。

“我们寻找的是在系统绝不能停机时依然值得客户信赖的平台,而 ClickHouse 一直展现出这样的能力,”Jensen 补充道。

LLM 可观测性:ClickHouse 通过收购 Langfuse 进入该市场

ClickHouse 正式宣布收购开源 LLM 可观测性平台 Langfuse。与关注系统健康和性能指标的传统可观测性不同,LLM 可观测性关注的是如何确保非确定性、日益复杂的 AI 系统能够输出准确、安全且符合用户意图的结果。随着 AI 系统不断深入生产工作流,LLM 可观测性已成为构建和运营 AI 应用团队不可或缺的一环。

Langfuse 开源项目增长迅速,截至 2025 年底,已获得超过 2 万个 GitHub Star,每月 SDK 安装量超过 2,600 万次。

“我们之所以在 ClickHouse 之上构建 Langfuse,是因为 LLM 可观测性和评估本质上就是一个数据问题,”Langfuse 首席执行官 Marc Klingen 表示。“如今作为一个团队,我们能够提供更加紧密的一体化体验:更快的数据摄取、更深入的评估能力,以及从生产问题到可量化改进之间更短的闭环。”

图片

Langfuse 联合创始人 Clemens Rawert、Marc Klingen、Max Deichmann

原生 Postgres 服务:ClickHouse 面向 AI 构建者推出统一数据技术栈

ClickHouse 同时宣布推出一个与自身平台深度集成的企业级 Postgres 服务。为了支撑既需要事务处理又需要分析能力的现代实时 AI 应用,ClickHouse 打造了一套统一的数据技术栈,其中包括由 NVMe 存储支撑、具备原生 CDC 能力的高性能可扩展 Postgres。用户只需几次点击,就能将事务数据同步至 ClickHouse,从而解锁最高可达 100 倍的分析性能提升。借助由原生 Postgres 扩展提供支持的统一查询层,开发者可以构建横跨事务与分析的应用,而无需维护多个独立系统。该服务由 ClickHouse 与开源云公司 Ubicloud 联合打造,Ubicloud 团队在 Citus Data、Heroku 和 Microsoft 拥有丰富的产品与工程经验。

“Postgres 与 ClickHouse 在架构上天然互补,是 AI 应用不可或缺的组成部分。通过合作,我们为团队交付了一套真正的一体化技术栈,让生产级 Postgres 负责事务处理,让 ClickHouse 专注分析,并作为一个整体协同运行,”Ubicloud 联合首席执行官兼联合创始人 Umur Cubukcu 表示。“我们非常高兴能在 Ubicloud 与 ClickHouse 携手合作,这正是开源生态系统成功的方式:由值得信赖的团队打造一流产品,并共同成长。”

图片

Ubicloud 联合创始人 Umur、Ozgun 和 Daniel

持续的全球扩张与产品动能

在完成融资并收购 Langfuse 的同时,ClickHouse 也在持续扩展其全球布局和生态体系。过去一年中,公司通过与 Japan Cloud 的合作进入日本市场,并宣布与 Microsoft Azure 围绕 OneLake 建立合作关系。ClickHouse 还在旧金山、纽约、阿姆斯特丹、悉尼和班加罗尔举办了多场用户活动,吸引了超过 1,000 名参与者,演讲嘉宾来自 OpenAI、Tesla、Capital One、Ramp 和 Canva 等公司,并连续第二年举办了 AWS re:Invent Chainsmokers 客户活动。

一系列近期产品进展进一步强化了 ClickHouse 在分析、AI 与可观测性交汇领域的地位。公司在数据湖支持方面持续投入,新增了对 Apache Iceberg、Delta Lake 以及主流数据目录的兼容性。同时,平台扩展了全文搜索能力,这对于包括 AI 可观测性在内的各类可观测性场景正变得愈发关键。此外,ClickHouse 还引入了轻量级更新机制,以支持需求更高、负载更复杂的 AI 驱动型应用。根据近期基准测试结果,ClickHouse 持续提供行业领先的性价比,在性能与成本比上超越主流云数据仓库。

借助 D 轮融资、对 Langfuse 的收购以及原生 Postgres 服务的推出,ClickHouse 已做好加速增长的准备,并将进一步巩固其作为统一数据平台与 AI 可观测性平台的战略地位。

了解更多:

关于 ClickHouse:

 

ClickHouse 是一个快速的开源列式数据库管理系统,专为大规模实时数据处理与分析而设计。ClickHouse Cloud 以高性能为核心,提供卓越的查询速度与并发能力,非常适合需要从海量数据中即时获取洞察的应用。随着 AI 智能体 (AI Agent) 越来越多地嵌入软件系统,并生成频率更高、复杂度更大的查询请求,ClickHouse 提供了一个高吞吐、低延迟的引擎,专门用于应对这一挑战。ClickHouse 受到 Sony、Tesla、Memorial Sloan Kettering、Lyft 和 Instacart 等领先企业的信任,帮助团队通过一个可扩展、高效且现代化的数据平台释放数据价值并做出更明智的决策。欲了解更多信息,请访问 clickhouse.com。

关于 Dragoneer Investment Group:

Dragoneer 是一家以增长为导向的投资机构,资产管理规模超过 300 亿美元。该机构与在公有和私有市场中打造品类定义型公司的创始人及管理团队长期合作。迄今为止,已有 50 多家 Dragoneer 投资的公司成功上市。其投资组合包括 Airbnb、Amwins、Atlassian、Databricks、Datadog、Meta、Nubank、OpenAI、Revolut、ServiceNow、Snowflake、Spotify 和 Uber。

关于 Langfuse:

Langfuse 是一个用于构建、测试和监控 LLM 应用及 AI 智能体的开源平台。团队使用 Langfuse 来追踪和调试智能体工作流、运行评估,并持续衡量和改进生产环境中 AI 输出的质量。Langfuse 既提供托管云服务,也支持在生产规模下自托管。作为增长最快的 LLM 工程平台之一,Langfuse 拥有 20,470 个 GitHub Star、每月超过 2,600 万次 SDK 安装量以及 600 多万次 Docker 拉取,并受到《财富》50 强中 19 家公司和《财富》500 强中 63 家公司的信任。欲了解更多信息,请访问 langfuse.com。

关于 Ubicloud:

Ubicloud 正在打造开源版的 AWS,在裸金属和公有云之上交付核心云服务。Ubicloud 由打造分布式 PostgreSQL 的 Citus Data 团队创立 (该公司已被 Microsoft 收购)。其旗舰数据库产品 Ubicloud PostgreSQL 提供企业级托管 Postgres 体验,并具备行业领先的性价比。Ubicloud 在 AI、计算、PostgreSQL 和 Kubernetes 等领域提供的服务每周支撑超过 100 万台虚拟机运行,可帮助客户将云成本降低多达 70%。Ubicloud 获得了 Y Combinator 及其他知名硅谷投资机构的支持。欲了解更多信息,请在 X 上关注 Ubicloud @ubicloudHQ,或访问 ubicloud.com。

/END/

征稿启示

面向社区长期正文,文章内容包括但不限于关于 ClickHouse 的技术研究、项目实践和创新做法等。建议行文风格干货输出 &图文并茂。质量合格的文章将会发布在本公众号,优秀者也有机会推荐到 ClickHouse 官网。请将文章稿件的 WORD 版本发邮件至:Tracy.Wang@clickhouse.com。

1月11日,供应链知情人士透露,闪迪已向部分下游客户提出了一项被业界称为“前所未闻”的供应合同:要求客户支付100%现金预付款,以锁定未来1至3年的存储芯片配额。

通常情况下,半导体供应链合作多采用分期付款或信用账期模式,闪迪此次推出的“100%全额预付”制度彻底打破了行业惯例,对买方的现金流提出了极端挑战。

尽管条款极为严苛,但在AI基础设施建设对存储设备产生“刚性需求”的背景下,部分急需扩充算力的云服务供应商不得不考虑接受这一条款。

此外,闪迪也将此类合同谈判范围扩大到了PC、智能手机及模组厂商。

除了付款方式上的强硬,野村证券在最新的客户报告中明确指出:“闪迪用于企业级SSD的NAND报价,在3月份期间可能环比上涨超过100%。”

目前尚不清楚企业级产品价格翻倍将在多大程度上波及消费级市场,但野村证券警告称,由于智能手机和PC使用的3D NAND与企业级芯片产自同一晶圆厂,通常情况下,消费级产品价格会跟随企业级产品上涨。


📌 转载信息
原作者: ubert
转载时间: 2026/1/11 23:08:07

在  2025 年 9 月的云栖大会上,阿里巴巴集团 CEO 吴泳铭发表演讲认为实现 AGI 是个确定性事件,实现全面超越人类的 ASI 才是终局。

ASI 的概念起源,通常会追溯到统计学家 / 密码学家 I. J. Good 在 1965 年发表的文章: “Speculations Concerning the First Ultraintelligent Machine”,在性质上更接近学术随笔讨论。因此,排除所有面向资本市场的叙事后,如何准确理解 ASI ,某种程度上也决定了阿里云的去路和归处。

吴泳铭认为实现 ASI,需要满足两大核心条件:

  1. AI 能获取真实世界的全量原始数据;

  2. 实现 “Self-learning(自主学习)”,即 AI 能为自身模型搭建训练基础设施、优化数据流程与升级架构;

两个条件的“基础设施味”都很重,再结合阿里广为人知的 3800 亿投资计划,导向已经十分明显:在一段时间内,阿里云都会是企业在 AI 时代的“隐形”支撑者、赋能者和陪跑者。相比于平台注册数据、公有云 Token 调用数据……客户数据 + 基础设施投产进度,是阿里云业务发展更重要的 KPI。

据 IDC 2025 年对中国公有云基础设施市场的追踪报告:阿里云在多个行业市场份额位列第一,典型市场包括金融行业占比 43%、汽车行业占比 40%、游戏行业占比 41%。

阿里最新财报则提到,在 2026 财年第二财季,云智能集团累计收入 398.24 亿元,同比增长 34%,为历史最佳表现。但整个阿里巴巴经营利润为 53.65 亿元,同比下降 85%,主要归因于对即时零售、用户体验以及科技的投入,其中所谓科技投入,特指云 + AI  基础设施方面的支出。有信息指出,泰国、韩国、墨西哥等地新数据中心,都是阿里云在 2025 年开服。

从市场份额增长到利润下降,二者之间的差值,或许就是寻找 ASI 的“路费”。抛开资本市场不谈,普通人很难理解这份“路费”的价值与合理性,大家更乐于见到“Manus 式”的 C 端产品上岸故事,而不是一家云计算公司如何帮助成千上万家实体企业做 AI 提效。

这也使得 2025 年的阿里云极具“反差感”:一方面,它是中国云计算市场的领头羊,决计要做全球领先的人工智能服务商;另一方面,在最热闹的 AI 营销大战中,它又似乎不那么性感。

阿里云的“反差感”之一: AI 不能只靠“热闹”赚钱

从 2025 年初到 2025 年底,国内的 AI 热度实际是由有限的几个 C 端应用串联而成的,包括了:DeepSeek、元宝、千问、豆包、夸克、蚂蚁阿福等。而 AI 原生 App 的月活,在这些应用的影响下,量级也来到了数以亿计。剩下一部分公共注意力,则被具身智能包揽。

AI ToC 应用的火爆,加速了 AI 的落地。

由于 C 端火热,全民对 AI 的前景抱有期待,让企业内部“要不要上 AI”更容易达成共识。此外大量 C 端产品的出现,造成了技术价值外溢,间接推动提示词工程、Agent 工作流、评测方法、开源工具带入企业。

最后,20% 的头部 ToC 产品瓜分了互联网 80% 的流量,作为数字世界入口,它们把 AI 做成默认功能,倒逼企业被动升级对接与治理策略(尤其是权限、数据边界、知识库)。

应该说,过去一年, AI ToC 实在太热闹了,以至于在 AI 时代,市场教育经常是不需要的。

如果将这些 C 端产品的北极星指标定为“用户价值 x 增长效率 x 商业化质量”,前两者看似已经完成了,独独商业化质量成为了“拦路虎”。

北美 AI ToC 类工具,无论是 Coding 工具,还是搜索工具,一般都是付费订阅的,最低档通常为 20 美元 / 月。而国内大部分 C 端 AI 工具,通常是免费的,没有订阅收入。换句话说,“用户愿付费的核心场景”还没找到。当 C 端竞争主要集中在渠道和入口问题上,这种从“热闹”到“留存 / 付费”的落差,成为了 2025 AI ToC 最大的结构性矛盾。

AI 在 B 端的进展,某种程度上要比 C 端的进展更为顺利。至少在业务的核心评估模型上,不存在明显短板。AI ToB 领域以云模式、项目制 / 交付制为主,目标主要包括:

  1. Attach Rate(云挂载率,有多少项目最终绑定了云用量 / 云产品)

  2. Time-to-Usage(从验收到产生稳定用量的时间)

  3. Post-GoLive 90 天用量达标率(交付后 90 天,达到预期用量 / 调用量 / 活跃服务数的客户占比)

  4. 云侧 NRR(“某批上线客户”半年后 / 一年后是否扩张)

  5. 项目对云的“单位获客成本”

五大指标在 AI 的牵引下,都已经进入自增长轨道。

云计算的核心竞争标的是客群,这是阿里云的天然优势。

一方面,庞大且稳定的客群将云变成了复利生意,是将 AI 业务收入越做越厚的基础。另一方面,ToB 的关键在于需求驱动,数以百万计的客户每天反馈的问题和需求,本身就是 ToB 企业最大的护城河。有足够客群的企业,可以在工单中组装未来演进路线;没有足够客群的企业,只能靠猜和跟随。

在 2025 年 12 月底的一场小规模沟通会中,阿里云智能集团资深副总裁、公共云业务事业部总裁刘伟光表示,2025 年他拜访了 146 个客户,包括汽车主机厂、机器人、基础大模型公司、金融、手机、AI 硬件、零售行业、在线教育、物流、制造业、医疗制药、大型跨国企业、食品加工、漫剧短剧、畜牧业等,几乎覆盖了各行各业。

从拜访结果来看,企业引入 AI 改善业务流程和产品的决心,要比 C 端消费者购买一个 AI 语音助手的决心要大得多。更关键的是,企业使用 AI 具有强连续性的。

在重工业制造领域,诸如 AI 顾问、设备维修助手、智能客服、财务助手、工艺标准 AI 助手、试验在线助手这些新兴事物正在形成的过程中,价值空间巨大。

在农牧业,比如国内两家最大的龙头集团,已实现猪兽医领域大模型"猪小新"、实现猪场猪只数量识别、猪死淘鉴定、后备猪筛选、猪异常行为识别等业务场景,通过体貌图片等数据,实时获取猪群健康信息,交由 AI 系统能够在后台快速完成初步诊断。即便是新手员工,也能凭借平台系统辅助,像经验丰富的养殖专家一样快速判断猪群的健康状况,并及时处置指导,降低了对资深专家经验的依赖。

在线教育行业,习题问答、作业批改都已经是成熟场景,终端设备也从 ChatBot 过渡到学习机,甚至是智能教室这样的立体解决方案。

金融行业仍然进展最快的行业之一,在部分场景下,其技术产品的储备速度,已经不亚于国际同行。比如在车险中,从前高度依赖人工的车辆定损和理赔,今天也正尝试交由 AI 来完成。

整体来看,如果不考虑应用深度、改造程度,仅从采用率口径来看, AI 对各行业的渗透将是一个恐怖的数字。

以上共同铸就了阿里云在 2025 年叙事的第一个“反差感”:尽管诸如 Kimi 这般广为人知的模型是在阿里云上训练的,其核心定位仍然偏“幕后”和“服务”,是在推动企业把 AI 写进 KPI、写进工单、写进流程,最后写进预算。

而当 AI 开始从“有没有用过”走向“每天必须用”,衡量方式就会变化:从下载量、DAU、Token 吞吐量,走向成本结构与组织结构的重估。

阿里云的“反差感”之二:流量逻辑失效

无论是下载量、DAU,还是 Token 吞吐量,本质都是在复述流量逻辑,复述移动互联网时代的增长规则。

在 AI 时代,尤其是 ToB 领域,这显然不不合时宜。

尤其是 Token 的吞吐量,恐怕是 AI 时代集精准、模糊于一身的最矛盾指标。

一方面,Token 的吞吐量等同于模型用量;另一方面,所谓模型用量只是 MaaS 平台上的模型调用,仅为全量市场的九牛一毛,且非价值单位,不能代表模型价值。

实际上,IDC 报告里的“中国公有云调用率”,这个定语本身就存在限制:大量 AI 使用根本不是调用公有云 MaaS API ,因此不可见。

而不可见的部分至少包括:

  • 通过公共云租赁 GPU 部署模型(需要大规模部署特定领域模型的企业);

  • 采购 GPU 服务器进行开源大模型私有化部署,创建私有化推理平台内部使用(金融、制造、能源等对数据外流高度敏感行业);

  • 汽车、具身智能等端侧模型闭环(时延与隐私决定无法上云实时调用);

  • 模型蒸馏后的边缘推理(云上训练、端侧运行,消费不表现为 token);

  • 下载开源大模型在企业内部使用(诸如 AirBnb 的模式);

  • 开源衍生模型的长尾使用(下载、微调、再分发,统计口径天然缺失)。

如果只按 MaaS 平台上 Token 调用量去计量,开源生态里发生的微调、蒸馏与私域部署都会被系统性抹掉。仅 Qwen 系列模型,就已有 18 万+全球衍生模型和 全球 7 亿 + 的模型下载量——这部分‘消费’不以 Token 形式出现在公共统计数据里,却已经进入企业内部的实际生产环节。

概而言之,如果把全量的 AI token 比作一座冰山,MaaS 平台上可统计的部分只是冰山露出水面的一角而已。

我们必须重置对企业 AI 用量的认知。

来自阿里云的数据显示,截止到现在,在阿里云上调用 MaaS  API 的客户,与使用 GPU 的客户重合度竟然达到 70%,这说明中国第一批深度拥抱 AI 的客户在全方位的选择不同的方式使用 AI 技术。

所以,一批正在形成“智能预算”的企业。他们既买 Token,也买算力——他们不是在做选择题,而是在做场景分级:哪里需要公有云 Token,哪里必须结合自己数据进行后训练,哪里要端侧小模型,哪里值得自建“智能工厂”:

  • 轻量场景 用 API/MaaS:客服质检、内容生成、企业知识库问答、基础办公 Copilot、翻译审核等,强调易用、快接入、低门槛。

  • 中等复杂度场景 做后训练:把业务规则、私域知识、历史行为数据灌进模型里,用微调、RAG、强化学习把“能用”推到“稳定可用”。

  • 重资产场景 直接训 / 蒸馏 / 端侧部署:自动驾驶、具身智能、摄像头多模态理解、工业设备诊断等,强调时延、隐私、安全与闭环。

这也直接改变了对企业级 AI 用量的统计算法: “公有云用量 + 专有云用量 + 开源衍生模型用量”不等于真实用量,三者存在很大的重叠部分。

另外一个问题是,模型越先进,消耗的的高质量 Token 其实越少。所谓 Token ROI ,对于深度使用 AI 的企业而言,是核心经营概念。虽然 Token 的单价下降了,但是 Agentic AI 兴起后,一次调用产生的 Token 总数也被放大了。

因为 Token 单价会越来越便宜,所以刻意忽视企业在为更多低效 Token 而付费的事实,颇有点掩耳盗铃的味道。用“吞吐量”当成唯一指标,会把“高效智能模型”误判成“低活跃”,把“唠叨模型”误判成“高消费”。

这也是为什么阿里云不断把叙事从“Token 工厂”拉回“AI 超级工厂”——后者强调的是全链路供给能力,而不是单一化的 Token 吞吐。模型能力,是背后价值兑现的关键。

2025 年 4 月底,阿里发布了 Qwen3,成为国内首个“混合推理模型”,“快思考”与“慢思考”集成进同一个模型,对简单需求可使用低算力“秒回”,对复杂问题可多步骤“深度思考”。 AIME25 测评 81.5 分,刷新开源纪录;LiveCodeBench 评测超过 70 分,超过 Grok3; ArenaHard 测评 95.6 分超越 OpenAI-o1 及 DeepSeek-R1。

同时,  4 张 H20 即可部署 Qwen3 满血版,显存占用仅为性能相近模型的三分之一。开源版本丰富,包含 2 款 30B、235B 的 MoE 模型,以及 0.6B、1.7B、4B、8B、14B、32B 等 6 款稠密模型,每款模型均斩获同尺寸开源模型 SOTA(最佳性能)。

开源是阿里云在模型竞争力上最为关键的一步棋。这允许企业可以在不签大合同、不押单一供应商的前提下先跑通 POC,这对中国企业尤其重要。

AI 价值锚点在 AI 原生市场、中国企业级市场和全球化

毋庸置疑,AI 原生企业天然地拥抱 AI,深度使用 AI,它们是中国 AI 市场的“种子用户”。

在阿里云的观察里,除了 AI 原生企业,第一批深度拥抱 AI 的企业还往往具备以下共同特征:

  • 数据治理相对成熟:Agent 上限取决于模型与数据质量——这不是口号,而是工程现实。

  • 业务流程重且连续:用量曲线更像复利而非潮汐。

  • 对安全与合规敏感:这决定了“MaaS / 云上专有环境 VPC / 私有化部署 / 端侧闭环”会长期存在,市场不可能被一种形态吃掉。

这简直是对上云并能用好云的客户的精准侧写。

这意味着:阿里云如果要把“AI 超级工厂”的投入摊薄到足够低的边际成本,并把技术优势兑现为现金流,它必须走向更大的、付费更坚实的企业级市场。

这一轮中美 AI 竞争的胜负手,就在于谁能用 AI 提升改造各自的支柱产业,带来生产力的变革。

当前,中国 AI 的第一波市场聚焦在娱乐、陪聊等消费端场景;从美国 AI 市场发展看,SAP、Salesforce 等 SaaS 软件对 AI 大模型的调用量最大,其次是 AI 编程。

Open AI 和谷歌的报告也显示,ChatGPT 和 Gemini 的企业客户调用量远超 C 端个人用户调用量。

所以,“领头羊”阿里云想要做的是,让 AI 深入到各行各业,用 AI 提升生产效率。

与此同时,当中国的 AI 原生企业在海外遍地开花,当中国的第一、第二及第三产业客户纷纷出海,使得阿里云加速剑指全球化。

刘伟光表示, 2024–2025 ,中国企业的出海,不再只是把供应链优势搬出去,而是把 AI 能力当作产品溢价的一部分

  • 新能源车出海:没有智能化能力就很难维持差异化;

  • 家电、照明、厨具等传统硬件出海:正在被“自然语言对话 + 多模态理解”重新定义交互方式;

  • 机器人、安防、摄像头等品类出海:本质上都需要端云协同的模型能力。

对阿里云来说,这类客户天然会提出“海外部署”的硬需求:低时延、数据合规、跨区域运维、弹性供给,以及在海外可用的模型服务与训练推理能力。也因此,2025 年阿里云在泰国、韩国、墨西哥等地新建数据中心的动作,不只是“基建扩张”,更像是在给下一轮 AI 应用出海提前铺路。

当然,全球化竞争,激烈程度远超国内:

  • 模型能力只是门票:语言、coding、多模态缺一不可。

  • 工程化才决定可用性:稳定性、时延、SLA、合规、跨区域交付能力,决定企业是否敢把核心流程交给你。

  • 生态与接口决定渗透速度:当软件与工具链 MCP 化、API 化,云厂商能否把“可调用的能力”变成“可组合的系统”,决定了 Agent 落地的上限。

这也是为什么阿里云正在“把 3 万多个产品的 API 服务全面做 MCP 化开放”。海外更像一个“标准件市场”,一旦你能用标准件快速交付,就能更快形成规模。

阿里云的 2025 可以被理解为一场“前置换轨”:

  • 在国内,它用开源与超级工厂体系抓住最先动起来的 AI 企业,把 AI 从“试用”推向“连续使用”;

  • 在海外,它需要把这套能力转化为规模化商业闭环——不是为了讲更大的故事,而是为了让故事具备财务可持续性。

其核心在于:先把路修出来,再等车流出现。

“这十多年来,中国云计算市场各种概念曾层出不穷,价格战屡见不鲜,但阿里云始终在牌桌上。如果用更长的时间去穿越周期洞察未来,技术能力和技术布局的前瞻性永远是核心竞争力。”刘伟光说。

本文为《2025 年度盘点与趋势洞察》系列内容之一,由 InfoQ 技术编辑组策划。本系列覆盖大模型、Agent、具身智能、AI Native 开发范式、AI 工具链与开发、AI+ 传统行业等方向,通过长期跟踪、与业内专家深度访谈等方式,对重点领域进行关键技术进展、核心事件和产业趋势的洞察盘点。内容将在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。

 

我们采访了无问芯穹联合创始人兼 CEO 夏立雪,他指出,2025 年之前,算力集中于 “造模型”;2025 年起,“用模型” 的算力需求快速起量,尽管单纯扩大模型规模的边际回报递减,但整体算力需求并未下降,行业进入 “高效用模型” 的良性阶段。此外他表示,从企业一号位开始重视 AI 的公司,已在业务流中找到大量落地机会,决策层对 AI 的认知度,是未来企业拉开差距的关键。下面是详细对话内容,以飨读者。

 

两个代表性模型串联起今年 AI 圈

 

InfoQ:您眼中 2025 年科技圈的关键词是什么?您会怎样总结自己这一年的收获与遗憾?

 

夏立雪:我眼中的关键词是“跃升”。我认为,今年 AI 圈发生了非常多的可喜变化,由两个代表性模型串联,也包含了技术和产业两个角度。

 

第一个转变以 OpenAI 从 24 年底推出的 o1 模型为转折点,象征着模型从单次生成转向多步推理。第二个转变以 DeepSeek-R1 的发布为关键时刻,证明了软硬协同优化的核心价值,可以推动模型性能与应用成本巨大跃迁。而这两个模型不止带来了技术突破,也带动了巨大的产业跃升:一系列推理模型的不断出现使得 AI 能从事的工作越来越丰富,而开源模型(特别是中国的开源模型)站上人工智能舞台中央,大大加速了世界范围内各种 AI 技术的部署和实验,最终促成了行业智能体为代表的各种应用新物种的诞生。

 

与这个跃升相对应的,人工智能基础设施的关键指标在执行研发任务所需的“性能、资源利用率、算力成本”等基础保障指标之上,新增关注智能体规模化服务的“业务弹性、并发稳定性、可观测性、安全性”等服务效果指标,为这个堪称第四次工业革命的时代做好基础设施准备。

 

回头来看这一年,我很幸运能见证技术浪潮的重要拐点,而我们的技术路径能在其中创造真实价值,这种体验带来的信心,比任何事都珍贵。同时我也见证了团队的成长——既能沉下心打磨产品、陪客户啃硬骨头,又能持续在复杂的事情里面找最重要的问题,就像写数学公式一样,把最需要找到的核心剥出来,这个过程里,人是最大的收获。

 

算力需求却没有下降

 

InfoQ:在您看来今年跑出来了哪些明星公司,以及带来了怎样的行业影响?哪些企业相对落后了?

 

夏立雪:DeepSeek 是今年公认的明星公司。从生态上看,R1 的出现和它的开源姿态,极大地活跃了 AI 中下游的创新生态,让许多创业公司和开发者,能以更低的门槛获得接近前沿的推理能力,去试验和构建自己应用。

 

从算力用量上看,虽然整体上单纯扩大规模的回报在边际递减,但算力需求却没有下降。因为如果把模型制造和使用方当作一个整体玩家,你会发现从去年到今年初,基本全部算力资产都配置在了“如何造模型”,今年开始“如何用模型”的算力起量,这也是一个良性的变化。

 

关于企业的领先和落后,我的观点是 AI 是一个全新的“物种”,每一个行业都有与 AI 紧密合作的巨大机会。而我看到的现象是,在同一个行业中,自一号位开始认真拥抱 AI 的,明显已经在自己的业务流中找到许多落地的机会了,所以决策人的认识是未来拉开差距的关键点。而 AI 还在不断创新,所以我更愿意说这是一场面向未来的、所有玩家都需要边跑边学的马拉松。

 

InfoQ:根据您的观察,科技公司今年面临的压力如何?对此采取了什么样的应对措施?员工们的状态如何?(可以针对广泛的科技圈,也可以是您所在公司或细分行业公司)

 

夏立雪:今年的行业压力,更多还是在兴奋与焦虑中负重转向。以 DeepSeek 为代表的推理范式和智能体应用前景的爆发,给大家带来了一些转型压力。这种转型不止是应用产品的迭代,它会牵动整个技术栈、组织架构和商业逻辑的变化,大家都在焦虑自己的速度能否跟上范式迁移的浪潮。

 

面对快速的变化,一个组织最容易遇到的问题就是决策困难,而我们因为从诞生之日就以“让 AGI 触手可及”为目标,所以在复杂的变化中能够保持冷静和坚定,比较早就洞察到了变化,率先在相应领域进行了布局,这也是创业公司的敏捷性优势,让我们在变局中保持了一定的主动性和节奏感。甚至我们会认为,今年的许多变化都是让通往目标的路径更清晰的喜讯,这让我们信心满满。

 

在员工状态方面,作为一家身处前沿的 AI 企业,我们看到许多同事展现出极强的适应性与学习热情,积极拥抱技术变革带来的挑战。整体上,团队在对技术未来充满信心的同时,也对工作稳定性和清晰的职业发展路径产生了更强烈的期待——这是一种理性和积极并存的健康状态。

 

全球在真正生产中使用中国 AI

 

InfoQ:经过一年竞赛,国内前沿 AI 水平取得了怎样的成绩?是否赶上了硅谷科技公司?

 

夏立雪:最近 OpenRouter 和 a16z 合作的报告里讲得很清晰,全球对开源模型的使用激增与 DeepSeek V3 和 Kimi K2 等主要开放模型发布相吻合,而且这些增长持续了长时间,说明全球正在真正的生产中使用中国 AI。我们今年也自己出去走了走,体感是高度一致的。

 

这个时代可以说,是自工业革命以来,中国第一次能够以技术引领者,而不仅仅是追随者的身份,站在一场世界级产业革命的前沿。我们不仅在解决别人的问题,更在定义新的问题、新的赛道和新的游戏规则。

 

InfoQ:您认为,2026 年的技术赛点可能是什么?您会重点关注哪些行业和技术?

 

夏立雪:2026 年的技术赛点可能还是聚焦在智能体上,基础设施如何让数字世界智能体在各种场景中规模化落地,以及如何通过云端协同帮助具身智能(作为物理世界的智能体)从实验室走向特定场景的落地验证,是我们会重点关注的方向。