一个中国AI,让硅谷最热独角兽公开道歉

它用美国顶尖实验室1%的资源,做出了让马斯克点赞、让Cursor跪地认错的模型。

你有没有想过——

当你打开 Cursor 写代码,当你在 Perplexity 搜索,当你用某个"美国产品"感叹"AI真厉害"的时候……

底层跑的,可能是一个北京团队写的模型。

这个团队叫月之暗面,他们的产品叫 Kimi

而就在2026年开年,他们做了一件让整个全球AI圈都没想到的事。


01 | 那个让Cursor道歉的故事

3月下旬,AI编程圈发生了一件"罗生门"级别的事件。

估值500亿美元的编程工具 Cursor,推出了新一代旗舰模型 Composer 2,主打"长周期智能体编程",宣传得有声有色。

然后——有人扒出来了。

一个网友操作了一下 base URL,发现里面藏着这样一串字符:

accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast

翻译一下:Cursor花了大价钱包装的旗舰模型,底座是 Kimi K2.5。

舆论炸了。马斯克转发评论。Cursor创始人不得不公开道歉。

月之暗面随后确认:双方通过 Fireworks AI 平台存在正式授权合作。

一个来自北京的开源模型,成了硅谷最热编程工具不敢说出口的秘密。

这一天,Kimi 赢得了任何广告都买不来的品牌溢价。


02 | K2.5到底强在哪里?

Kimi K2.5 于2026年1月27日正式发布开源。

发布20天内,Kimi的累计收入超过了2025年全年总收入。

1月订阅订单环比增长 8280%,在 Stripe 全球榜单上从百名开外直接冲进前十

但数字背后,真正的故事是技术。

🔹 它重新定义了"Agent"

过去的AI,是你问一句、它答一句。
K2.5 不一样——它是一个指挥官

它可以同时调度最多 100个子Agent分身,并行处理 1500个步骤,所有角色分配、任务拆解、最终验收,全部由主Agent自动完成。

这不是对话,这是自动化作战

🔹 它解决了长文本的速度死穴

处理100万字的文档,传统Transformer的计算量会呈平方级增长——越长越慢,慢到用不起。

Kimi 团队自研了 Kimi Linear,一种混合线性注意力架构,打破了"所有层必须全注意力"的行业惯例。

结果:在128K到100万字的超长上下文中,解码速度提升5到6倍

🔹 它用"注意力残差"重写了Transformer的记忆方式

过去模型的每一层,都无差别地叠加前面所有层的信息——重要的和不重要的一视同仁,层数越多,关键信息越被稀释。

Kimi 提出的 Attention Residuals(注意力残差),让模型像人一样"有选择地回忆"——每层根据当前需求,主动调取最值得参考的信息。

48B参数模型训练效率因此提升 1.25倍

这篇论文发布后,马斯克公开表示"令人印象深刻",OpenAI前研究副总裁 Jerry Tworek 评价:这标志着"深度学习2.0"时代的到来。

顺带一提,这篇论文的第一作者——是一个来自深圳的17岁在读高中生


03 | 一家公司,做了一个反常识的选择

2025年初,DeepSeek横空出世,以极低成本开源,让整个中国AI创业圈陷入存在危机。

外界的声音是:模型公司还有独立存在的价值吗?

月之暗面创始人杨植麟的回答,不是一句话,而是一个选择——

继续死磕基础模型,坚持开源,放弃短期流量,押注技术长期主义。

他们是全球第一个在超大规模训练中跑通 Muon优化器 的公司,解决了Adam优化器十年来的扩展瓶颈。

他们把 MuonClip、Kimi Linear、Attention Residuals 全部开源,贡献给全球开发者社区。

2026年3月,英伟达GTC大会,杨植麟成为唯一受邀现场演讲的中国独立大模型公司创始人,用40分钟向全球系统披露Kimi的技术路线图。

从北京出发,站上硅谷最大的舞台。


04 | 下一步,他们盯着什么?

4月,Kimi K2.6 Code Preview 已进入内测,专攻代码生成与Agent能力,预计5月正式发布。

与此同时,下一代旗舰 Kimi K3 已在研发中——据传参数规模将达到3到4万亿,直接对标美国头部模型。

月之暗面内部信透露的目标只有一个字:

超越 Anthropic。


写在最后

有人问,中国AI和美国AI的差距到底有多大?

K2.5 给出了一个答案:

当你以为在用美国产品的时候,你可能已经在用中国技术了。

这不是一个追赶的故事,这是一个已经发生的故事

而月之暗面,才刚开始。


如果你觉得这篇文章有价值,欢迎转发给关注AI的朋友。

关注我,持续追踪全球AI最新动态。

本文由mdnice多平台发布

标签: none

添加新评论