一个中国AI,让硅谷最热独角兽公开道歉
你有没有想过—— 当你打开 Cursor 写代码,当你在 Perplexity 搜索,当你用某个"美国产品"感叹"AI真厉害"的时候…… 底层跑的,可能是一个北京团队写的模型。 这个团队叫月之暗面,他们的产品叫 Kimi。 而就在2026年开年,他们做了一件让整个全球AI圈都没想到的事。 3月下旬,AI编程圈发生了一件"罗生门"级别的事件。 估值500亿美元的编程工具 Cursor,推出了新一代旗舰模型 Composer 2,主打"长周期智能体编程",宣传得有声有色。 然后——有人扒出来了。 一个网友操作了一下 base URL,发现里面藏着这样一串字符: 翻译一下:Cursor花了大价钱包装的旗舰模型,底座是 Kimi K2.5。 舆论炸了。马斯克转发评论。Cursor创始人不得不公开道歉。 月之暗面随后确认:双方通过 Fireworks AI 平台存在正式授权合作。 一个来自北京的开源模型,成了硅谷最热编程工具不敢说出口的秘密。 这一天,Kimi 赢得了任何广告都买不来的品牌溢价。 Kimi K2.5 于2026年1月27日正式发布开源。 发布20天内,Kimi的累计收入超过了2025年全年总收入。 1月订阅订单环比增长 8280%,在 Stripe 全球榜单上从百名开外直接冲进前十。 但数字背后,真正的故事是技术。 过去的AI,是你问一句、它答一句。 它可以同时调度最多 100个子Agent分身,并行处理 1500个步骤,所有角色分配、任务拆解、最终验收,全部由主Agent自动完成。 这不是对话,这是自动化作战。 处理100万字的文档,传统Transformer的计算量会呈平方级增长——越长越慢,慢到用不起。 Kimi 团队自研了 Kimi Linear,一种混合线性注意力架构,打破了"所有层必须全注意力"的行业惯例。 结果:在128K到100万字的超长上下文中,解码速度提升5到6倍。 过去模型的每一层,都无差别地叠加前面所有层的信息——重要的和不重要的一视同仁,层数越多,关键信息越被稀释。 Kimi 提出的 Attention Residuals(注意力残差),让模型像人一样"有选择地回忆"——每层根据当前需求,主动调取最值得参考的信息。 48B参数模型训练效率因此提升 1.25倍。 这篇论文发布后,马斯克公开表示"令人印象深刻",OpenAI前研究副总裁 Jerry Tworek 评价:这标志着"深度学习2.0"时代的到来。 顺带一提,这篇论文的第一作者——是一个来自深圳的17岁在读高中生。 2025年初,DeepSeek横空出世,以极低成本开源,让整个中国AI创业圈陷入存在危机。 外界的声音是:模型公司还有独立存在的价值吗? 月之暗面创始人杨植麟的回答,不是一句话,而是一个选择—— 继续死磕基础模型,坚持开源,放弃短期流量,押注技术长期主义。 他们是全球第一个在超大规模训练中跑通 Muon优化器 的公司,解决了Adam优化器十年来的扩展瓶颈。 他们把 MuonClip、Kimi Linear、Attention Residuals 全部开源,贡献给全球开发者社区。 2026年3月,英伟达GTC大会,杨植麟成为唯一受邀现场演讲的中国独立大模型公司创始人,用40分钟向全球系统披露Kimi的技术路线图。 从北京出发,站上硅谷最大的舞台。 4月,Kimi K2.6 Code Preview 已进入内测,专攻代码生成与Agent能力,预计5月正式发布。 与此同时,下一代旗舰 Kimi K3 已在研发中——据传参数规模将达到3到4万亿,直接对标美国头部模型。 月之暗面内部信透露的目标只有一个字: 超越 Anthropic。 有人问,中国AI和美国AI的差距到底有多大? K2.5 给出了一个答案: 当你以为在用美国产品的时候,你可能已经在用中国技术了。 这不是一个追赶的故事,这是一个已经发生的故事。 而月之暗面,才刚开始。 如果你觉得这篇文章有价值,欢迎转发给关注AI的朋友。 关注我,持续追踪全球AI最新动态。 本文由mdnice多平台发布一个中国AI,让硅谷最热独角兽公开道歉
它用美国顶尖实验室1%的资源,做出了让马斯克点赞、让Cursor跪地认错的模型。
01 | 那个让Cursor道歉的故事
accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast02 | K2.5到底强在哪里?
🔹 它重新定义了"Agent"
K2.5 不一样——它是一个指挥官。🔹 它解决了长文本的速度死穴
🔹 它用"注意力残差"重写了Transformer的记忆方式
03 | 一家公司,做了一个反常识的选择
04 | 下一步,他们盯着什么?
写在最后