标签 K2.5 下的文章

一、

前天,Kimi 突然发布了旗舰模型 K2.5,事先没有一点风声。

在国内,Kimi 是比较低调的公司,关注度相对不高。但是,它的产品并不弱。

半年前,K2 模型一鸣惊人,得到了很高的评价,公认属于全球第一梯队。所以,新版本 K2.5 出来以后,立刻上了新闻,在黑客新闻、推特等平台都是热门话题。

著名开发者 Simon Willion 当天就写了详细介绍

但是,这一次真正有趣的地方,不是模型本身,而是 Kimi 做了另一件事。

二、

这次的 K2.5 很强,各方面比 K2 都有进步。官方给出的评测跑分,基本都是全球前三位,甚至第一名(见发布说明)。

根据 LMArena(现改名为 arena.ai)的榜单,Kimi K2.5 的编码能力,是所有开源模型的第一,在总榜上仅次于 Claude 和 Gemini(下图)。

但是,最大的亮点其实不是模型,而是 Kimi 同时发布了一个基于这个模型的 Agent(智能体)。

也就是说,这次其实同时发布了两样东西:K2.5 模型和 K2.5 Agent。K2.5 是底层模型,K2.5 Agent 则是面向最终用户的一个网络应用。

我的印象中,这好像是第一次,大模型公司这么干。以前发布的都是模型本身,没见过谁把模型和 Agent 绑在一起发布的。

这么说吧,Kimi 走上了一体化的道路。

三、

大家知道,大模型是底层的处理引擎,Agent 是面向用户的上层应用。

它们的关系无非就是两种:分层开发和一体化。前者是大模型跟 agent 分开,各自开发;后者是做成一个整体一起开发。

前不久,被 Meta 公司高价收购的 Manus,就是分层开发的最好例子。

Manus 使用的模型是 Anthropic 公司的 Claude,它自己在其上开发一个独立的智能体,最终被收购。

它的成功鼓舞了许多人投入智能体的开发。因为模型的投入太大,不是谁都能搞的,而智能体的投入比较少,再小的开发者都能搞。

Kimi 这一次的尝试,则是朝着另一个方向迈出了一大步,把大模型和 Agent 合在了一起。毕竟,大模型公司自己来做这件事更方便,更有利于扩大市场份额、争取用户。

很难说,这两种做法哪一种更好。就像手机一样,苹果和安卓的外部应用,可以更好地满足用户需求,而自带的内置应用则能充分跟操作系统融合,用起来更顺滑。

四、

模型的测试已经很多了,下面我就来测一下,这次发布的 K2.5 Agent。

看得出来,Kimi 对 Agent 很重视,倾注了很大心血,发布说明的大部分篇幅介绍的都是 Agent 的功能。

其中有几个功能是比较常规的:

(1)Kimi Office Agent:专家级的 Word、Excel、PowerPoint 文件生成。

(2)Kimi Code:对标 Claude Code 的命令行工具,专门用于代码生成。

(3)长程操作:一次性完成最多1500步的操作,这显然在对标以多步骤操作闻名的 Manus。

我比较在意的是下面两个全新的功能,都是第一次看到,其他公司好像没有提过。

(4)视觉编程:通过模型的视觉能力,理解图片和视频,进而用于编程。只要上传设计稿和网页视频,就能把网页生成出来。

(5)蜂群功能(agent swarm):遇到复杂任务时,Agent 内部会自动调用最多100个 Agent,组成一个集群,并发执行任务,比如并发下载、并发生成等。

碍于篇幅,我就简单说一下,我的"视觉编程"测试结果。

五、

首先,打开 Kimi 官网,K2.5 已经上线了,能够直接使用(下图)。

注意,模型要切换到"智能体模式" K2.5 Agent。

我的第一个测试是动效生成,即上传一段动画效果的视频,让它来生成。下面是原始动画,是用 Lottie 库做的。

上传后,在网页输入提示词:

视频里面的动画效果,一模一样地在网页上还原出来

模型很快推断出,这是橘猫玩球的动画。然后,居然把动画每一帧都截图了,进行还原。

最终,它使用 Python 生成了 SVG 动画文件。

尾巴、眼球、小球滚动的动画效果,都正确还原出来了。可惜的是,主体的小猫是由多个 SVG 形状拼接而成,没法做到很像。

大家可以去这个网址,查看最终效果和网页代码。

六、

第二个测试是上传一段网站视频,让模型生成网站。

我在 B 站上,随便找了一个设计师网站的视频

大家可以去访问这个网站,看看原始网页的效果。

我把视频上传到模型,然后要求"把视频里面的网站还原出来"。

生成的结果(下图)完全超出了我的预期,还原度非常高,几乎可以直接上线。

大家可以去这个网址,查看生成的结果。

七、

经过简单测试,我的评价是,Kimi K2.5 Agent 的"视觉编程"不是噱头,确实有视觉理解能力,完全能够生成可用的结果。

目前看上去,Kimi 这次"模型 + Agent"的一体化尝试是成功的。一方面,强大的 Agent 发挥出了底层模型的能力,方便了用户使用;另一方面,模型通过 Agent 扩展了各种用例,可以吸引更多的用户,有利于自身的推广。

最后,在当下国际竞争的格局之中,一体化还有一个额外的优势。

Manus 依赖的是美国模型,最终不得不选择在海外注册公司,而 Kimi 的底层模型是自研的,而且开源,完全不存在卡脖子的风险。

(完)

月之暗面正式发布了 Kimi 的官方编程工具 Kimi Code。这不仅仅是一个代码生成器,而是一个可以直接在终端运行、具备自主规划能力的 AI Agent。它基于 K2.5 模型,支持多模态输入(图片和视频),并能通过 ACP(Agent Client Protocol)协议无缝集成到 VSCode、Cursor、JetBrains 和 Zed 等主流编辑器中。

image.png

对于开发者而言,Kimi Code 实现了“阅读代码”到“执行命令”的闭环,覆盖了从构建、调试、重构到测试的端到端任务。

以下是关于 Kimi Code CLI 的核心功能、安装配置及高阶使用技巧。

Kimi Code CLI 是什么

Kimi Code CLI 是一个运行在终端中的智能代理。与传统的对话机器人不同,它具备操作系统的执行权限。它可以:

  • 阅读和编辑代码:直接修改源文件,而非仅仅给出建议。
  • 执行 Shell 命令:运行构建、测试脚本。
  • 自主规划:在遇到错误时,自动分析日志并尝试修复,形成“执行-反馈-修正”的循环。

它既是一个独立的终端工具,也可以作为后端服务接入 IDE。

安装与环境配置

Kimi Code CLI 依赖 Python 环境(建议版本 3.12-3.14)。

第一步:使用 ServBay 准备 Python 环境

打开 ServBay,在「软件包」中,找到并安装 Python 3.13(这是 Kimi Code 推荐的最佳兼容版本)。

image.png

ServBay 会自动配置好环境,确保终端调用的是这个独立的 Python 版本,拥有完整的 pip 包管理能力。

第二步:安装 uv 包管理器

有了 ServBay 提供的 Python 环境后,需要先安装 uvuv 是一个极速的 Python 包管理器,也是 Kimi Code 官方推荐的底层工具。在终端执行:

pip install uv

第三步:安装 Kimi Code CLI

现在 uv 命令已经可用了,直接使用它来安装 Kimi Code:

uv tool install --python 3.13 kimi-cli

image.png

安装完成后,验证是否成功:

kimi --version

image.png

初始化与配置

在项目目录下输入 kimi 即可启动交互界面。

首次使用推荐通过 /login 命令登录 Kimi 账号,系统会自动同步可用的模型配置。如果需要使用特定的 API Key,也可以通过 /setup 手动配置端点和密钥。

项目索引

进入一个新项目时,建议先运行 /init。这会让 Kimi 分析项目结构并生成 AGENTS.md 文件。这个文件相当于给 AI 看的“项目说明书”,能显著提升后续任务的准确率。

核心工作流

Kimi Code CLI 的交互采用了类似 Shell 的混合模式,按 Ctrl-X 可在 Agent 模式(对话)和 Shell 模式(执行原生命令)之间切换。

1. 功能开发与重构

在 Agent 模式下,直接用自然语言描述需求。Kimi 会遵循“阅读 → 修改 → 验证”的流程。

例如:

“给用户列表页面添加分页功能,每页显示 20 条记录,样式参考现有的 Button 组件。”

它会自动搜索相关文件,理解上下文,进行代码修改,并保持代码风格的一致性。

2. 排查与修复

遇到报错时,可以直接粘贴错误日志,或者让 Kimi 运行测试命令。

“运行 npm test,如果有失败的用例,请帮我分析原因并修复。”

在处理复杂逻辑时,可以通过 /model 切换到支持 Thinking 模式的模型(如 k2-thinking),让 AI 在输出方案前进行更深度的逻辑推演。

3. 自动化任务

对于繁琐的批量操作,CLI 优势其实挺多的,比如:

  • 把 src 目录下所有 .js 文件的 var 声明改成 const 或 let。
  • 分析 logs 目录下的日志,统计接口平均响应时间。
  • 把 images 目录下的 PNG 转换为 JPEG。

高阶技巧

  • @路径补全:在对话中输入 @ 可以快速引用项目中的文件,例如 帮我解释 @src/core/scheduler.py 的逻辑
  • 多模态输入:支持直接粘贴剪贴板中的图片。如果是 UI 调整任务,截图给 AI 往往比文字描述更高效。
  • YOLO 模式:默认情况下,AI 的每一个文件修改和命令执行都需要用户确认。如果你在 Docker 容器或测试环境中运行,可以使用 /yolo 命令开启“大胆模式”,跳过所有确认步骤,实现全自动执行(生产环境慎用)。

集成到编辑器

Kimi Code 支持 ACP 协议,这意味着它不仅活在终端里,也能集成到 JetBrains 系列 IDE(IntelliJ IDEA、PyCharm、WebStorm 等)中。

首先需要在终端获取 Kimi 的安装路径:

which kimi

复制输出的路径(例如 /Users/username/.local/bin/kimi)。

配置 AI 助手

打开 IDE 的 AI 聊天面板(通常需要安装 AI Assistant 插件),在菜单中点击 "Configure ACP agents" ,添加如下配置:

{
  "agent_servers": {
    "Kimi Code CLI": {
      "command": "/Users/你的用户名/.local/bin/kimi", 
      "args": ["acp"],
      "env": {}
    }
  }
}

注意: command 必须填入第一步获取的完整绝对路径。

开始使用

保存后,在 AI 聊天的 Agent 选择器中即可看到 Kimi Code CLI。

总结

Kimi Code 并没有花里胡哨的功能,但是它解决了开发者的问题,开发者不需要离开终端,就能让 AI 动手写代码。配合 ServBay 提供的稳定 Python 环境,不仅安装过程更顺畅,也能让 AI 工具在隔离的沙盒中高效运行,避免对系统造成干扰。

目前该工具处于技术预览阶段,建议在非生产关键路径上先行试用。