Claude Code + DeepSeek V4-Pro 真实评测:除了贵,没别的毛病
花了一整天,拿 JeecgBoot 的 Skills 生态做了一轮完整实战——OA 审批流程自动搭建、积木 BI 大屏生成、钻取报表、自动化部署、文档修改——全部跑通。唯一的毛病:贵。但考虑到能力摆在那里,这笔钱花得值。 最近 Claude 账号批量封禁的消息越来越密集。身边不少人的号说没就没,申诉基本石沉大海,重新注册还要担心下一次什么时候轮到自己——这是目前最让人焦虑的事。对一个每天重度依赖 Claude Code 的开发者来说,账号一旦挂掉,整个工作流直接瘫痪,手头项目的进度全盘打乱。 费用倒是其次。Opus 4.6 输入价格高达 $15 / 百万 tokens 确实不便宜,但相比"哪天早上打开电脑发现账号没了"的不确定感,这笔账还能算。 DeepSeek 刚好发布了 V4 系列预览版,包含 V4-Pro(1.6T 参数 / 49B 激活)和 V4-Flash(284B 参数 / 13B 激活),并且提供了兼容 Anthropic 协议的 API 端点——只需改一行配置,就能用 DeepSeek 驱动 Claude Code。账号稳定、计费透明,不用再为封号担惊受怕。 我花了三分钟配好,然后拿 JeecgBoot 的全套 Skills 做了一轮实战测试。 核心配置非常简单,DeepSeek 提供了完整的 Anthropic API 兼容层: 逻辑清晰:重量级任务走 V4-Pro,轻量任务走 V4-Flash。配置完启动,Claude Code 界面上直接显示 测试目标:用 JeecgBoot 的 BPM Skills,让 AI 自动搭建一套 OA 审批流程。 指令下达后,模型快速调用了 JeecgBoot 的 BPM 流程设计 Skills,自动生成了审批流程图和对应的配置。 第一版流程图出来之后,我发现流程走向有点问题,直接告诉它哪里不对、要怎么改。几秒钟之后修正版出来了,改得很到位。 这类 BPM 流程配置任务,传统做法要手动拖画布、逐个配置节点,少说十几分钟。AI 直接出图 + 反馈修正,两轮搞定,效率提升非常明显。 测试目标:用积木 BI 的 Skills,自动生成一张数据可视化大屏。 生成的大屏效果出乎意料地好: 大屏出来后我发现有两个小问题需要修复。把截图发过去,描述了一下问题: 修复之后: 这里要特别说一句:虽然 DeepSeek V4-Pro 不识别图片(后面详细说这个坑),但它修大屏问题的时候完全没乱打一气——通过读取配置文件 + 领域知识推断,照样精准定位问题。服不服?反正我服了。 测试目标:用积木报表的 Skills 生成钻取报表,并要求去掉表格颜色。 报表生成得很快,结构也正确。 接着让它去掉表格的颜色。秒改——这个响应速度比原生 Claude Code 还快。 改之前: 改之后: 对表格颜色这种纯配置项修改,V4-Pro 的反应极快,不需要深层推理,直接定位到配置字段然后修改,体验丝滑。 测试目标:用自动化部署 Skills 实现完整的前后端部署流程。这个任务比较复杂——前端是本地 SVN 更新、编译打包、上传服务器;后端走 Jenkins;还需要清 CDN 缓存、自动发部署日志邮件。 说实话,这任务一开始我没抱太大期望——环节太多了。但结果有点意外:前后端部署都没问题。 整个流程跑下来,SVN 更新、npm build、scp 上传、Jenkins 触发、CDN 缓存清理、邮件通知——全部自动化串联成功。对日常运维来说,省掉的不只是时间,还有"半夜部署手抖敲错命令"的心理负担。 中间穿插了一个日常高频操作:用 Claude Code 改项目文档。整个过程完全无感,如果不是终端上写着 改文档这类任务对 V4-Pro 来说属于"降维打击",速度快、理解准、输出干净。 测到一半,踩了个大坑。 DeepSeek V4-Pro 最亮眼的规格之一是 1,000,000 tokens 超长上下文,乍一看比 Claude 原版还豪横。但当我发截图时,才发现: V4-Pro 当前版本是纯文本模型,完全不支持图片输入。 Claude Code 发送图片时,V4-Pro 会收到一个占位符 对日常编程工作流来说,这个限制影响面相当广: 1M 上下文能塞进去整个代码仓库,却塞不进去一张 PNG。 但话说回来——回头看前面测试二和测试三,大屏问题和报表样式问题都是在"看不见图"的情况下修好的。它通过读配置文件、凭领域知识推断,绕过了图像这个盲区。这恰恰是最能体现能力的地方。 目前的折中办法:需要处理图片时,临时去掉 当对话内容堆积到一定量时,模型直接炸了。虽然 V4-Pro 标称 1M 上下文,但实际使用中,超长上下文 + 复杂推理 + 多轮工具调用叠加时,还是会出现不稳定的情况。 解决方案也简单:长任务拆成短会话,阶段性重置。别指望一个会话从需求分析干到部署上线。 经过这一整天的实战测试,对 Claude Code + DeepSeek V4-Pro 的组合有几点直观感受: 表现亮眼的地方: 需要提前知道的: Claude Code + DeepSeek V4-Pro,一句话评价:除了贵,没别的毛病。 OA 审批流程、BI 大屏、钻取报表、自动化部署、文档修改——五大实战场景全部通关。同期我也对接了智谱 GLM-5.1 和 MiniMax M2.7 跑同一套 Skills,这俩在工具调用上总有些小毛病——要么调用顺序乱,要么参数识别偏差,要么复杂 Skill 直接执行不下去;相比之下,V4-Pro 是目前我测过的国产模型里 Skills 配合最稳的一个,基本可以无人值守跑完全流程。 不支持图片是硬伤,但模型通过"绕路"的方式(读配置、推逻辑)在相当程度上弥补了这个短板。 更重要的是,相比 Claude 原版那种"哪天号就没了"的悬念,这套方案至少把账号稳定性这件事给解决了。如果你日常工作中截图不多、以纯代码和配置任务为主,现在就可以切过来用;如果你重度依赖图片输入,建议等 DeepSeek V4 Vision 模式开放 API 后再全面切换——那之后,这套方案就真的补全了最后一块拼图。 测试环境:Claude Code v2.1.119,DeepSeek V4-Pro(deepseek-v4-pro),2026-04-24 本文为 JeecgBoot AI 专题研究系列文章。JeecgBoot AI专题研究 | 把 Claude Code 接入 DeepSeek V4-Pro,跑完 Skills —— OA 审批、大屏、报表、部署 5 大实战场景后的真实体验

一句话结论

背景:为什么要替换掉原生 Claude?
配置过程:1 分钟完成接入
{
"env": {
"ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
"ANTHROPIC_AUTH_TOKEN": "${DEEPSEEK_API_KEY}",
"API_TIMEOUT_MS": "3000000",
"ANTHROPIC_MODEL": "deepseek-v4-pro",
"ANTHROPIC_SMALL_FAST_MODEL": "deepseek-v4-flash",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-pro",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash",
"CLAUDE_CODE_SUBAGENT_MODEL": "deepseek-v4-pro",
"CLAUDE_CODE_EFFORT_LEVEL": "max"
},
"model": "deepseek-v4-pro"
}deepseek-v4-pro,问它"你是什么模型",回答干脆利落。测试一:OA 审批流程自动搭建



测试二:积木 BI 大屏生成




测试三:积木报表——钻取报表生成 + 秒改样式





测试四:自动化部署


测试五:改文档——无感切换
deepseek-v4-pro,我甚至以为自己在用 Claude 原生模型。🚨 巨坑预警:1M 上下文 ≠ 支持图片
[Image #1],但对实际图像内容毫无感知。ANTHROPIC_BASE_URL 配置,让请求回落到 Anthropic 原生 API,用完再切回来。麻烦,但能用。DeepSeek V4 的 Vision 模式已经在规划中,开放后这个问题会从根本上解决。🐛 另一个坑:上下文太长会炸

综合感受
总结