最近在折腾 OpenClaw (小龙虾)+ n8n 工作流 做一些自动化任务,现在主要是薅 Google 的 $300 API credit 。

主力模型用的是 Gemini 3 Flash ,整体体验挺好,速度快、工具调用也稳,基本能顶住日常 workflow 。不过 Gemini 3.1 Pro 有调用限额,所以很多任务还是得靠 Flash 。

现在的问题是:
想找一个 性能大致对标 Gemini 3 Flash ,但更有性价比的模型 做备用 / 分流。

另外我本地也有一张 4090 ,所以也在考虑顺便搞个 本地模型做 fallback ,简单任务或者离线的时候用。

在各大主流 ai 问了一圈,投票如下:

云端模型(对标 Gemini 3 Flash )

Kimi K2.5-K2 ( 4 票)

DeepSeek R1 / V3.2 ( 1 票)

本地部署( 4090 )

DeepSeek-R1-Distill-Qwen-32B ( 4bit )( 3 票)

GLM-4.7-Flash ( 30B A3B MoE )( 2 票)

目前的思路大概是:

主力:Gemini 3 Flash

云端备用:Kimi / DeepSeek

本地:跑一个 30B 左右模型兜底

不过我自己还没实际长期跑过这些组合,所以想听听大家的真实使用经验:

Kimi K2.5 和 DeepSeek V3 / R1 实际体验怎么样?

有没有 性价比能接近 Gemini 3 Flash 的模型?

4090 本地模型现在比较稳的是不是还是 32B 这一档?

欢迎拍砖,主要想听听长期在用的经验。

标签: none

添加新评论