把 qwen coding plan 接入龙虾
重度使用以后对比同时接入的 chatgpt api
发现推理能力有明显差距 至少比模型发布时候的跑分差距大很多
qwen-3.5plus 版
目前大厂的 coding plan 都处于冲量阶段 超大杯的几乎无限量使用对于底层成本肯定是亏的
会不会可能对一些 token 用量大户做降级处理? 严重怀疑他们会这么干

用量参考 我其他 coding agent token 消耗量大概在一天 30M 左右

标签: none

添加新评论