标签 AI API 下的文章
当 AI API 遇上 Web3:永久免费使用 200+ AI 模型还能赚钱?
HodlAI: Web3 × AI 的创新融合
一、问题:AI API 的付费模式太"Web2"了
用过 OpenAI/Claude/Gemini 等 API 的人都知道:
- 先充值,后使用
- 用多少扣多少
- 花完再充,无限循环
这本质上是 SaaS 订阅模式——你永远在为使用权付费,而不是拥有什么。
但 Web3 的核心理念是什么?持有即权益。
有没有可能,把这个理念用到 AI 服务上?
二、HodlAI 的解法:代币 = 永久会员卡
HodlAI 提出了一个简单但巧妙的模型:
| 对比项 | 传统模式 | HodlAI 模式 |
|---|---|---|
| 投入 | 充 $100 | 买 $100 代币 |
| 使用 | 用完归零 | 每天有额度 |
| 资金归属 | 资金锁在平台 | 代币在自己钱包 |
| 性质 | 纯消费 | 消费 + 投资 |
| 续费 | 用完再充 | 每天自动刷新 |
核心公式
每 5 万代币 = 每日 $1 API 额度
持有 50 万代币,每天就有 $10 免费额度,可以调用 GPT-5 、Claude 4.5 、Gemini 3 等 200+ 模型。
三、钱从哪来?交易税驱动的永续资金池
这是最关键的问题。
HodlAI 的答案:3% 交易税,100% 进入 API 资金池。
代币每笔买卖 → 3% 税收 → API 资金池 → 按持有量分配
↑ ↓
└──────── 交易越活跃,池子越大 ←─────────┘
正向飞轮效应
- 更多人持币
- → 更多交易
- → 更大资金池
- → 更多 API 额度
- → 更多人想持币
- → 回到 1
四、防作弊:Diamond Hands 钻石手机制
如果没有限制,套利党会这么玩:
买入 → 用光免费额度 → 立刻卖出 → 下次再来
HodlAI 用**"钻石手机制"**解决这个问题:
| 持有时间 | 额度释放 |
|---|---|
| 0-5 分钟 | 0%(冷启动) |
| 5 分钟后 | 10% 额度释放 |
| 每小时 | +4% 递增 |
| 24 小时不卖 | 100% 满额度(钻石手) |
| 曾经卖过 | 永久最高 80%(纸手惩罚) |
⚠️ 持有时间通过链上数据验证,无法作弊。
五、透明度:Stripe 账单公开可查
很多项目说"税收用于开发",但谁也不知道钱去哪了。
HodlAI 做到了真正的透明:
- ✅ 每一笔 API 充值都公开
- ✅ 提供 Stripe 官方账单链接
- ✅ 任何人可以点击验证
- ✅ 团队 0 抽成
这不是"相信我们",而是"你自己来查"。
六、风险提示
说完优点,也要说风险:
- ⚠️ 代币价格波动:可能涨,也可能跌
- ⚠️ 项目早期:模式新颖但未经长期验证
- ⚠️ 依赖交易量:如果没人交易,资金池增长会停滞
七、项目特点
这个项目的创新点在于:
用 Web3 的代币经济模型,解决 Web2 的订阅付费痛点。
它回答了一个问题:Meme 币除了炒作,能不能有实际用途?
HodlAI 的答案是:可以,把代币变成"AI 服务的永久会员卡"。
这个模式能不能跑通,需要时间验证。
但至少,这是目前有的最有想象力的 Web3 × AI 结合尝试。
八、项目愿景
我们相信,AI 服务不应该是永无止境的订阅付费,而应该是持有即权益的价值共享。
HodlAI 是全球首个将 Web3 代币经济与 AI API 服务深度融合的创新平台。
相关链接
| 平台 | 链接 |
|---|---|
| 🌐 官网 | https://hodlai.fun/ |
| @hodlai_fun | |
| 💬 Telegram | https://t.me/hodlai_fun |
[Cloudflare 自部署项目] Cursor byok 支持, 已适配 Claude-* 模型,支持 thinking 和工具调用,需自备 Cursor Pro 与 可用渠道
全新版本,可能有点问题(但我目前没发现)如果有的话麻烦佬友提 issue 或者 pr 了
大致使用就是接入 OIDC 后,
首先新建渠道
然后创建个配置,定义一下模型输入和输出格式就好
然后添加以下渠道
如下是一些配置项:
Cursor 自带的 Opus-4.5 带 thinking 的模型名称为
claude-4.5-opus-high-thinking
不带 thinking 的叫
claude-4.5-opus-high
其中响应处理器 [“thinkingTags”] 的作用是将响应的 reason 转为 content 中的 … ,如此就能在 Cursor 中展示思考内容
仓库地址:GitHub - NickJerome/tiny-ai-api-hub
虽然最后的目标是想实现 Claude Code 也可用(测了下好像可以,但是感觉哪里怪怪的)
整理下 AI 大模型厂商和平台,能长期稳定提供免费额度的 API (非公益站)
现在 AI 的使用场景越来越多,公益站有时也不稳定,给大家整理一些能提供相对长期稳定大模型 api 的厂商和平台,作为备用或测试。
这里主要收集文本大模型,图片视频生成相关的大模型没有专门做整理。
tldr
- 国内大模型平台太卷了,免费额度真的很多,如果没有特殊需求,国内的 api 就够用了。
- 主力模型推荐:阿里 iflow, 字节火山引擎,阿里 modelscope 魔搭社区。
- 免费 vibe coding 推荐:腾讯 codebuddy, 快手 codeflicker, 阿里通义灵码 /qwen-code
最新渠道 (可能不稳定)
一些平台会不定期推出吸引用户的免费活动,适合测试,过期了的就评论下提醒我删掉。
20260109: cerebras 免费提供 glm-4.7, 注意每天免费 token 数为 100w,虽然少但速度快
- Rate Limits - Cerebras Inference: tpd-1M, rpm-10
20260105: minimax-m2.1 限免
- Cline 3.47.0 adds Background Edits and free MiniMax 2.1
kilo code 限时免费 minimax-m2.1RooCode 直接免费了 minimax-m2.1, 实测能用
20260103: NVIDIA NIM APIs 开始免费提供 glm-4.7, minimax-m2.1
- 因为才刚开始免费提供这些最新模型,所以资源紧张,速度可能较慢
- 虽然模型名没在官方页面列出,但实测已经可用了,可以用自己的 api key 试试
- api url: https://integrate.api.nvidia.com/v1
- 模型名: z-ai/glm4.7, minimaxai/minimax-m2.1
限免结束的历史渠道 (可以不定期检查下是否有新活动)
- AI Ping
- 20260109: 限时免费 Kimi-K2-0905
- 20251226:
限时免费 glm-4.7, minimax-m2.1
- AI Ping
模型限制相关说明
- rpm (Requests per minute): 每分钟请求次数
- rpd (Requests per
day ): 每天请求次数- tpm (Tokens per minute): 每分钟输入输出的 token 数
- tpd (Tokens per
day ): 每天输入输出的 token 数
Vibe Coding 免费代码工具
- 国内的 ai coding 太卷了,各家都提供了很大的免费额度
腾讯云代码助手 CodeBuddy, 独立 IDE
目前 (20251222) 免费使用 glm-4.6, deepseek-v3.1-terminus, huyuan-2.0
- 20251223: 免费提供最新的 glm-4.7
有佬友反馈可能碰到请求次数上限的问题
快手 CodeFlicker, 独立 IDE
- 目前 (20251222) 免费使用 kimi-k2-0905, deepseek-v3.2, glm-4.6, minimax-m2, kat-coder-pro
阿里 通义灵码, 独立 IDE
- 免费不限量使用 千问系列模型,但不可更换使用其他模型
阿里 qwen-code, cli 命令行
- free tier : use an OpenAI-compatible API, or sign in with Qwen OAuth to get 2,000 free requests/
day .
- rpd 每天 2000 次,免费额度很大,且长期稳定
Cline, vscode 扩展 /cli 命令行
- 提供多种使用方式,包括 vscode 里的扩展、独立的 cli
- vscode 的模型配置界面长期提供免费模型
- 20251223 免费: minimax-m2, devstral-2512, grok-code-fast, kat-coder-pro
Roo Code, vscode 扩展 / Cloud Agents
- 提供多种使用方式,包括 vscode 里的扩展、云端编程
- vscode 的模型配置界面长期提供免费模型
- Roo Code Cloud Models
- 20251223 免费: MiniMax-M2, Grok Code Fast 1
Kilo Code, vscode 扩展 /cli 命令行
- 提供多种使用方式,包括 vscode 里的扩展、独立的 cli
- vscode 的模型配置界面长期提供免费模型
- Models
- 20251223 免费: minimax-m2, devstral-2512, kat-coder-pro
- 20260105 免费: minimax-m2.1
OpenCode, cli 命令行
- 最近也提供了 OpenCode Desktop 的使用方式,长期提供免费模型
- Zen Models
- 20251223 免费: glm-4.7, minimax-m2.1, Grok Code Fast 1, Big Pickle
代码工具 Others
- 字节 TRAE, 独立 IDE
- 提供很多免费模型: GLM-4.7, MiniMax-M2.1, Kimi-K2-0905, DeepSeek-V3.1-Terminus, Qwen-3-Coder
- 还支持通过 API 密钥(API Key)接入其他平台的模型,但我没找到使用公益站 url 和 key 的方法,有知道的佬友可以指导下
- 注意小红书上有用户反馈使用最新模型时经常碰到要排队的情况,国际版和国内版都有排队的限制,而使用 auto 模型时系统很可能分配旧模型或豆包模型,此时排队的情况会少点
coding 工具说明
国内厂商或平台
阿里心流 iflow
- S 级推荐: 心流开放平台
- iflow-cli 是可以免费使用的 vibe coding 工具,对标 claude code
- 目前我所知的免费额度最大的平台,不限量,速度也很快
- 主要提供的模型:阿里千问系列模型较多, 还有 Kimi-K2-Instruct-0905, GLM-4.6, DeepSeek-V3.2-Exp, Qwen3-Coder-Plus
- 限流
- 每个用户最多只能 同时发起一个 请求,超出限制的请求会返回 429 错误码。
- iflow 社区反馈 api 可用的模型很久没更新了,官方似乎准备将更多资源投入 iflow-cli,
- iflow-cli 支持最新的 glm-4.7 / minimax-m2.1
- 通过开源转换工具如 CLIProxyAPI 可以将 iflow-cli 的免费模型转换成类似公益站的 api, 需要折腾一下,不过渠道真的很稳
字节火山方舟大模型
- 目前 每个模型 每天免费 250w token, 速度很快,体验很好,但单模型 token 不够用,经常切换模型我觉得麻烦
- 主要提供的模型:豆包系列模型较多,最新的 deepseek-v3.2, Kimi-K2-Instruct-0905
- 还提供文生图相关模型
- 免费推理额度
- rpm/tpm 各模型不同,一般 rpm 为 1000~10000, tpm 为 500w
阿里 modelscope 魔搭社区
- 每天允许进行 总数为 2000 次 的 API-Inference 调用,其中每单个模型不超过 500 次,具体每个模型的限制可能随时动态调整。
- 我不太喜欢阿里的 modelscope, 受欢迎的模型总是开放一段时间就下架,但提供的免费额度很稳定,千问系列模型很稳定
- 还提供文生图相关模型
- 限制
- 在每个模型每天不超过 500 次调用的基础上,平台可能对于部分模型再进行单独的限制,例如,deepseek-ai/DeepSeek-R1-0528,deepseek-ai/DeepSeek-V3.1 等规格较大模型,当前限制 单模型每天 200 次 调用额度。
- 在上述调用次数限制的基础上,不同模型允许的调用并发,会根据平台的压力进行动态的速率限制调整,原则上以保障开发者单并发正常使用为目标
- 在每个模型每天不超过 500 次调用的基础上,平台可能对于部分模型再进行单独的限制,例如,deepseek-ai/DeepSeek-R1-0528,deepseek-ai/DeepSeek-V3.1 等规格较大模型,当前限制 单模型每天 200 次 调用额度。
快手 KAT-Coder 系列模型
- KAT-Coder-Pro V1 和 KAT-Coder-Air 目前都提供免费使用,其中 KAT-Coder-Air 长期提供免费使用
- 我经常拿来做测试,速度很快,对结果要求不高可以试试
- KAT-Coder-Air V1 模型免费使用规则
- 高峰时段: 08:00-02:00(次日), 每 6 小时内您将可以发起 120 次 对话请求。
- 非高峰时段: 02:00-08:00, 每 6 小时内您将可以发起 200 次 对话请求
智谱 glm flash 系列模型
- 智谱 AI 开放平台 福利专区
- 少数的模型厂商自己提供免费模型 api,长期稳定,免费的都是小模型,但种类比较全
- 速度很快,但效果不好,适合用来测试
- 模型包括: GLM-4-Flash-250414, GLM-4.1V-Thinking-Flash, Cogview-3-Flash (文生图), CogVideoX-Flash (视频生成)
- 速率限制
- 限制的维度是请求 并发 数量(在途请求任务数量), GLM-4-Flash 为 200, GLM-4V-Flash 为 10
硅基流动 SiliconFlow
- 长期稳定提供免费的小模型,大多 7b/8b/9b 的小模型,速度快
- 不提供 32b 以上的免费模型,小模型质量较差,我平时用的少
- Rate Limits
- 大多都是 tpm-50k
国内 Others
上面都是我用的比较多的,下面是一些其他免费模型,大家也可以补充
美团 LongCat 系列模型
- LongCat API 开放平台
- 每个账号每天自动获得 500,000 Tokens 免费额度
- 单次请求限制 输出文本:最大 8K Tokens, 当触发限流时,API 将返回 HTTP 状态码 429
特别提及: 七牛 AI 大模型推理服务
- 这是我所知的国内仅有的大模型平台,官方能提供 OpenAI/Claude/Gemini 模型,不知道是不是 2API 的渠道
- 官方提供 300w 免费 token, 有效期一年,
- 速度很快,强烈推荐,能用各种模型
- AI 大模型推理服务 - 七牛云
- 官方虽然没在模型广场上写出 claude/gpt-5/gemini, 但领到资源包后,在控制台
订单管理 / 资源包管理 / 资源包明细界面 可查看具体适用范围和抵扣规则, 里面可以搜索到 claude/gpt, 实测可以在 cline/cherry-studio 这些工具里使用,并且速度可达 100+ token/s
国外厂商或平台
显卡一哥英伟达老黄的福利 - Nvidia NIM API
- 我觉得比 openrouter 更好用,似乎免费不限量
- 提供各种模型, 包括国外的模型: glm-4.7, minimax-m2.1, deepseek-v3.2, qwen3-coder-480b, kimi-k2-thinking, mistral-large, devstral
- 不支持:
- 还支持部分文生图模型,FLUX.1-dev 免费 25 requests, 可以试试
- Try NVIDIA NIM APIs
- 限制 rpm: 40
Cerebras Inference
- 我体验过的速度最快的大模型平台,速度可达 220+ token/s, S 级推荐
- 提供的免费模型较少,经常更换,现在包括: glm-4.6, qwen-3-235b-a22b-instruct-2507, gpt-oss-120b, …
- Rate Limits
- RPM: 10~30
- TPD: 1M , 每天 100w token 有点不够用,但爽就完事了
OpenRouter
- 长期稳定,模型丰富
- API Rate Limits
- 免费次数:不充钱的用户每天 50 rpd, 充了 10 刀的用户每天 1000 rpd, 在免费额度内使用不会扣费
- 注册了不需要绑卡和充钱就可以免费 50 次,只能使用模型名里面带 free 的,模型名不带 free 的不能免费使用
- 很多公益站都用了 OpenRouter 的渠道
Mistral
- 欧洲主流模型厂商,提供长期稳定的模型 api
- 我试过在官方聊天网站 Le Chat 体验的效果很差,远不如国内的模型,
- 我还试过在本地用 Ollama / LM Studio 跑 mistral/devstral 系列的模型也远不如国内的 qwen3-32b 内的模型,但 reddit 论坛很多人都在吹 mistral 系列的模型,我觉得就是老欧人的自嗨
- Rate Limits & Usage tiers
- 免费额度非常大,
- Tokens per Minute 500,000
- Tokens per Month 1,000,000,000,大约每天 rpd 是 3300w
- Codestral
- mistral 系列专注于 coding 的模型似乎有额外的免费额度,但我没用过,因为 coding 模型竞争太激烈了,有其他选择
国外 Others
groq
- 免费模型种类多,但大模型不多,大多是小模型, 免费额度较少
- 免费大模型包括: kimi-k2-instruct-0905, gpt-oss-120b, llama-4-maverick-17b-128e
- Rate Limits
- rpm - 10~60
- tokens per
day 是 100K~500K, 每天的 token 太少了,不够用
Poe
- poe 既不是模型研发厂商,也不是聚合平台,主要业务是方便用户通过 ui 创建 chat-bot 和自动化任务 bot,也提供了模型 api 供用户使用
- 免费用户每天发放 3000 points, 仅当日有效
- 官方文档提到了支持 claude-code, cline, cursor, continue
佬友 tips: 用之前建议一个个模型按费率和收费标准选一下,像 Grok-4.1-Fast 、Gemini Flash 系列、GPT-5-mini/GPT-5-nano 都不怎么耗积分
- 我个人不推荐使用这家的 api, 因为不支持结构化输出,这是 ai 非聊天类工具大多需要的基础功能
- Structured outputs are not supported
- The
strictparameter for function calling is ignored, which means the tool use JSON is not guaranteed to follow the supplied schema. - OpenAI Compatible API
ZenMux
- 目前提供了 4 个免费模型: gemini-3-flash-preview-free, xiaomi/mimo-v2-flash, kuaishou/kat-coder-pro-v1, z-ai/glm-4.6v-flash
- 测试时 gemini-3-flash 返回异常 429, xiaomi-mino 能用但速度一般
- 这个平台我看 25 年 8 月才开始运营,是不是长期稳定还要让子弹飞一会儿,以后会关注更新
- 目前提供了 4 个免费模型: gemini-3-flash-preview-free, xiaomi/mimo-v2-flash, kuaishou/kat-coder-pro-v1, z-ai/glm-4.6v-flash
Chutes- 目前限时免费的模型
有 4 个: GLM 4.5 Air, Gpt Oss 20b, Gemma 3 4b, Tongyi DeepResearch 30B- 免费的模型参数不够大,不如其他平台
- Chutes Free Models
- 目前测试注册就可以用,不需要充钱,只写了限时免费,没找到请求速度限制说明
- 不推荐使用这个平台,因为免费规则经常调整,在 25 年 7 月需要充 5 刀了才给 200rpd 免费额度
- 20251230: 已取消所有免费模型
- 目前限时免费的模型
国外平台我用的少,大家可以补充一些反馈和其他平台
其他
- 这么多免费大模型 api,不知道有没有什么好的统一管理的方法
同样是 $1 的 API,中转站的实际成本为什么差这么多?
同样是 $1 的 API ,中转站的实际成本为什么差这么多?
最近在对比一些 AI API 中转站(主要是视频 / 文生图 / 大模型),发现一个挺常见、但又不太容易第一眼看明白的问题:
同样标 $1 的价格,实际人民币成本差异非常大。
简单整理了一下逻辑,分享给有需要的人。
一、很多平台的“美元价格”只是第一层
大多数中转站都会对外标注:
模型价格 = 官方原厂价格(美元)
这一步本身没问题,但 真正影响你成本的,其实不在这里。
二、实际扣费通常取决于两个隐藏变量
在我观察过的平台里,最终人民币成本通常由 两个因素共同决定:
1️⃣ 平台设置的「美元 → 人民币」充值比例
有的平台会宣传类似:
- 1 美元 = 1 人民币
- 看起来像是 1/7 折
这一步非常容易让人误判“很便宜”。
2️⃣ 模型线路的「倍率(分组)」设置(关键)
这是很多新用户第一次根本不会注意到的地方。
常见做法是:
- 同一个模型
- 分成不同线路 / 分组
- 不同分组有 6× / 8× / 16× 不等的倍率
也就是说:
实际扣费 = 官方美元价 × 线路倍率 × 平台汇率
三、算一笔账,其实很直观
假设官方价格是 $1:
- 平台宣传:1 美元 = 1 人民币
- 实际使用线路倍率:6×
那么最终成本大致是:1 × 6 ÷ 7 ≈ 0.86
如果是 8×、16×,那就更明显了。
这时候,“1 美元 = 1 人民币”的优势,已经被倍率吃掉了。
四、另一种相对简单的做法
也有少数平台选择:
- 直接使用原厂美元定价
- 人民币只做一次正常汇率转换
- 不区分模型线路分组
- 所有请求统一 1× 倍率
这种方式的好处是:
- 成本可预期
- 计算简单
- 不需要反复确认自己走的是不是“高倍率线路”
长期使用下来,反而更接近真实的“便宜”。
五、写在最后
如果你平时调用量比较大,或者需要长期跑任务,建议一定要把「倍率」算进去再看价格,不然很容易被表面汇率误导。
如果有不同经验,欢迎补充。
公益 api(google/gemini-3-flash-previewz,ai-org/GLM-4.5)
https://aidrouter.qzz.io
sk-Eai7R0PiXX96XC2Mk6wZiYHHJn6xIC4wYjNRsgUkwZkE7oj1
zai-org/GLM-4.5
google/gemini-3-flash-preview
claude-sonnet-4
claude 应该也可以用
不支持高并发,code(渠道有风控)
当前限制 3 分钟 10 次请求
仅限合法用途,禁止二次倒卖
同时原站点支持 ldc 积分,可使用 claude 等其他模型
已修复 ldc 积分支付后无法到账问题

![[Cloudflare 自部署项目] Cursor byok 支持, 已适配 Claude-* 模型,支持 thinking 和工具调用,需自备 Cursor Pro 与 可用渠道1](https://xiaohack.oss-cn-zhangjiakou.aliyuncs.com/typecho/images/2026/01/14/20260114110314_69670772a89ef.png!mark)
![[Cloudflare 自部署项目] Cursor byok 支持, 已适配 Claude-* 模型,支持 thinking 和工具调用,需自备 Cursor Pro 与 可用渠道2](https://xiaohack.oss-cn-zhangjiakou.aliyuncs.com/typecho/images/2026/01/14/20260114110317_69670775941ef.png!mark)
![[Cloudflare 自部署项目] Cursor byok 支持, 已适配 Claude-* 模型,支持 thinking 和工具调用,需自备 Cursor Pro 与 可用渠道3](https://xiaohack.oss-cn-zhangjiakou.aliyuncs.com/typecho/images/2026/01/14/20260114110319_69670777ee9e1.png!mark)