有卡就是牛!老黄给大家免费用 GLM-4.7 和 Minimax,附保姆级白嫖教程【转载已实测】
最近发现英伟达的 NIM(NVIDIA Inference Microservices)平台上,竟然可以免费调用 GLM-4.7 和 Minimax-M2.1 这两个重磅模型。
重点是:不需要你有 4090,也不需要复杂的部署,只需要一个 API Key。
保姆级教程:
如何免费获取 Key 整个过程非常简单,大概只需要 3 分钟。
第一步:注册与登录直接访问 NVIDIA NIM 的集成主页:
https://build.nvidia.com/explore/discover 如果你没有英伟达账号,需要注册一个。建议使用邮箱注册
第二步:手机号验证(关键)
这是很多人卡住的地方。注册成功后,为了防止滥用,英伟达要求验证手机号。** 亲测:中国大陆的 +86 手机号是可以完美支持的。** 在验证页面选择 “China”,输入你的手机号,接收验证码即可。验证通过后,你就拥有了免费调用 API 的权限。
第三步:获取 API Key
登录成功后,在模型列表中随便点开一个模型(比如 DeepSeek-R1 或 Llama-3)。点击页面右上角的 “Get API Key” 获取密钥, 点击 “View Code” 查看请求示例。系统会为你生成一个以 nvapi- 开头的密钥。请务必保存好这个 Key。
前面文字内容摘自某公众号,下面是 VSCode 中的具体设置:
API Provider: OpenAI Compatible
Base URL: https://integrate.api.nvidia.com/v1/
OpenAI Compatible API Key: 填你自己申请的 API
Model ID :
• GLM-4.7: z-ai/glm4.7
• Minimax M2.1: minimaxai/minimax-m2.1
但是有限制:Your API Rate LimitUp to 40 rpm,也挺好



