手把手教你:免费白嫖英伟达NVIDIA GLM-4.7/Minimax M2.1/Deepseek/Kimi K2.5等模型,接入Claude Code教程

随着人工智能技术的飞速发展,获取稳定、高性能的免费模型接口变得尤为重要。近期,英伟达(Nvidia)上线了两款优秀的国产大模型:GLM-4.7和Minimax M2.1,并提供了免费的API调用服务,限制为40 RPM,几乎可以满足日常使用需求。然而,这些模型的API格式与我们常用的Claude Code等工具不直接兼容,这就需要一个“翻译官”来进行中转配置。

本文将详细介绍如何获取Nvidia的API密钥,并使用开源项目 claude-code-router 将这两个模型成功接入Claude Code,让你稳定享受免费的高性能模型服务。

第一步:获取Nvidia免费API密钥

首先,我们需要到英伟达的开发者平台注册并获取API密钥。这是后续所有配置的基础。

1. 注册Nvidia开发者账号

  • 访问Nvidia开发者门户: https://build.nvidia.com/ 
  • 使用邮箱进行注册,并注意查收验证邮件,有时可能进入垃圾邮件箱。

2. 验证身份

  • 注册成功后,创建一个云账号(名称可随意填写)。
  • 系统会要求验证手机号码,亲测支持国内手机号(+86)。点击“Verify”进行验证。如果无法选择地区,请检查网络环境。

英伟达验证手机号码一直失败怎么办?试试下面的解决方案

部分内容未显示,为付费阅读

需支付 ¥1.99 元观看完整内容

每月三次七天无理由退款,不满意可随时退款

3. 生成和保存API Key

  • 验证完成后,点击页面右上角的头像,选择“API Keys”进入管理页面。
  • 点击生成新的Key。
  • ⚠️ 特别注意:Key 仅显示一次,务必第一时间复制并妥善保管。不过找不到了删除从新申请就行了。

第二步:安装和配置中转工具 claude-code-router

Nvidia API的格式与Claude Code原生不兼容,需要一个工具进行格式转换。我们推荐使用GitHub上的开源项目 claude-code-router

安装前提

  • 确保已安装Claude Code。
  • 确保已安装Node.js(版本要求v18以上)。

安装与启动

  • 打开终端,输入以下命令进行全局安装:
    npm install -g claude-code-router
  • 安装完成后,启动服务:
    ccr start
  • 启动服务后,通过以下命令打开配置界面:
    ccr ui
    浏览器会自动跳转到配置界面,请保持此终端窗口运行状态。

第三步:配置核心参数

这是最关键的一步,需要在浏览器打开的UI界面中进行设置。请仔细核对每一个参数。

1. 添加供应商 (Add Provider)

在UI界面中,点击“添加供应商”,按以下信息填写:

  • API 地址 (Base URL):直接复制以下地址:
    https://integrate.api.nvidia.com/v1/chat/completions 
  • API Key:填写第一步中保存的 `nvapi-xxx` 开头的密钥。
  • 供应商转换器 (Transformer):选择 openrouter
  • 模型名称 (Model Name):建议分别添加以下两个模型ID并回车:
    GLM-4.7 模型:z-ai/glm4.7
    Minimax M2.1 模型:minimaxai/minimax-m2.1

2. 配置路由规则

根据需要配置路由规则,将上述添加的模型与Claude Code的默认调用方式进行映射或重定向。

完成配置后,点击右上角的“保存并重启”。

第四步:开始使用免费模型

配置重启完成后,回到终端窗口,不要再使用默认的 Claude 命令,而是使用以下命令启动适配Nvidia API的服务:

ccr code

现在,你的Claude Code环境已经成功切换到了稳定可靠的Nvidia免费模型接口,可以开始享受GLM-4.7和Minimax M2.1带来的高效编程体验了。

想在大模型时代白嫖高效算力?这份合法合规的【薅羊毛指南】揭秘官方免费额度、隐藏开发者福利、本地部署秘籍,还有成本降90%的实战技巧!从Gemini到通义千问,从Ollama到DeepSeek API,一文打通高性价比AI使用路径,真正实现“少花钱,多办事”!点击解锁不踩雷的智能生产力神器。

免费Tokens API资源不完全汇总:Gemini、OpenAI Codex、Claude、Kimi、GLM,AI编程免费Tokens怎么获得? - 满银网 
https://alishui.com/article/100605/mian-fei-Tokens-API-zi-yuan-bu-wan-quan-hui-zong-Gemini-OpenAI-Codex-Claude-Kimi-GLM-AI-bian-cheng-mian-fei-Tokens-zen-m.html 

使用心得与注意事项

1. 兼容性提醒:当前该中转工具主要优化了CLI(命令行)模式的使用。如果同时运行了VSCode插件版或其他依赖端口的工具,建议先退出,避免端口冲突。

2. 模型响应速度:需要注意的是,GLM-4.7作为推理模型,在响应速度上可能略慢于一些优化过的商业模型。这是模型特性和适配英伟达API调用策略的结果,但其准确性和稳定性值得信赖。

3. 关注政策变化:英伟达的NIM服务目前是免费提供,用户应尽早利用此“羊毛”资源。同时,也应留意官方未来可能对服务额度和收费政策的调整。

通过这次配置,我们成功地利用了优质的国产模型资源,提升了开发效率。欢迎大家在评论区分享更多可以白嫖的优质API资源!

文章评论

登录后才能发布评论哦
立即登录/注册
消息提醒
Hello, world! This is a toast message.