OpenClaw Nvidia 英伟达免费 api 配置 open claw 详细指令

noah.turner · 2026年03月22日 · 最后由 noah.turner 回复于 2026年03月22日 · 12 次阅读

openclaw config set models.providers.nvidia '{
  "baseUrl": "https://integrate.api.nvidia.com/v1",
  "apiKey": "nvapi-你的实际Key",
  "api": "openai-completions",
  "models": [
    { "id": "z-ai/glm4.7", "name": "GLM-4.7" },
    { "id": "z-ai/glm5", "name": "GLM-5" },
    { "id": "minimaxai/minimax-m2.1", "name": "MiniMax M2.1" },
    { "id": "moonshotai/kimi-k2.5", "name": "Kimi K2.5" },
    { "id": "deepseek-ai/deepseek-v3.2", "name": "DeepSeek V3.2" }
  ]
}'

重點是額度吧,只有一點點的話,就不浪費那個時間了。

olivia.carter 回复

没有显示额度上限,只是有请求上限或者是模型速度限制。

我現在一律推薦花錢訂閱一個月,免費的額度太少沒法用,現在 Gemini 又會封鎖人,搞免費 API 真的是浪費時間而已。

英伟达的 api 卡的没法用

chen.ming 回复

是的 但是这个可以给想试试 open claw 的人尝试一下。找到问题了,有些模型速度确实慢,可以试试换个模型,我今天测的 kimi k2.5 确实速度有点慢,然后我刚才切的千问 3.5 快到飞起。

更新:


openclaw config set models.providers.nvidia '{
  "baseUrl": "https://integrate.api.nvidia.com/v1",
  "apiKey": "nvapi-你的实际Key",
  "api": "openai-completions",
  "models": [
    { "id": "z-ai/glm4.7", "name": "GLM-4.7" },
    { "id": "z-ai/glm5", "name": "GLM-5" },
    { "id": "minimaxai/minimax-m2.1", "name": "MiniMax M2.1" },
    { "id": "moonshotai/kimi-k2.5", "name": "Kimi K2.5" },
    { "id": "deepseek-ai/deepseek-v3.2", "name": "DeepSeek V3.2" },
    { "id": "qwen/qwen3.5-397b-a17b", "name": "Qwen 3.5 397B A17B" },
    { "id": "qwen/qwen3-coder-480b-a35b-instruct", "name": "Qwen Coder 480B A35B Instruct" },
    { "id": "moonshotai/kimi-k2-instruct-0905", "name": "Kimi K2 Instruct 0905" },
    { "id": "moonshotai/kimi-k2-thinking", "name": "Kimi K2 Thinking" },
    { "id": "moonshotai/kimi-k2-instruct", "name": "Kimi K2 Instruct" }
  ]
}'

#设置默认模型为 qwen3.5。

openclaw models set nvidia/qwen/qwen3.5-397b-a17b

千问模型速度快点。

需要 登录 后方可回复, 如果你还没有账号请 注册新账号