• 是的 但是这个可以给想试试 open claw 的人尝试一下。找到问题了,有些模型速度确实慢,可以试试换个模型,我今天测的 kimi k2.5 确实速度有点慢,然后我刚才切的千问 3.5 快到飞起。

    更新:

    
    openclaw config set models.providers.nvidia '{
      "baseUrl": "https://integrate.api.nvidia.com/v1",
      "apiKey": "nvapi-你的实际Key",
      "api": "openai-completions",
      "models": [
        { "id": "z-ai/glm4.7", "name": "GLM-4.7" },
        { "id": "z-ai/glm5", "name": "GLM-5" },
        { "id": "minimaxai/minimax-m2.1", "name": "MiniMax M2.1" },
        { "id": "moonshotai/kimi-k2.5", "name": "Kimi K2.5" },
        { "id": "deepseek-ai/deepseek-v3.2", "name": "DeepSeek V3.2" },
        { "id": "qwen/qwen3.5-397b-a17b", "name": "Qwen 3.5 397B A17B" },
        { "id": "qwen/qwen3-coder-480b-a35b-instruct", "name": "Qwen Coder 480B A35B Instruct" },
        { "id": "moonshotai/kimi-k2-instruct-0905", "name": "Kimi K2 Instruct 0905" },
        { "id": "moonshotai/kimi-k2-thinking", "name": "Kimi K2 Thinking" },
        { "id": "moonshotai/kimi-k2-instruct", "name": "Kimi K2 Instruct" }
      ]
    }'
    
    

    #设置默认模型为 qwen3.5。

    openclaw models set nvidia/qwen/qwen3.5-397b-a17b
    

    千问模型速度快点。

  • 正解

  • 没有显示额度上限,只是有请求上限或者是模型速度限制。