我直接在我自己的台式机上用openclaw操作dgx spark可以吗?
您这里提到的操作,是指在Spark上运行模型,然后通过您自己台式机上的OpenClaw去访问这个模型吗? 如果是这样,可以的。这里举例在Spark 上运行Qwen3.5-35B MoE模型,推理引擎为VLLM。
- 首先确认从你的台式机,可访问Spark,且模型推理已经正常启动。
curl http://<DGX_Spark_IP>:8000/v1/models
- 修改台式机上OpenClaw的配置文件 openclaw.json (通常位于
~/.openclaw/openclaw.json),在models部分添加如下内容 :
{
"models": {
"mode": "merge",
"providers": {
"custom-qwen35-35b-a3b": {
"baseUrl": "http://<DGX_Spark_IP>:8000/v1",
"apiKey": "sk-local",
"api": "openai-responses",
"models": [
{
"id": "Qwen3.5-35B-A3B",
"name": "Qwen3.5-35B-A3B (DGX Spark)",
"contextWindow": 262144,
"maxTokens": 32768
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "custom-qwen35-35b-a3b/Qwen3.5-35B-A3B"
}
}
}
}
关键参数说明:
baseUrl:替换<DGX_Spark_IP>为 DGX Spark 的实际 IP 地址id:必须与 vLLM 启动时--served-model-name参数保持一致,通常为Qwen3.5-35B-A3BapiKey:本地/局域网服务无需真实密钥,填任意字符串即可contextWindow:Qwen3.5-35B FP8 版本支持最高 262K 上下文
- 重启 OpenClaw 网关
openclaw gateway restart
重启后访问 http://localhost:18789 或运行 openclaw tui,选择刚配置的 Qwen3.5-35B-A3B (DGX Spark) 模型即可 。