1)先在 OpenClaw 机器上确认能访问远程 Ollama你先执行:curl http://192.168.2.175:11434/api/tags只要能返回模型列表,就说明网络已经通了。Ollama 的模型列表接口就是 GET /api/tags。2)在 OpenClaw 里配置 Ollama provider先设置 baseUrl,再设置 apiKey。这是因为近期 OpenClaw 有已知问题:如果先设 apiK
首先,请在您的OpenClaw机器上执行以下命令,以测试网络连通性:
curl http://192.168.2.175:11434/api/tags
长期稳定更新的攒劲资源: >>>点此立即查看<<<
此命令用于查询Ollama服务端已拉取的模型列表。若能正常返回JSON格式的模型列表,则表明OpenClaw机器到Ollama服务的网络连接正常。GET /api/tags是Ollama提供的基础API接口之一。
接下来,需要在OpenClaw中完成Ollama提供商的配置。请注意配置顺序:必须首先设置baseUrl,然后再设置apiKey。若顺序颠倒,CLI的校验逻辑可能会提前触发错误。
请按顺序执行以下命令:
openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"
配置要点:apiKey字段在Ollama集成中无需真实密钥,可使用任意占位符(如示例中的“ollama-local”)。这是OpenClaw官方文档中明确说明的步骤。
配置好提供商后,需指定具体使用的模型。执行命令:
openclaw config set agents.defaults.model.primary “ollama/qwen2.5:7b-instruct”
OpenClaw采用provider/model的命名格式识别模型,例如ollama/qwen2.5:7b-instruct或ollama/llama3.3,结构清晰明确。
完成设置后,需验证配置结果。执行模型列表查询命令:
openclaw models list
若列表中已出现您刚设置的模型,则表明初步配置成功。如需获取更详尽的实时状态,可运行带探测功能的命令:
openclaw models status --probe
--probe参数可对模型连接状态进行一次实时探测,提供更即时的信息反馈。
确认openclaw models list已显示ollama/qwen2.5:7b-instruct模型后,执行最终锁定命令:
openclaw models set ollama/qwen2.5:7b-instruct
此步骤是OpenClaw官方文档推荐的另一种设置方式,能确保该模型被正式设置为系统默认选项。
若您偏好通过配置文件进行集中管理,可参考以下JSON配置结构:
{
“models”: {
“mode”: “merge”,
“providers”: {
“ollama”: {
“baseUrl”: “http://192.168.2.175:11434”,
“api”: “ollama”,
“apiKey”: “ollama-local”
}
}
},
“agents”: {
“defaults”: {
“model”: {
“primary”: “ollama/qwen2.5:7b-instruct”
}
}
}
}
OpenClaw文档明确定义了models.providers.ollama与agents.defaults.model.primary这两个关键配置项的写法。
1. 在OpenClaw机器上,再次验证Ollama服务中的模型列表:
curl http://192.168.2.175:11434/api/tags
2. 在OpenClaw内部,检查模型状态:
openclaw models list
openclaw models status --probe
若状态显示默认模型已成功切换为ollama/qwen2.5:7b-instruct,则表明整个配置流程已完成。
为提升配置效率,您可直接依次执行以下命令组合,快速完成全部设置:
openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"
openclaw config set agents.defaults.model.primary "ollama/qwen2.5:7b-instruct"
openclaw models list
openclaw models status --probe
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述