首页 > 人工智能 >Openclaw接入本地模型API

Openclaw接入本地模型API

来源:互联网 2026-03-31 10:53:42

1)先在 OpenClaw 机器上确认能访问远程 Ollama你先执行:curl http://192.168.2.175:11434/api/tags只要能返回模型列表,就说明网络已经通了。Ollama 的模型列表接口就是 GET /api/tags。2)在 OpenClaw 里配置 Ollama provider先设置 baseUrl,再设置 apiKey。这是因为近期 OpenClaw 有已知问题:如果先设 apiK

第一步:在OpenClaw机器上验证远程Ollama访问

首先,请在您的OpenClaw机器上执行以下命令,以测试网络连通性:

curl http://192.168.2.175:11434/api/tags

长期稳定更新的攒劲资源: >>>点此立即查看<<<

此命令用于查询Ollama服务端已拉取的模型列表。若能正常返回JSON格式的模型列表,则表明OpenClaw机器到Ollama服务的网络连接正常。GET /api/tags是Ollama提供的基础API接口之一。


第二步:在OpenClaw中配置Ollama服务提供商

接下来,需要在OpenClaw中完成Ollama提供商的配置。请注意配置顺序:必须首先设置baseUrl,然后再设置apiKey。若顺序颠倒,CLI的校验逻辑可能会提前触发错误。

请按顺序执行以下命令:

openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"

配置要点:apiKey字段在Ollama集成中无需真实密钥,可使用任意占位符(如示例中的“ollama-local”)。这是OpenClaw官方文档中明确说明的步骤。


第三步:将默认模型切换至本地模型

配置好提供商后,需指定具体使用的模型。执行命令:

openclaw config set agents.defaults.model.primary “ollama/qwen2.5:7b-instruct”

OpenClaw采用provider/model的命名格式识别模型,例如ollama/qwen2.5:7b-instructollama/llama3.3,结构清晰明确。


第四步:检查OpenClaw是否成功识别模型

完成设置后,需验证配置结果。执行模型列表查询命令:

openclaw models list

若列表中已出现您刚设置的模型,则表明初步配置成功。如需获取更详尽的实时状态,可运行带探测功能的命令:

openclaw models status --probe

--probe参数可对模型连接状态进行一次实时探测,提供更即时的信息反馈。


第五步:正式设定为默认模型

确认openclaw models list已显示ollama/qwen2.5:7b-instruct模型后,执行最终锁定命令:

openclaw models set ollama/qwen2.5:7b-instruct

此步骤是OpenClaw官方文档推荐的另一种设置方式,能确保该模型被正式设置为系统默认选项。


配置文件形式管理方案

若您偏好通过配置文件进行集中管理,可参考以下JSON配置结构:

{ “models”: { “mode”: “merge”, “providers”: { “ollama”: { “baseUrl”: “http://192.168.2.175:11434”, “api”: “ollama”, “apiKey”: “ollama-local” } } }, “agents”: { “defaults”: { “model”: { “primary”: “ollama/qwen2.5:7b-instruct” } } } }

OpenClaw文档明确定义了models.providers.ollamaagents.defaults.model.primary这两个关键配置项的写法。


配置完成后的验证方法

1. 在OpenClaw机器上,再次验证Ollama服务中的模型列表:
curl http://192.168.2.175:11434/api/tags

2. 在OpenClaw内部,检查模型状态:
openclaw models list
openclaw models status --probe

若状态显示默认模型已成功切换为ollama/qwen2.5:7b-instruct,则表明整个配置流程已完成。


高效配置命令组合

为提升配置效率,您可直接依次执行以下命令组合,快速完成全部设置:

openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"
openclaw config set agents.defaults.model.primary "ollama/qwen2.5:7b-instruct"
openclaw models list
openclaw models status --probe

侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述

热游推荐

更多
湘ICP备14008430号-1 湘公网安备 43070302000280号
All Rights Reserved
本站为非盈利网站,不接受任何广告。本站所有软件,都由网友
上传,如有侵犯你的版权,请发邮件给xiayx666@163.com
抵制不良色情、反动、暴力游戏。注意自我保护,谨防受骗上当。
适度游戏益脑,沉迷游戏伤身。合理安排时间,享受健康生活。