为 OPENCLAW 配置 AWS Amazon Bedrock 模型的完整指南 需要明确一个核心前提:OPENCLAW 在默认状态下并未直接集成对 AWS Amazon Bedrock 模型的选择功能。因此,若希望调用云端强大的亚马逊模型,用户需手动进行一些配置调整。 1. 设置亚马逊云服务访问凭
需要明确一个核心前提:OPENCLAW 在默认状态下并未直接集成对 AWS Amazon Bedrock 模型的选择功能。因此,若希望调用云端强大的亚马逊模型,用户需手动进行一些配置调整。
首先,需配置访问亚马逊云服务的认证信息。请在用户目录下,定位或创建 ~/.openclaw/ 文件夹,并在其中新建一个名为 .env 的环境变量文件。
长期稳定更新的攒劲资源: >>>点此立即查看<<<
文件内容需严格按照以下格式填写,请注意键名区分大小写:
AWS_ACCESS_KEY_ID=AKXXXXXNAWS_SECRET_ACCESS_KEY=XXXXXXXQYUXXYAWS_REGION=us-east-1
此步骤的目的是,让 OpenClaw 网关在启动初始化时能够正确读取访问 Amazon Web Services 所必需的凭证与区域信息,为后续连接建立基础。
接下来是核心配置环节:在 OpenClaw 的主配置文件中添加目标模型提供商。请打开 .openclaw/openclaw.json 文件,并找到其中的 provider 配置项。该配置项是一个列表,用于存放各类模型服务的连接方式。
此时,将 Amazon Bedrock 的提供商信息作为一个新条目添加进去。具体配置示例如下:
“amazon-bedrock”: {
“baseUrl”: “https://bedrock-runtime.us-east-1.amazonaws.com”,
“auth”: “aws-sdk”,
“api”: “bedrock-converse-stream”,
“models”: [
{
“id”: “us.amazon.nova-2-lite-v1:0”,
“name”: “Amazon Nova 2 Lite (US Inference Profile)”,
“reasoning”: false,
“input”: [
“text”,
“image”
],
“cost”: {
“input”: 0,
“output”: 0,
“cacheRead”: 0,
“cacheWrite”: 0
},
“contextWindow”: 300000,
“maxTokens”: 8192
}
]
}
配置时需注意以下几点:
“baseUrl”:指向 Bedrock 服务的运行时端点地址。
“auth”:认证方式必须设置为 “aws-sdk”,这将使 OpenClaw 调用 AWS SDK 处理签名认证,前述环境变量即为此服务。
“api”:指定 API 调用方式为 “bedrock-converse-stream”。
关于模型ID(例如 “us.amazon.nova-2-lite-v1:0”),请根据您在 AWS 控制台实际开通并计划使用的模型准确填写。以上示例使用了 Nova 2 Lite 模型。稳妥起见,建议在配置前,通过亚马逊管理控制台或编写简易测试代码,验证目标模型的可访问性与运行状态。
添加提供商后,还需指示 OpenClaw 具体使用哪一个模型。这需要修改配置文件的 agents 部分。
在 defaults -> model 下的 “primary” 字段中,填入已定义好的模型全称,格式为“提供商名/模型ID”。同时,您可以在 “fallbacks” 列表中设置一系列备用模型,以便在主模型不可用时实现自动切换。
可参考以下配置示例:
“agents”: {
“defaults”: {
“model”: {
“primary”: “amazon-bedrock/us.amazon.nova-2-lite-v1:0”,
“fallbacks”: [
“custom-192-168-0-249-11434/qwen3-vl:8b”,
“custom-192-168-0-249-11434/qwen3:8b”,
“qwen-portal/coder-model”,
“qwen-portal/vision-model”,
“openrouter/openai/gpt-5”,
“openrouter/qwen/qwen3-8b”,
“ollama/glm-4.7-flash”,
“openrouter/qwen/qwen3-4b:free”
]
},
“models”: {
“custom-192-168-0-249-11434/qwen3-vl:8b”: {
“alias”: “ollama”
},
“custom-192-168-0-249-11434/qwen3:8b”: {
“alias”: “ollama-qwen3”
},
“qwen-portal/coder-model”: {
“alias”: “qwen”
},
“amazon-bedrock/us.amazon.nova-2-lite-v1:0”: {
“alias”: “nova-lite”
},
“qwen-portal/vision-model”: {},
“openrouter/openai/gpt-5”: {},
“openrouter/qwen/qwen3-8b”: {},
“openrouter/qwen/qwen3-4b:free”: {},
“ollama/glm-4.7-flash”: {}
},
“workspace”: “/home/shidongxue/.openclaw/workspace”,
“compaction”: {
“mode”: “safeguard”
},
“maxConcurrent”: 4,
“subagents”: {
“maxConcurrent”: 8
}
}
}
在此示例中,亚马逊 Nova 2 Lite 模型被设置为首选模型。下方的 Fallbacks 列表则包含了从本地部署的 Ollama 模型到其他云端模型的多级备用选项,构成了服务降级策略,增强了系统的稳定性。
完成所有配置步骤后,最后且关键的一步是重启 OpenClaw 网关服务,以使所有更改生效。
请在终端中执行以下命令:
openclaw gateway restart
等待网关重启完成。若所有配置均正确无误,您现在即可在 OPENCLAW 中正常调用 AWS Amazon Bedrock 平台上的模型。整个配置流程步骤清晰,只要逐步操作,即可顺利完成云端模型调用的配置工作。
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述