首页 > 人工智能 >亚马逊Bedrock模型配置指南:OpenClaw使用详解

亚马逊Bedrock模型配置指南:OpenClaw使用详解

来源:互联网 2026-05-08 16:17:06

为 OPENCLAW 配置 AWS Amazon Bedrock 模型的完整指南 需要明确一个核心前提:OPENCLAW 在默认状态下并未直接集成对 AWS Amazon Bedrock 模型的选择功能。因此,若希望调用云端强大的亚马逊模型,用户需手动进行一些配置调整。 1. 设置亚马逊云服务访问凭

为 OPENCLAW 配置 AWS Amazon Bedrock 模型的完整指南

需要明确一个核心前提:OPENCLAW 在默认状态下并未直接集成对 AWS Amazon Bedrock 模型的选择功能。因此,若希望调用云端强大的亚马逊模型,用户需手动进行一些配置调整。

1. 设置亚马逊云服务访问凭证

首先,需配置访问亚马逊云服务的认证信息。请在用户目录下,定位或创建 ~/.openclaw/ 文件夹,并在其中新建一个名为 .env 的环境变量文件。

长期稳定更新的攒劲资源: >>>点此立即查看<<<

文件内容需严格按照以下格式填写,请注意键名区分大小写:

AWS_ACCESS_KEY_ID=AKXXXXXN
AWS_SECRET_ACCESS_KEY=XXXXXXXQYUXXY
AWS_REGION=us-east-1

此步骤的目的是,让 OpenClaw 网关在启动初始化时能够正确读取访问 Amazon Web Services 所必需的凭证与区域信息,为后续连接建立基础。

2. 在配置文件中添加模型提供商

接下来是核心配置环节:在 OpenClaw 的主配置文件中添加目标模型提供商。请打开 .openclaw/openclaw.json 文件,并找到其中的 provider 配置项。该配置项是一个列表,用于存放各类模型服务的连接方式。

此时,将 Amazon Bedrock 的提供商信息作为一个新条目添加进去。具体配置示例如下:

“amazon-bedrock”: { “baseUrl”: “https://bedrock-runtime.us-east-1.amazonaws.com”, “auth”: “aws-sdk”, “api”: “bedrock-converse-stream”, “models”: [ { “id”: “us.amazon.nova-2-lite-v1:0”, “name”: “Amazon Nova 2 Lite (US Inference Profile)”, “reasoning”: false, “input”: [ “text”, “image” ], “cost”: { “input”: 0, “output”: 0, “cacheRead”: 0, “cacheWrite”: 0 }, “contextWindow”: 300000, “maxTokens”: 8192 } ] }

配置时需注意以下几点:

“baseUrl”:指向 Bedrock 服务的运行时端点地址。
“auth”:认证方式必须设置为 “aws-sdk”,这将使 OpenClaw 调用 AWS SDK 处理签名认证,前述环境变量即为此服务。
“api”:指定 API 调用方式为 “bedrock-converse-stream”
关于模型ID(例如 “us.amazon.nova-2-lite-v1:0”),请根据您在 AWS 控制台实际开通并计划使用的模型准确填写。以上示例使用了 Nova 2 Lite 模型。稳妥起见,建议在配置前,通过亚马逊管理控制台或编写简易测试代码,验证目标模型的可访问性与运行状态。

3. 配置 agent 部分以指定使用模型

添加提供商后,还需指示 OpenClaw 具体使用哪一个模型。这需要修改配置文件的 agents 部分。

defaults -> model 下的 “primary” 字段中,填入已定义好的模型全称,格式为“提供商名/模型ID”。同时,您可以在 “fallbacks” 列表中设置一系列备用模型,以便在主模型不可用时实现自动切换。

可参考以下配置示例:

“agents”: { “defaults”: { “model”: { “primary”: “amazon-bedrock/us.amazon.nova-2-lite-v1:0”, “fallbacks”: [ “custom-192-168-0-249-11434/qwen3-vl:8b”, “custom-192-168-0-249-11434/qwen3:8b”, “qwen-portal/coder-model”, “qwen-portal/vision-model”, “openrouter/openai/gpt-5”, “openrouter/qwen/qwen3-8b”, “ollama/glm-4.7-flash”, “openrouter/qwen/qwen3-4b:free” ] }, “models”: { “custom-192-168-0-249-11434/qwen3-vl:8b”: { “alias”: “ollama” }, “custom-192-168-0-249-11434/qwen3:8b”: { “alias”: “ollama-qwen3” }, “qwen-portal/coder-model”: { “alias”: “qwen” }, “amazon-bedrock/us.amazon.nova-2-lite-v1:0”: { “alias”: “nova-lite” }, “qwen-portal/vision-model”: {}, “openrouter/openai/gpt-5”: {}, “openrouter/qwen/qwen3-8b”: {}, “openrouter/qwen/qwen3-4b:free”: {}, “ollama/glm-4.7-flash”: {} }, “workspace”: “/home/shidongxue/.openclaw/workspace”, “compaction”: { “mode”: “safeguard” }, “maxConcurrent”: 4, “subagents”: { “maxConcurrent”: 8 } } }

在此示例中,亚马逊 Nova 2 Lite 模型被设置为首选模型。下方的 Fallbacks 列表则包含了从本地部署的 Ollama 模型到其他云端模型的多级备用选项,构成了服务降级策略,增强了系统的稳定性。

4. 重启网关使配置生效

完成所有配置步骤后,最后且关键的一步是重启 OpenClaw 网关服务,以使所有更改生效。

请在终端中执行以下命令:

openclaw gateway restart

等待网关重启完成。若所有配置均正确无误,您现在即可在 OPENCLAW 中正常调用 AWS Amazon Bedrock 平台上的模型。整个配置流程步骤清晰,只要逐步操作,即可顺利完成云端模型调用的配置工作。

侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述

相关攻略

更多

热游推荐

更多
湘ICP备14008430号-1 湘公网安备 43070302000280号
All Rights Reserved
本站为非盈利网站,不接受任何广告。本站所有软件,都由网友
上传,如有侵犯你的版权,请发邮件给xiayx666@163.com
抵制不良色情、反动、暴力游戏。注意自我保护,谨防受骗上当。
适度游戏益脑,沉迷游戏伤身。合理安排时间,享受健康生活。