本文介绍先安装openclaw,在介绍如何安装并配置本地模型工具ollama,并连接本地的模型。 基础软硬件 想要顺利运行本地AI模型,硬件配置是关键。来看看需要哪些基础条件: CPU:推荐4核及以上配置,入门级设备运行7B模型基本没问题 内存:至少16GB起步,运行7B模型时16GB刚好够用 GP
想要顺利运行本地AI模型,硬件配置是关键。来看看需要哪些基础条件:
这个工具主要负责从GitHub获取资源,安装过程如下:
长期稳定更新的攒劲资源: >>>点此立即查看<<<


作为基于NodeJS开发的项目,openclaw运行的前提就是搭建好NodeJS环境。前往官网下载安装包(链接见这里),具体操作如下:

安装过程中有个关键细节需要特别注意:务必勾选“自动安装所需依赖工具”选项。NodeJS主体安装完成后,这些依赖的自动安装还需要10多分钟。

NodeJS安装完毕会提示按任意键继续:

接着系统会自动调用PowerShell安装其他依赖软件:

全部安装完成后的界面:

使用以下命令验证NodeJS是否安装成功:

NodeJS环境就绪后,就可以通过NPM安装openclaw了。记得用管理员权限打开PowerShell,执行命令 npm i -g openclaw:

安装过程可能需要等待一段时间。如果遇到错误提示,通常有两个排查方向:首先检查proxy配置,使用git config list查看设置,必要时可以取消proxy设置:

第二个解决方案是执行以下命令:
git config --global url."https://github.com/".insteadOf ssh://git@github.com/
访问ollama官网,系统会自动检测操作系统并给出对应的安装命令。以下是Windows平台的安装方法:
以管理员权限打开PowerShell,运行以下命令安装ollama:
irm https://ollama.com/install.ps1 | iex
也可以直接从官网下载安装包。如果下载速度不理想,当前最新版本为0.18:

ollama程序安装完成后,需要通过ollama run命令拉取所需的模型。关于模型选择,可以参考这里的详细信息:

模型就位后,就可以使用ollama客户端进行对话了:

在CMD中使用命令openclaw onboard --install-daemon进行配置:


这里有个实用建议:大部分配置项都可以暂时跳过,等到具体功能需要时再回头配置也不迟。
打开本地18789端口,就能看到openclaw的主页面:

需要说明的是,本文主要聚焦于基础环境搭建,很多详细配置会在后续的《AI安全》专栏中逐一展开,敬请关注相关更新。
侠游戏发布此文仅为了传递信息,不代表侠游戏网站认同其观点或证实其描述