核心概念与优势
- 替代 OpenAI API:OpenClaw 将开源模型封装成与 OpenAI API 兼容的接口,这意味着所有依赖 OpenAI API 的应用(包括小龙虾本身)都可以无缝切换到这个本地服务上。
- 模型丰富:支持通过 Ollama、LM Studio、OpenAI-Compatible APIs (如 FastChat, vLLM, text-gen-webui 等) 管理的众多模型。
- 隐私安全:所有数据在您自己的设备或服务器上处理,无需上传至第三方。
- 成本可控:使用本地 GPU 或 CPU 推理,或使用您自己云服务器上的模型,无使用次数限制。
准备工作(安装模型服务后端)
OpenClaw 本身是一个“桥梁”,它需要连接到一个正在运行的模型服务,您必须先配置好以下其中一种后端:

选项A:使用 Ollama(推荐,最简单)
Ollama 是运行和管理大模型的利器,特别适合个人电脑。
- 安装 Ollama:访问 ollama.ai 下载并安装。
- 拉取模型:打开终端(命令行),运行命令拉取您喜欢的模型,
ollama pull llama3.2 # Meta 最新小模型 ollama pull qwen2.5:7b # 阿里的通义千问 ollama pull gemma2:2b # Google 的轻量模型
- 运行模型:模型拉取后,默认已在后台作为服务运行,API 地址通常是
http://127.0.0.1:11434。
选项B:使用 LM Studio(适合Windows/Mac用户)
LM Studio 提供了图形化界面来管理模型。
- 下载 LM Studio:访问 lmstudio.ai 下载安装。
- 下载模型:在软件内搜索并下载模型(如 Qwen、Mistral 等)。
- 启动本地服务器:
- 加载您下载的模型。
- 点击左侧的 “本地服务器” 标签页。
- 点击 “启动服务器”,它会显示一个 API 地址,通常是
http://127.0.0.1:1234。
选项C:使用其他兼容 OpenAI 的 API
如果您在远程服务器上部署了如 FastChat, vLLM, text-generation-webui 等服务,确保其 OpenAI 兼容 API 端点已启用(http://your-server-ip:8000/v1)。
配置 OpenClaw 插件
假设您的模型后端服务已在运行(Ollama 在 http://127.0.0.1:11434)。
-
下载与启动:确保您已下载并启动了 AI小龙虾客户端。
-
打开插件市场:
- 在小龙虾主界面,找到并进入 “插件市场”。
-
安装 OpenClaw:
- 在插件市场中找到 “OpenClaw” 插件,点击安装并启用。
-
进入插件设置:
安装后,通常会在聊天界面出现 OpenClaw 的图标或入口,点击它,或前往主设置 -> 插件管理 -> 找到 OpenClaw 进行配置。
-
关键配置: 在 OpenClaw 的设置界面,您需要填写以下核心信息:
- API 基础URL:填写您后端服务的地址。
- 对于 Ollama:
http://127.0.0.1:11434 - 对于 LM Studio:
http://127.0.0.1:1234/v1(注意:LM Studio 需要在地址后加/v1) - 对于其他服务:
http://服务器IP:端口/v1
- 对于 Ollama:
- 模型名称:填写您想要使用的具体模型名称。
- 对于 Ollama:填写您拉取的模型名,如
llama3.2,qwen2.5:7b。 - 对于 LM Studio:填写您加载的模型名(可以在 LM Studio 的服务器标签页看到)。
- 这个名称是告诉后端使用哪个模型。
- 对于 Ollama:填写您拉取的模型名,如
- API密钥:大多数本地服务不需要密钥,留空即可,如果您的服务端设置了密钥,则需填写。
- API 基础URL:填写您后端服务的地址。
-
保存并测试:
- 保存配置。
- 插件通常会提供一个“测试连接”或“获取模型列表”的按钮,点击它,如果配置正确,会显示成功信息或可用的模型列表。
使用方法
配置成功后,您可以通过以下几种方式使用:
-
作为独立的对话机器人:
在插件界面或指定的 OpenClaw 对话窗口中,直接与您配置的开源模型进行对话。
-
集成到小龙虾工作流中:
在需要调用 AI 的自动化流程(如文档处理、代码分析)中,可以选择 OpenClaw 作为 AI 提供商,替代 ChatGPT。
-
切换模型:
- 只需在 OpenClaw 设置中修改 “模型名称”,保存后即可切换到另一个已下载的模型,无需重启软件。
常见问题与技巧
-
连接失败:
- 检查后端服务是否真的在运行(如 Ollama 是否在终端运行着)。
- 检查
API 基础URL和端口是否正确。 - 关闭系统防火墙或添加端口例外再试。
-
响应慢:
- 本地模型推理速度取决于您的硬件(GPU > CPU),尝试更小的模型(如 2B、7B 参数模型)。
- 在 Ollama 中,可以尝试带
q4_0等量化后缀的模型,体积更小,速度更快(如llama3.2:3b)。
-
模型名称不知道怎么写:
- 对于 Ollama,在终端运行
ollama list查看已安装的模型名。 - 对于 LM Studio,在服务器标签页查看显示的模型 ID。
- 对于 Ollama,在终端运行
-
获得更好的回答质量:
- 在插件的高级设置中,可以调整
temperature(创造性,建议 0.7-0.9)、max_tokens(最大生成长度)等参数。 - 在系统提示词(System Prompt)中明确模型的行为和身份,可以显著提升回答质量。
- 在插件的高级设置中,可以调整
配置流程简化版:
- 选后端:安装并运行 Ollama(最简单)或 LM Studio。
- 下模型:在后端中下载一个您喜欢的模型(如
ollama pull qwen2.5:7b)。- 装插件:在小龙虾插件市场安装 OpenClaw。
- 填配置:在插件设置中填入后端地址(如
http://127.0.0.1:11434)和模型名(如qwen2.5:7b)。- 开始聊:保存配置,开始与您的私人专属 AI 对话。
通过 OpenClaw,您就成功地将强大的开源大模型接入了 AI 小龙虾这个便捷的客户端,享受自由、私密、高效的 AI 助手体验,祝您使用愉快!