OpenClaw是一款开源、免费、功能强大的本地大语言模型客户端,支持在Windows、macOS和Linux系统上运行,它可以让你无需联网,在本地电脑上加载和运行各种开源大模型(如Llama、Qwen、DeepSeek等),非常适合注重隐私、需要离线使用或进行模型测试研究的用户。

整个使用流程可以概括为以下几步:
- 下载与安装 -> 2. 下载模型文件 -> 3. 启动软件并加载模型 -> 4. 开始对话与使用功能
详细步骤说明
第一步:下载与安装
-
访问官方仓库:
- 前往 OpenClaw 的 GitHub 发布页,你可以通过搜索引擎搜索
OpenClaw GitHub找到它。 - 在 Releases 页面,找到最新版本(如 v1.3.2)。
- 前往 OpenClaw 的 GitHub 发布页,你可以通过搜索引擎搜索
-
选择对应版本下载:
- 根据你的操作系统,下载对应的安装包:
- Windows: 下载
.msi或.exe安装程序。 - macOS: 下载
.dmg磁盘映像文件。 - Linux: 下载
.AppImage文件。
- Windows: 下载
- 根据你的操作系统,下载对应的安装包:
-
安装:
- Windows: 运行
.msi/.exe文件,按向导完成安装。 - macOS: 打开
.dmg文件,将OpenClaw.app拖拽到“应用程序”文件夹中。首次打开时,可能需要进入系统设置 -> 隐私与安全性,允许运行来自“未识别的开发者”的应用。 - Linux: 为
.AppImage文件添加执行权限(chmod +x OpenClaw-xxx.AppImage),然后双击运行。
- Windows: 运行
第二步:获取模型文件(关键准备)
OpenClaw 不自带模型,你需要手动下载模型文件,这是最关键的一步。
-
模型来源:
- Hugging Face: 最主流的开源模型平台,搜索你感兴趣的模型,如
Qwen2.5-7B-Instruct、Llama-3.2-3B-Instruct、deepseek-coder-6.7b-instruct等。 - ModelScope(魔搭社区): 国内常用的平台,下载速度通常更快。
- Hugging Face: 最主流的开源模型平台,搜索你感兴趣的模型,如
-
选择正确的格式:
- 在模型页面,你需要下载 GGUF 格式的量化模型文件,GGUF 是专门为在CPU/GPU上高效运行而设计的格式。
- 文件通常以
.gguf例如:qwen2.5-7b-instruct-q4_k_m.gguf。 - 量化等级说明:文件名中的
q4_K_M、q8_0等代表量化精度,数字越小(如q2、q4),模型文件越小、运行速度越快,但精度略有损失,对于初学者,q4_K_M或q5_K_M在速度和效果上是一个不错的平衡。
-
存放位置:
- 将下载好的
.gguf模型文件放在一个你容易找到的文件夹中,D:\LLM_Models\或~/Models/,OpenClaw 启动后会让你选择这个目录。
- 将下载好的
第三步:启动与配置
-
首次启动:
- 打开 OpenClaw 应用。
- 首次启动时,软件会提示你 “选择模型文件夹路径”,请指向你存放
.gguf模型文件的文件夹(第二步创建的)。
-
主界面介绍:
- 左侧是 模型列表 和 对话历史。
- 中间是主要的 对话区域。
- 右侧是 参数设置面板。
-
加载模型:
- 在左侧模型列表中,点击 “刷新” 按钮,你的模型文件夹里的所有
.gguf文件就会显示出来。 - 点击你想要运行的模型名称。
- 在右侧设置面板,进行关键配置:
- 上下文长度: 通常保持默认(如4096),如果模型支持更长上下文(如128K),可以调高。
- 线程数: 建议设置为你的CPU物理核心数。
- GPU加速(如有): 如果你有NVIDIA显卡且安装了CUDA,可以勾选“使用GPU层”并设置层数(如20),将部分计算分配给GPU,极大提升速度。
- 点击 “加载模型” 按钮,底部状态栏会显示加载进度,加载成功后,模型名称旁会显示一个绿色圆点。
- 在左侧模型列表中,点击 “刷新” 按钮,你的模型文件夹里的所有
第四步:开始使用
-
基本对话:
- 加载模型后,在底部输入框输入问题,按
Enter或点击发送按钮即可。 - 首次推理(生成第一个回答)可能会稍慢,因为需要初始化。
- 加载模型后,在底部输入框输入问题,按
-
核心功能:
- 多轮对话: 软件会自动维护对话上下文。
- 对话管理: 在左侧可以创建新的对话、重命名或删除历史对话。
- 系统提示词: 在右侧面板可以设置“系统提示”,用来定义AI的角色和行为准则(“你是一个有帮助的助手”)。
- 参数调节:
- Temperature: 控制随机性(0.1-0.9),值越低,回答越确定和保守;值越高,越有创造性。
- Top-P: 另一种控制随机性的方式,通常与Temperature配合使用。
- 新手可以保持默认,或稍作调整体验效果。
-
高级功能:
- 函数调用: 部分模型支持,可以调用预设的函数(如计算器、搜索)。
- 纯文本聊天 vs 代码聊天: 对于代码模型,代码聊天模式会有更好的格式显示。
常见问题与技巧
-
模型加载失败/闪退:
- 检查模型格式: 确保是
.gguf格式。 - 检查内存: 模型运行时需要占用大量内存,一个7B的q4模型大约需要4-6GB RAM,请确保你的电脑有足够的可用内存。
- 尝试降低线程数或关闭GPU加速。
- 检查模型格式: 确保是
-
回答速度慢:
- 使用量化等级更低的模型: 尝试
q4或q3的模型。 - 启用GPU加速: 这是最有效的提速方法。
- 减少上下文长度。
- 使用量化等级更低的模型: 尝试
-
如何获得更好的回答质量?
- 选择能力更强的模型: 14B、70B参数模型通常比7B、3B模型更强,但对硬件要求也更高。
- 编写清晰的提示词。
- 在系统提示中明确AI的角色。
-
软件不显示模型/找不到模型文件夹:
- 确认你选择的文件夹路径正确,并且里面确实有
.gguf文件。 - 点击左侧的 “设置” 图标,可以重新选择模型文件夹路径。
- 确认你选择的文件夹路径正确,并且里面确实有
OpenClaw的使用逻辑非常清晰:安装软件 -> 准备模型 -> 加载运行 -> 对话交互,它最大的优势是将复杂的本地模型部署过程图形化、简单化,让普通用户也能轻松体验和利用强大的开源大模型。
建议从一个小参数模型(如 3B 或 7B 的 Qwen/Llama)开始尝试,熟悉流程后再挑战更大的模型,祝你使用愉快!