我来为你详细说明AI小龙虾OpenClaw项目的环境变量设置方法。

核心环境变量设置
必需配置(API密钥)
# 如果使用Azure OpenAI export AZURE_OPENAI_API_KEY="your-azure-api-key" export AZURE_OPENAI_ENDPOINT="https://your-resource.openai.azure.com" export AZURE_OPENAI_API_VERSION="2023-12-01-preview" # 如果使用其他支持的模型(如DeepSeek、通义千问等) export DEEPSEEK_API_KEY="your-deepseek-api-key" export QWEN_API_KEY="your-qwen-api-key" export ANTHROPIC_API_KEY="your-claude-api-key"
模型选择配置
# 设置使用的模型(可选,有默认值) export OPENCLAW_MODEL="gpt-4" # 默认gpt-4-turbo-preview export OPENCLAW_MODEL_NAME="gpt-4-turbo" # 显示名称 # 对于本地模型 export OPENCLAW_LOCAL_MODEL_PATH="/path/to/your/model" export OPENCLAW_LOCAL_MODEL_TYPE="llama" # 或"qwen", "baichuan"等
代理和网络配置
# 如果需要使用代理 export HTTP_PROXY="http://127.0.0.1:7890" export HTTPS_PROXY="http://127.0.0.1:7890" export ALL_PROXY="socks5://127.0.0.1:7891" # 超时设置 export OPENCLAW_TIMEOUT=30 export OPENCLAW_MAX_RETRIES=3
配置文件方式(推荐)
除了环境变量,还可以使用配置文件:
创建配置文件
在项目根目录创建 .env 文件:
# API配置 OPENAI_API_KEY=sk-your-key-here OPENCLAW_MODEL=gpt-4-turbo-preview # 代理配置(可选) HTTP_PROXY=http://127.0.0.1:7890 HTTPS_PROXY=http://127.0.0.1:7890 # 本地模型配置(如果使用本地部署) LOCAL_MODEL_ENABLED=false LOCAL_MODEL_PATH=./models/your-model
或者创建 config.yaml
openclaw:
api:
provider: "openai" # 或 "azure", "local"
key: "${OPENAI_API_KEY}"
model: "gpt-4-turbo"
local:
enabled: false
model_path: "./models"
device: "cuda" # 或 "cpu"
proxy:
http: "http://127.0.0.1:7890"
https: "http://127.0.0.1:7890"
settings:
temperature: 0.7
max_tokens: 2000
timeout: 30
使用方法示例
方式1:命令行直接设置
# 临时设置(仅当前会话有效) export OPENAI_API_KEY="your-key" python -m openclaw.cli # 或者单条命令设置 OPENAI_API_KEY="your-key" python -m openclaw.cli
方式2:使用dotenv自动加载
# 在Python代码中
from dotenv import load_dotenv
import os
# 加载.env文件
load_dotenv()
# 使用环境变量
api_key = os.getenv("OPENAI_API_KEY")
model = os.getenv("OPENCLAW_MODEL", "gpt-4-turbo") # 默认值
方式3:Docker环境配置
# Dockerfile
ENV OPENAI_API_KEY="your-key"
ENV OPENCLAW_MODEL="gpt-4"
# docker-compose.yml
version: '3'
services:
openclaw:
environment:
- OPENAI_API_KEY=${OPENAI_API_KEY}
- OPENCLAW_MODEL=gpt-4-turbo
env_file:
- .env
常用配置场景
场景1:使用本地模型
# 环境变量方式 export OPENCLAW_LOCAL_MODEL_ENABLED=true export OPENCLAW_LOCAL_MODEL_PATH="/path/to/llama-model" export OPENCLAW_LOCAL_DEVICE="cuda" # GPU加速 # 或者配置文件 local: enabled: true model_path: "./models/llama-2-7b-chat" device: "cuda" load_in_8bit: true # 8位量化节省显存
场景2:企业内网代理
# 公司内网环境 export HTTP_PROXY="http://proxy.company.com:8080" export HTTPS_PROXY="http://proxy.company.com:8080" export NO_PROXY="localhost,127.0.0.1,.internal"
场景3:多模型切换
# 快速切换不同模型 alias openclaw-gpt4='OPENCLAW_MODEL="gpt-4" python -m openclaw.cli' alias openclaw-gpt35='OPENCLAW_MODEL="gpt-3.5-turbo" python -m openclaw.cli' alias openclaw-local='OPENCLAW_LOCAL_MODEL_ENABLED=true python -m openclaw.cli'
验证配置是否生效
# 检查环境变量
echo $OPENAI_API_KEY
# 在Python中验证
python -c "import os; print('API Key exists:', 'OPENAI_API_KEY' in os.environ)"
# 运行测试命令
python -m openclaw.cli --version
注意事项
-
安全提醒:
- 不要将API密钥提交到代码仓库
- 使用
.gitignore忽略.env文件 - 考虑使用密钥管理服务(如Vault、AWS Secrets Manager)
-
优先级顺序:
命令行参数 > 环境变量 > 配置文件 > 默认值 -
常见问题:
- 变量名拼写错误(注意大小写)
- 路径使用绝对路径
- 代理设置后需要重启终端
需要针对特定使用场景的详细配置说明吗?比如Azure OpenAI、本地模型部署或Docker部署?
标签: OpenAI API 关键词生成
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。