OpenClaw 模型配置指南 选对 “大脑” 很关键,覆盖元宝 / 豆包 / DeepSeek/Ollama,兼顾成本与隐私安全

AI 概述
本文详解AI执行引擎OpenClaw(龙虾)的模型配置方法,其自身不含模型,需外接云端或本地大模型。文章从核心原理、云端主流模型配置、本地私有化部署、多模型智能降级、常用命令及常见问题等方面,手把手指导适配不同场景,实现高可用与隐私安全兼顾。
目录
文章目录隐藏
  1. 第一章:核心原理——OpenClaw 如何对接大模型?
  2. 第二章:云端模型配置——接入主流大模型
  3. 第三章:本地私有化模型部署——完全免费、数据隐私
  4. 第四章:高级配置——多模型智能降级与切换
  5. 第五章:快速配置命令汇总
  6. 第六章:常见问题与解决方案
  7. 结语:选对“大脑”,龙虾才能真正干活

OpenClaw 模型配置指南|选对 “大脑” 很关键,覆盖元宝 / 豆包 / DeepSeek/Ollama,兼顾成本与隐私安全

被戏称为“龙虾”的 OpenClaw,虽能实现文件操作、跨应用协同等强大功能,却是个“无脑”引擎——其核心能力完全依赖接入的大模型。选对模型决定使用体验、成本与隐私安全,还可通过多模型配置实现高可用。本文结合 2026 年官方文档与社区实践,手把手教你为 OpenClaw 配置最合适的“大脑”。

第一章:核心原理——OpenClaw 如何对接大模型?

1.1 为什么需要更换模型?

OpenClaw 的核心价值在于“连接”——连接大模型的思考能力与电脑的真实操作权限。不同模型各有优劣:

需求场景 推荐模型类型 原因
日常对话、文档处理 元宝、智谱 GLM 中文理解强,免费额度充足
复杂推理、代码生成 DeepSeek、Claude 逻辑能力强,代码表现优异
数据隐私敏感场景 本地模型(Ollama/LM Studio) 数据不出本地,完全离线可用
成本敏感、高频使用 元宝、豆包免费 API 零成本或极低成本
多语言场景 GPT、Claude 英文及多语言能力强

1.2 OpenClaw 的模型配置架构

OpenClaw 的模型配置通过一个 JSON 文件完成,默认路径为:

  • Linux/MacOS~/.openclaw/openclaw.json
  • WindowsC:\Users\用户名\.openclaw\openclaw.json

核心配置结构如下:

{
  "models": {
    "providers": {
      "提供商 ID": {
        "baseUrl": "API 地址",
        "apiKey": "你的 API 密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "模型 ID",
            "name": "显示名称",
            "contextWindow": 上下文长度,
            "maxTokens": 最大输出 Token 数
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "提供商 ID/模型 ID",
        "fallback": "备用提供商 ID/模型 ID"
      }
    }
  }
}

配置逻辑解析

  • providers:定义模型供应商(可配置多个);
  • baseUrl:API 接入地址,必须兼容 OpenAI API 格式;
  • apiKey:认证密钥,支持环境变量引用(如 ${MY_API_KEY});
  • models:该供应商下的具体模型列表;
  • primary/fallback:主模型和降级模型,实现高可用。

1.3 支持的三类模型

类型 代表平台 接入方式 成本
云端商业模型 腾讯元宝、百度千帆、智谱、DeepSeek API Key 按量付费/免费额度
云端免费模型 元宝免费版、豆包、各大平台赠送额度 API Key 完全免费
本地私有化模型 Ollama、LM Studio 本地 API 完全免费(需硬件)

1.4 模型切换的核心操作

OpenClaw 提供了三种切换模型的方式,适应不同使用习惯:

切换方式 命令/操作 适用场景
Web 面板切换 点击右上角模型选择器下拉菜单 日常使用,最直观
命令行切换 openclaw models set 提供商/模型 ID 开发者,批量操作
对话内切换 输入 /model list/model 模型 ID 快速测试对比

快速命令示例

# 查看所有已配置模型
openclaw models list
# 查看当前默认模型
openclaw models current
# 切换默认模型
openclaw models set yuanbao/hunyuan-turbo
# 临时切换单次对话(不改变默认)
openclaw chat --model yuanbao/hunyuan-turbo --prompt "测试"

第二章:云端模型配置——接入主流大模型

2.1 腾讯元宝模型配置(推荐中文场景)

腾讯元宝基于混元大模型,提供强大的中文理解和多模态能力,2026 年推出免费额度方案,大幅降低使用门槛。

第一步:获取 API Key

  • 登录腾讯云官网,进入「元宝大模型控制台」
  • 在左侧菜单找到「API 密钥管理」,点击「创建密钥」
  • 复制并妥善保存生成的 API Key(格式类似 sk-xxx

省钱提示:腾讯元宝提供每日免费额度,适合个人开发者和中小企业测试使用。

第二步:配置 OpenClaw

编辑配置文件 ~/.openclaw/openclaw.json

{
  "models": {
    "providers": {
      "yuanbao": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
        "apiKey": "sk-你的 API 密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "hunyuan-turbo",
            "name": "混元 Turbo",
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "hunyuan-pro",
            "name": "混元 Pro",
            "contextWindow": 256000,
            "maxTokens": 16384
          },
          {
            "id": "hunyuan-lite",
            "name": "混元 Lite",
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "yuanbao/hunyuan-turbo"
      }
    }
  }
}

第三步:重启网关生效

openclaw gateway restart

元宝免费版配置(零成本方案):

{
  "models": {
    "providers": {
      "yuanbao-free": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/free/v1",
        "apiKey": "你的免费版 API Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "hunyuan-free",
            "name": "混元免费版",
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

2.2 豆包模型配置

字节跳动豆包以出色的多模态能力和创意生成著称,提供免费 API 额度。

获取 API Key

  • 访问字节火山引擎控制台
  • 进入「豆包大模型」服务
  • 创建 API Key 并复制保存

配置示例

{
  "models": {
    "providers": {
      "doubao": {
        "baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
        "apiKey": "你的豆包 API Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "doubao-pro-32k",
            "name": "豆包 Pro 32K",
            "contextWindow": 32768,
            "maxTokens": 8192
          },
          {
            "id": "doubao-lite-128k",
            "name": "豆包 Lite 128K",
            "contextWindow": 128000,
            "maxTokens": 16384
          }
        ]
      }
    }
  }
}

2.3 DeepSeek 模型配置

DeepSeek 以强大的代码能力和推理能力著称,是开发者的热门选择。

获取 API Key:访问 DeepSeek 开放平台 → 注册账号 → 创建 API Key

配置示例

{
  "models": {
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "sk-你的 DeepSeek 密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-chat",
            "name": "DeepSeek Chat",
            "contextWindow": 65536,
            "maxTokens": 8192
          },
          {
            "id": "deepseek-coder",
            "name": "DeepSeek Coder",
            "contextWindow": 32768,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

2.4 智谱 GLM 模型配置

智谱 AI 的 GLM 系列模型中文理解优秀,提供免费额度。

获取 API Key

  • 访问智谱 AI 开放平台,注册账号;
  • 进入「控制台」→「API Keys」;
  • 点击「添加新的 API Key」,复制保存。

配置示例

{
  "models": {
    "providers": {
      "zhipu": {
        "baseUrl": "https://open.bigmodel.cn/api/paas/v4",
        "apiKey": "你的智谱 API Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "glm-4-plus",
            "name": "GLM-4 Plus",
            "contextWindow": 128000,
            "maxTokens": 8192
          },
          {
            "id": "glm-4-flash",
            "name": "GLM-4 Flash",
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  }
}

2.5 百度千帆模型配置

百度千帆平台提供 ERNIE 系列模型。

配置示例

{
  "models": {
    "providers": {
      "qianfan": {
        "baseUrl": "https://qianfan.baidubce.com/v2",
        "apiKey": "你的千帆 API Key",
        "api": "openai-completions",
        "models": [
          {
            "id": "ERNIE-5.0",
            "name": "ERNIE 5.0",
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

2.6 自定义模型供应商(任意 OpenAI 兼容 API)

如果以上官方模型都不满足需求,OpenClaw 支持接入任何兼容 OpenAI API 协议的模型服务。

适用场景

  • 使用公司内部部署的模型服务
  • 接入新兴模型平台的 API
  • 使用硅基流动等聚合平台

配置格式

{
  "models": {
    "providers": {
      "custom": {
        "baseUrl": "https://your-model-api.com/v1",
        "apiKey": "your_api_key",
        "api": "openai-completions",
        "models": [
          {
            "id": "your-model-id",
            "name": "Your Model Name"
          }
        ]
      }
    }
  }
}

第三章:本地私有化模型部署——完全免费、数据隐私

对于追求数据隐私、希望完全免费的场景,本地部署是理想选择。本地模型完全离线运行,无 Token 限制、无订阅费用、数据不出设备

3.1 方案一:使用 Ollama 部署本地模型

Ollama 是目前最简单易用的本地模型部署工具,支持 Windows、macOS、Linux。

第一步:安装 Ollama

# MacOS / Linux 一键安装
curl -fsSL https://ollama.com/install.sh | sh
# Windows(管理员 PowerShell)
winget install Ollama.Ollama

第二步:下载并启动模型

# 入门推荐(轻量,1GB)
ollama run qwen2.5:1.5b
# 主流推荐(综合效果,4.7GB)
ollama run qwen2.5:7b
# 推理增强版
ollama run deepseek-r1:7b

第三步:验证本地 API 服务

Ollama 默认在 http://localhost:11434 提供 OpenAI 兼容 API,验证命令:

curl http://localhost:11434/v1/models

第四步:配置 OpenClaw

编辑配置文件~/.openclaw/openclaw.json

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "no-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen2.5:7b",
            "name": "Qwen2.5 7B Local",
            "contextWindow": 32768,
            "maxTokens": 8192
          },
          {
            "id": "qwen2.5:1.5b",
            "name": "Qwen2.5 1.5B Local",
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen2.5:7b"
      }
    }
  }
}

第五步:重启网关

openclaw gateway restart

3.2 方案二:使用 LM Studio 部署本地模型

LM Studio 提供图形化界面,适合不熟悉命令行的用户。

第一步:下载安装 LM Studio

访问 ,根据系统下载对应版本。

第二步:下载模型

  • 打开 LM Studio,点击左侧「Model Hub」
  • 搜索「qwen2.5」或你需要的模型
  • 选择量化版本(推荐 Q4_K_M 版本,平衡性能与显存)
  • 点击「Download」下载

第三步:开启 API 服务

  • 点击左侧「Server」;
  • 开启「Enable Server」和「Enable OpenAI Compatibility」;
  • 默认端口为 1234,无需修改;
  • 在「Advanced Settings」中设置 Context Window 为 100000。

第四步:验证 API 服务

curl http://localhost:1234/v1/models

第五步:配置 OpenClaw

{
  "models": {
    "providers": {
      "lmstudio": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "lmstudio-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen2.5-32b",
            "name": "Qwen2.5 32B Local",
            "contextWindow": 100000,
            "maxTokens": 8192,
            "cost": {
              "input": 0,
              "output": 0
            }
          }
        ]
      }
    }
  }
}

3.3 本地模型的硬件要求参考

模型规模 显存需求 适用硬件 典型模型
1B-3B 2-4GB CPU/低端显卡 Qwen2.5 1.5B、Phi-3 Mini
7B-9B 6-8GB RTX 3060/4060 Qwen2.5 7B、DeepSeek 7B
27B-35B 16-24GB RTX 4090/5090 Qwen2.5 32B、DeepSeek 32B

量化版本选择建议

  • Q4_K_M:平衡性能与显存,最推荐;
  • Q5_K_M:精度稍高,显存增加约 20%;
  • Q8_0:精度接近原版,显存翻倍。

第四章:高级配置——多模型智能降级与切换

4.1 双模型配置(主模型+降级模型)

配置主模型和降级模型后,当主模型不可用(如 API 超限、服务中断)时,OpenClaw 自动切换到备用模型,实现高可用。

{
  "models": {
    "mode": "fallback",
    "providers": {
      "local": {
        "baseUrl": "http://localhost:11434/v1",
        "apiKey": "no-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen2.5:7b",
            "name": "Qwen2.5 7B Local"
          }
        ]
      },
      "cloud": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
        "apiKey": "sk-xxx",
        "api": "openai-completions",
        "models": [
          {
            "id": "hunyuan-turbo",
            "name": "混元 Turbo"
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "local/qwen2.5:7b",
        "fallback": "cloud/hunyuan-turbo"
      }
    }
  }
}

4.2 环境变量管理 API Key(推荐)

为保护 API Key 安全,建议使用环境变量而非明文写入配置文件。

设置环境变量

# Linux/MacOS
export YUANBAO_API_KEY="sk-xxx"
export DEEPSEEK_API_KEY="sk-yyy"
# Windows PowerShell
$env:YUANBAO_API_KEY="sk-xxx"

配置文件引用

{
  "models": {
    "providers": {
      "yuanbao": {
        "baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
        "apiKey": "${YUANBAO_API_KEY}",
        "api": "openai-completions"
      }
    }
  }
}

4.3 模型参数调优

根据模型能力,可以配置更详细的参数来优化表现:

{
  "models": {
    "providers": {
      "my-model": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "xxx",
        "models": [
          {
            "id": "qwen2.5-32b",
            "name": "Qwen2.5 32B",
            "contextWindow": 100000,
            "maxTokens": 8192,
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            }
          }
        ]
      }
    }
  }
}

参数说明

  • contextWindow:模型支持的最大上下文长度,影响记忆能力;
  • maxTokens:单次回答的最大 Token 数;
  • reasoning:是否支持思考过程(仅部分模型支持);
  • cost:计费参数,本地模型设为 0。

第五章:快速配置命令汇总

5.1 命令行方式配置

OpenClaw 提供了非交互式命令行,可在脚本中直接配置模型:

# 添加自定义模型供应商
openclaw onboard \
  --auth-choice custom-api-key \
  --custom-provider-id my-model \
  --custom-base-url http://localhost:8000/v1 \
  --custom-model-id qwen2.5-7b \
  --custom-api-key "no-key-needed" \
  --custom-compatibility openai

5.2 模型管理命令速查

命令 功能
openclaw models list 列出所有已配置模型
openclaw models current 查看当前默认模型
openclaw models set 提供商/模型 ID 切换默认模型
openclaw chat --model 模型 ID 临时使用指定模型对话
openclaw config get models 查看模型配置
openclaw config set models.providers.xxx.baseUrl URL 修改模型 API 地址

5.3 快速测试模型是否生效

# 测试当前模型
openclaw chat --prompt "你是什么模型?请简要介绍自己"
# 指定模型测试
openclaw chat --model yuanbao/hunyuan-turbo --prompt "你好"

如果模型正常响应,说明配置已生效。

第六章:常见问题与解决方案

Q1:修改模型后无法连接怎么办?

排查步骤

  • 检查 API Key 是否正确,注意前后是否有空格;
  • 确认账号是否有足够 Token 额度(新账号需实名认证);
  • 重启 OpenClaw 服务:openclaw gateway restart
  • 检查网络是否能访问 API 地址:curl -I https://api.deepseek.com/v1

Q2:如何确认模型配置已生效?

发送测试消息,如“你现在调用的模型是什么”,如果 AI 能正常响应并说明模型信息,说明配置成功。也可通过 openclaw models current 命令查看当前使用的模型。

Q3:本地模型响应太慢怎么办?

  • 选择更小的量化版本(如从 Q5_K_M 换为 Q4_K_M);
  • 选择更小的模型(如从 32B 换为 7B);
  • 确保 GPU 驱动正常,CPU 推理会明显变慢;
  • 调整 Context Window 长度,过长的上下文会消耗大量显存。

Q4:多个模型如何快速切换?

Web 面板中点击右上角模型选择器下拉菜单,或使用命令 openclaw models set 提供商/模型 ID。对话内也可直接输入 /model 模型 ID 快速切换。

Q5:OpenClaw 能否同时使用多个模型?

可以。通过配置 fallback 降级模型实现自动切换,或通过对话内手动切换。

Q6:云端模型和本地模型如何选择?

因素 云端模型 本地模型
成本 按量付费/免费额度 完全免费
性能 响应快,算力强 取决于本地硬件
隐私 数据上传云端 数据不出本地
联网 需要网络 可完全离线
复杂任务能力 强(千亿参数) 较弱(受硬件限制)

建议组合:日常使用本地模型降成本,复杂任务通过 fallback 自动切换到云端模型。

结语:选对“大脑”,龙虾才能真正干活

OpenClaw 的强大之处在于它的“开放性”——不绑定任何模型,让你自由选择最适合需求的“大脑”。无论是追求极致的代码能力(DeepSeek)、优秀的中文理解(腾讯元宝)、数据隐私保护(本地 Ollama),还是零成本长期使用(元宝免费版、豆包),都能找到匹配方案。

配置的核心三步骤

  • 获取 API Key(云端)或部署本地服务(Ollama/LM Studio);
  • 编辑配置文件 ~/.openclaw/openclaw.json 添加模型提供商;
  • 执行 openclaw gateway restart 重启生效。

只需完成以上核心三步,就能让“龙虾”真正发挥价值。选对并配置好模型,才能让这一 AI 执行引擎高效落地各类场景,解锁更多实用能力。

以上关于OpenClaw 模型配置指南 选对 “大脑” 很关键,覆盖元宝 / 豆包 / DeepSeek/Ollama,兼顾成本与隐私安全的文章就介绍到这了,更多相关内容请搜索码云笔记以前的文章或继续浏览下面的相关文章,希望大家以后多多支持码云笔记。

「点点赞赏,手留余香」

32

给作者打赏,鼓励TA抓紧创作!

微信微信 支付宝支付宝

还没有人赞赏,快来当第一个赞赏的人吧!

声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 admin@mybj123.com 进行投诉反馈,一经查实,立即处理!
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断
码云笔记 » OpenClaw 模型配置指南 选对 “大脑” 很关键,覆盖元宝 / 豆包 / DeepSeek/Ollama,兼顾成本与隐私安全

发表回复