您当前的位置:首页 > 行业新闻
OpenClaw Model Not Supported 错误原因
2026-3-19

在使用OpenClaw调用大模型时,如果系统提示 Model Not SupportedModel is not supportedUnsupported modelProvider does not support this model,说明当前模型名称、Provider配置、API接口或模型映射不符合OpenClaw的支持规则。该错误通常出现在模型名称错误、Provider不匹配、Alias映射错误、API Base URL错误、本地模型格式不兼容、OpenAI兼容接口不完整、模型未注册、配置缓存未刷新、版本不支持新模型等场景。

要彻底解决OpenClaw Model Not Supported错误,需要逐项检查模型名称、Provider设置、API Key绑定、模型列表、Alias映射、Token URL、Docker环境变量、本地模型接口格式以及OpenClaw版本兼容性。

一、模型名称写错导致 Model Not Supported

OpenClaw调用模型时必须使用真实模型名或正确Alias。

错误示例:

gpt4
gpt4o
claude3
gemini-pro

正确示例:

gpt-4o
gpt-4o-mini
claude-3-sonnet
gemini-1.5-pro

解决方法:

  • 进入Models列表
  • 复制真实模型名称
  • 不要手写猜测名称

二、Provider与模型不匹配

Provider错误会导致Model Not Supported。

错误:

model = gpt-4o
provider = anthropic

正确:

model = gpt-4o
provider = openai

错误:

model = claude-3-sonnet
provider = openai

正确:

provider = anthropic

必须保证:

  • openai → gpt
  • anthropic → claude
  • google → gemini
  • ollama → llama
  • custom → openai兼容

三、Alias映射错误

Alias如果指向不存在模型,会报错。

错误:

fast -> gpt4

但真实模型:

gpt-4o-mini

解决:

fast -> gpt-4o-mini

检查位置:

  • Models
  • Alias

四、模型未添加到Models列表

OpenClaw不会自动支持所有模型。

必须先添加。

进入:

  • Models
  • Add Model

示例:

name = gpt-4o-mini
provider = openai

未添加直接调用会报:

Model Not Supported

五、API Base URL不支持该模型

如果使用自定义API,可能没有该模型。

示例:

API_BASE_URL=http://127.0.0.1:8000/v1

但接口只支持:

llama3

调用:

gpt-4o

会报错。

解决:

  • 查看 /models
  • 确认接口支持

六、本地模型格式不兼容

本地模型必须符合OpenAI兼容格式。

接口需要支持:

/v1/models
/v1/chat/completions

如果缺少:

  • Model Not Supported
  • Unknown model

适配工具:

  • vLLM
  • Ollama
  • LM Studio
  • FastChat

七、Ollama模型名称错误

Ollama模型必须使用完整名称。

错误:

llama3

正确:

llama3:8b
llama3:70b

检查:

ollama list

八、Workflow保存旧模型

Workflow可能仍使用旧模型。

进入:

  • Workflow
  • Edit

检查:

model = old_model

改为:

model = fast

九、Agent绑定旧模型

Agent中模型不存在会报错。

进入:

  • Agents
  • Edit

检查:

model = claude

如果未添加Claude,就会报错。

十、Fallback模型不存在

OpenClaw支持备用模型。

如果fallback错误:

fallback = claude

但未添加Claude。

会报:

Model Not Supported

十一、版本不支持新模型

旧版本OpenClaw不支持新模型名称。

例如:

  • gpt-4.1
  • gpt-4o
  • gemini-1.5

解决:

docker pull openclaw/openclaw:latest

重启:

docker compose up -d

十二、缓存未刷新

修改模型后未刷新缓存。

解决:

docker restart openclaw

或:

rm -rf cache

十三、数据库仍保存旧模型

sqlite3 data.db
select * from models;

删除错误模型。

十四、多Provider冲突

多个Provider时,模型必须绑定正确。

示例:

openai
anthropic
ollama
gemini

模型必须指定。

provider

十五、推荐正确配置示例

gpt-4o-mini
provider=openai

claude-3-sonnet
provider=anthropic

llama3:8b
provider=ollama

gemini-1.5-pro
provider=google

Alias:

fast
smart
local
vision

使用正确模型名、正确Provider、正确Alias,可以避免OpenClaw Model Not Supported错误。

声明:部分内容、图片来源于互联网,如有侵权请联系删除,QQ:228866015;咨询请点击右侧在线客服,咨询在线QQ客服。

返回 ]

上一篇:OpenClaw API 401 未授权错误处理
下一篇:OpenClaw不用 Anthropic 仍提示缺少 API Key 解决方法