在使用OpenClaw调用大模型时,如果系统提示 Model Not Supported、Model is not supported、Unsupported model 或 Provider does not support this model,说明当前模型名称、Provider配置、API接口或模型映射不符合OpenClaw的支持规则。该错误通常出现在模型名称错误、Provider不匹配、Alias映射错误、API Base URL错误、本地模型格式不兼容、OpenAI兼容接口不完整、模型未注册、配置缓存未刷新、版本不支持新模型等场景。
要彻底解决OpenClaw Model Not Supported错误,需要逐项检查模型名称、Provider设置、API Key绑定、模型列表、Alias映射、Token URL、Docker环境变量、本地模型接口格式以及OpenClaw版本兼容性。
一、模型名称写错导致 Model Not Supported
OpenClaw调用模型时必须使用真实模型名或正确Alias。
错误示例:
gpt4
gpt4o
claude3
gemini-pro
正确示例:
gpt-4o
gpt-4o-mini
claude-3-sonnet
gemini-1.5-pro
解决方法:
- 进入Models列表
- 复制真实模型名称
- 不要手写猜测名称
二、Provider与模型不匹配
Provider错误会导致Model Not Supported。
错误:
model = gpt-4o
provider = anthropic
正确:
model = gpt-4o
provider = openai
错误:
model = claude-3-sonnet
provider = openai
正确:
provider = anthropic
必须保证:
- openai → gpt
- anthropic → claude
- google → gemini
- ollama → llama
- custom → openai兼容
三、Alias映射错误
Alias如果指向不存在模型,会报错。
错误:
fast -> gpt4
但真实模型:
gpt-4o-mini
解决:
fast -> gpt-4o-mini
检查位置:
四、模型未添加到Models列表
OpenClaw不会自动支持所有模型。
必须先添加。
进入:
示例:
name = gpt-4o-mini
provider = openai
未添加直接调用会报:
Model Not Supported
五、API Base URL不支持该模型
如果使用自定义API,可能没有该模型。
示例:
API_BASE_URL=http://127.0.0.1:8000/v1
但接口只支持:
llama3
调用:
gpt-4o
会报错。
解决:
六、本地模型格式不兼容
本地模型必须符合OpenAI兼容格式。
接口需要支持:
/v1/models
/v1/chat/completions
如果缺少:
- Model Not Supported
- Unknown model
适配工具:
- vLLM
- Ollama
- LM Studio
- FastChat
七、Ollama模型名称错误
Ollama模型必须使用完整名称。
错误:
llama3
正确:
llama3:8b
llama3:70b
检查:
ollama list
八、Workflow保存旧模型
Workflow可能仍使用旧模型。
进入:
检查:
model = old_model
改为:
model = fast
九、Agent绑定旧模型
Agent中模型不存在会报错。
进入:
检查:
model = claude
如果未添加Claude,就会报错。
十、Fallback模型不存在
OpenClaw支持备用模型。
如果fallback错误:
fallback = claude
但未添加Claude。
会报:
Model Not Supported
十一、版本不支持新模型
旧版本OpenClaw不支持新模型名称。
例如:
- gpt-4.1
- gpt-4o
- gemini-1.5
解决:
docker pull openclaw/openclaw:latest
重启:
docker compose up -d
十二、缓存未刷新
修改模型后未刷新缓存。
解决:
docker restart openclaw
或:
rm -rf cache
十三、数据库仍保存旧模型
sqlite3 data.db
select * from models;
删除错误模型。
十四、多Provider冲突
多个Provider时,模型必须绑定正确。
示例:
openai
anthropic
ollama
gemini
模型必须指定。
provider
十五、推荐正确配置示例
gpt-4o-mini
provider=openai
claude-3-sonnet
provider=anthropic
llama3:8b
provider=ollama
gemini-1.5-pro
provider=google
Alias:
fast
smart
local
vision
使用正确模型名、正确Provider、正确Alias,可以避免OpenClaw Model Not Supported错误。 |