OpenClaw 如何白嫖顶级模型|免费 MiniMax M2.5 实战
OpenClaw 如何白嫖顶级模型|免费 MiniMax M2.5 实战
写在前面:OpenClaw 虽然强大,但它可是一个 token 消耗大户——每次对话都在燃烧你的 API 配额,钱包表示压力很大 😢
不过最近发现了一个好消息:opencode zen 平台正好提供免费的 MiniMax M2.5 模型试用!这波不亏,今天来聊聊如何配置。
配置步骤
1. 修改配置文件
打开 OpenClaw 的配置文件 ~/.openclaw/openclaw.json,在 models.providers 中添加:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
"m2-5": {
"baseUrl": "https://opencode.ai/zen/v1",
"apiKey": "你的 API Key",
"api": "openai-completions",
"models": [
{
"id": "minimax-m2.5-free",
"name": "minimax-m2.5-free",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 100000,
"maxTokens": 100000
}
]
}
2. 设置默认模型
在 agents.defaults.model 中配置:
1
2
3
"model": {
"primary": "m2-5/minimax-m2.5-free"
}
同时在 agents.defaults.models 中注册:
1
2
3
"models": {
"m2-5/minimax-m2.5-free": {}
}
3. 重启 Gateway
1
openclaw gateway restart
使用体验
配置完成后直接开用!响应速度快、上下文理解能力强,关键是免费。
写代码、回答问题、分析长文档都不在话下。100K 上下文丢个几千行代码库进去让它分析都行。如果你还需要更强的推理能力,可以搭配智谱的 GLM 系列模型一起使用。
总结
白嫖才是硬道理!MiniMax M2.5 Free = 免费 + 稳定输出,还要什么自行车 🚲
OpenClaw 配这个模型,丝滑又省钱,舒服~
悄悄告诉你:zen 平台还提供了其他免费模型,比如 KIMI K2.5 等,使用方式跟上面类似,也可以一起配置体验。
如果你有更好的免费模型推荐,欢迎留言交流 🙌
本文由作者按照 CC BY 4.0 进行授权