2026-03-16 07:03:19 +00:00

223 lines
7.4 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
read_when:
- 你想在 OpenClaw 中使用 MiniMax 模型
- 你需要 MiniMax 设置指南
summary: 在 OpenClaw 中使用 MiniMax M2.5
title: MiniMax
x-i18n:
generated_at: "2026-03-16T06:26:04Z"
model: gpt-5.4
provider: openai
source_hash: ffed28de9ecc5a1d2ad9f18adc08dd9cf39df40674b14c7ef078b16c92faacf2
source_path: providers/minimax.md
workflow: 15
---
# MiniMax
MiniMax 是一家 AI 公司,构建了 **M2/M2.5** 模型家族。当前
面向编码的版本是 **MiniMax M2.5**2025 年 12 月 23 日),专为
现实世界中的复杂任务打造。
来源:[MiniMax M2.5 发布说明](https://www.minimax.io/news/minimax-m25)
## 模型概览M2.5
MiniMax 在 M2.5 中重点强调了以下改进:
- 更强的**多语言编码**能力Rust、Java、Go、C++、Kotlin、Objective-C、TS/JS
- 更好的**Web/应用开发**和美学输出质量(包括原生移动端)。
- 在交错思考和集成约束执行的基础上,改进了面向办公类工作流的**复合指令**处理。
- **更简洁的响应**token 使用量更低,迭代循环更快。
- 更强的**工具/智能体框架**兼容性和上下文管理能力Claude Code、
Droid/Factory AI、Cline、Kilo Code、Roo Code、BlackBox
- 更高质量的**对话和技术写作**输出。
## MiniMax M2.5 与 MiniMax M2.5 Highspeed
- **速度:** `MiniMax-M2.5-highspeed` 是 MiniMax 文档中的官方高速层级。
- **成本:** MiniMax 定价显示,高速版的输入成本相同,而输出成本更高。
- **当前模型 ID** 使用 `MiniMax-M2.5``MiniMax-M2.5-highspeed`
## 选择一种设置方式
### MiniMax OAuthCoding Plan—— 推荐
**最适合:** 通过 OAuth 使用 MiniMax Coding Plan 快速设置,无需 API key。
启用内置 OAuth 插件并完成认证:
```bash
openclaw plugins enable minimax # 如果已加载则跳过。
openclaw gateway restart # 如果 gateway 已在运行,则重启
openclaw onboard --auth-choice minimax-portal
```
系统会提示你选择一个端点:
- **Global** - 国际用户(`api.minimax.io`
- **CN** - 中国用户(`api.minimaxi.com`
详情请参阅 [MiniMax plugin README](https://github.com/openclaw/openclaw/tree/main/extensions/minimax)。
### MiniMax M2.5API key
**最适合:** 使用与 Anthropic 兼容 API 的托管 MiniMax。
通过 CLI 配置:
- 运行 `openclaw configure`
- 选择 **Model/auth**
- 选择 **MiniMax M2.5**
```json5
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "minimax/MiniMax-M2.5" } } },
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "MiniMax-M2.5",
name: "MiniMax M2.5",
reasoning: true,
input: ["text"],
cost: { input: 0.3, output: 1.2, cacheRead: 0.03, cacheWrite: 0.12 },
contextWindow: 200000,
maxTokens: 8192,
},
{
id: "MiniMax-M2.5-highspeed",
name: "MiniMax M2.5 Highspeed",
reasoning: true,
input: ["text"],
cost: { input: 0.3, output: 1.2, cacheRead: 0.03, cacheWrite: 0.12 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
```
### 将 MiniMax M2.5 作为回退模型(示例)
**最适合:** 保持你最强的最新一代模型作为主模型,并在失败时回退到 MiniMax M2.5。
下面的示例使用 Opus 作为具体主模型;你可以替换成自己偏好的最新一代主模型。
```json5
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-6": { alias: "primary" },
"minimax/MiniMax-M2.5": { alias: "minimax" },
},
model: {
primary: "anthropic/claude-opus-4-6",
fallbacks: ["minimax/MiniMax-M2.5"],
},
},
},
}
```
### 可选:通过 LM Studio 本地运行(手动)
**最适合:** 通过 LM Studio 进行本地推理。
我们已经看到,在强力硬件上(例如台式机/服务器)使用 LM Studio 的本地服务器运行 MiniMax M2.5 时,效果非常强。
通过 `openclaw.json` 手动配置:
```json5
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.5-gs32" },
models: { "lmstudio/minimax-m2.5-gs32": { alias: "Minimax" } },
},
},
models: {
mode: "merge",
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
apiKey: "lmstudio",
api: "openai-responses",
models: [
{
id: "minimax-m2.5-gs32",
name: "MiniMax M2.5 GS32",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 196608,
maxTokens: 8192,
},
],
},
},
},
}
```
## 通过 `openclaw configure` 配置
使用交互式配置向导设置 MiniMax而无需编辑 JSON
1. 运行 `openclaw configure`
2. 选择 **Model/auth**
3. 选择 **MiniMax M2.5**
4. 在提示时选择你的默认模型。
## 配置选项
- `models.providers.minimax.baseUrl`:优先使用 `https://api.minimax.io/anthropic`(与 Anthropic 兼容);`https://api.minimax.io/v1` 可选,用于与 OpenAI 兼容的负载。
- `models.providers.minimax.api`:优先使用 `anthropic-messages``openai-completions` 可选,用于与 OpenAI 兼容的负载。
- `models.providers.minimax.apiKey`MiniMax API key`MINIMAX_API_KEY`)。
- `models.providers.minimax.models`:定义 `id``name``reasoning``contextWindow``maxTokens``cost`
- `agents.defaults.models`:为你希望放入允许列表的模型设置别名。
- `models.mode`:如果你希望在内置模型之外添加 MiniMax请保持为 `merge`
## 说明
- 模型引用格式为 `minimax/<model>`
- 推荐模型 ID`MiniMax-M2.5``MiniMax-M2.5-highspeed`
- Coding Plan 用量 API`https://api.minimaxi.com/v1/api/openplatform/coding_plan/remains`(需要 coding plan key
- 如果你需要精确成本跟踪,请更新 `models.json` 中的定价值。
- MiniMax Coding Plan 推荐链接(九折):[https://platform.minimax.io/subscribe/coding-plan?code=DbXJTRClnb&source=link](https://platform.minimax.io/subscribe/coding-plan?code=DbXJTRClnb&source=link)
- 关于提供商规则,请参阅 [/concepts/model-providers](/concepts/model-providers)。
- 使用 `openclaw models list``openclaw models set minimax/MiniMax-M2.5` 进行切换。
## 故障排除
### “Unknown model: minimax/MiniMax-M2.5”
这通常意味着 **MiniMax 提供商未配置**(没有提供商条目,
并且也未找到 MiniMax 凭证配置文件/环境变量 key。对此检测问题的修复已包含在
**2026.1.12** 中(在撰写本文时尚未发布)。修复方法:
- 升级到 **2026.1.12**(或从源码运行 `main`),然后重启 gateway。
- 运行 `openclaw configure` 并选择 **MiniMax M2.5**,或者
- 手动添加 `models.providers.minimax` 配置块,或者
- 设置 `MINIMAX_API_KEY`(或 MiniMax 凭证配置文件),以便注入该提供商。
请确保模型 id **区分大小写**
- `minimax/MiniMax-M2.5`
- `minimax/MiniMax-M2.5-highspeed`
然后使用以下命令重新检查:
```bash
openclaw models list
```