如果你已经习惯了 Codex CLI 或 Claude Code,会很快发现一个现实问题:在国内环境里,账号、网络、支付和服务可达性经常比工具本身更先成为门槛。
所以这篇文章不做模型榜单,也不试图证明某个模型“全面超过”另一个模型。它只回答一个更实际的问题:
如果我想在本地项目目录里,用命令行让 AI 读文件、改文件、跑命令、整理资料、完成开发任务,在国内有没有可落地的平替方案?
我的结论是:
- 如果你能稳定使用 OpenAI,Codex CLI 仍然是最完整的一体化体验。
- 如果你希望在国内更容易落地,
OpenCode + MiniMax-M2.7是最值得先试的开放组合。 - 如果你已经在用 Qwen Code,或者更看重国内生态、hooks、MCP、headless 等能力,
Qwen Code + MiniMax-M2.7也值得配置。
这里说的“平替”,替代的是 本地 CLI agent 工作流,不是完全替代 Codex 或 Claude Code 背后的模型能力、产品生态和安全体系。
先理解:我们比较的是 CLI,不只是模型
普通聊天 AI 的核心动作是回答问题。
CLI 型 AI 编程工具的核心动作是进入一个目录,然后围绕真实文件工作:
- 读取项目结构
- 搜索代码和文档
- 修改文件
- 执行 shell 命令
- 跑测试或构建
- 连接 MCP 工具
- 遵守项目规则
- 在 git diff 里留下可检查的结果
所以这篇文章比较的是三种“工具 + 模型 + 本地执行环境”的组合:
Codex CLI
OpenCode + MiniMax-M2.7
Qwen Code + MiniMax-M2.7
这三者的差异不只在模型。更大的差异来自 agent harness:谁负责给模型暴露文件系统、shell、MCP、权限、规则、上下文和非交互模式。
方案一:Codex CLI
Codex CLI 是 OpenAI 官方的本地命令行 coding agent。官方文档对它的定位很明确:在终端运行,能检查仓库、编辑文件和运行命令。第一次运行时可以用 ChatGPT 账号或开发者访问凭据登录。
安装:
npm install -g @openai/codex
启动:
cd /path/to/project
codex
非交互模式:
codex exec -C /path/to/project \
--sandbox workspace-write \
"解释这个项目的目录结构,不要修改文件"
如果你只是想让它只读分析,可以使用默认的只读模式,或者明确提示不要修改文件。
Codex 的强项是完整度。它有成熟的 sandbox、approval、AGENTS.md、skills、MCP、非交互 codex exec、JSON 输出和项目规则体系。
但在国内,它的问题也很现实:不一定每个人都能稳定访问、登录和持续使用 OpenAI 服务。
方案二:OpenCode + MiniMax-M2.7
OpenCode 是开源的终端 AI coding agent。官方文档说它可以作为 terminal-based interface、desktop app 或 IDE extension 使用。它支持多 provider,并且官方 provider 列表里包含 MiniMax。
MiniMax 官方也提供了 MiniMax-M2.7 接入 OpenCode 的说明:安装 OpenCode,运行认证命令,选择 MiniMax,输入访问凭据,然后开始使用。
安装 OpenCode:
curl -fsSL https://opencode.ai/install | bash
如果当前终端还找不到 opencode,先刷新 shell:
source ~/.zshrc
opencode --version
配置 MiniMax:
opencode auth login
在交互界面里选择 MiniMax,输入你的 MiniMax 访问凭据。
进入项目:
cd /path/to/project
opencode
在 OpenCode TUI 里运行:
/models
选择 MiniMax-M2.7。如果模型列表没有刷新,可以先运行:
opencode models --refresh
非交互测试:
opencode run --dir /path/to/project \
-m <provider/model> \
"解释这个项目的目录结构,不要修改文件"
这里的 <provider/model> 不建议凭空猜。用下面命令查看你本机实际可用的模型 ID:
opencode models minimax --refresh
OpenCode + MiniMax 的优势是清晰:OpenCode 提供本地 agent 工作流,MiniMax-M2.7 提供国内更容易接入的模型能力。对想找 Claude Code / Codex CLI 类体验的人,这是最值得先试的组合。
方案三:Qwen Code + MiniMax-M2.7
Qwen Code 是 Qwen 官方的终端 agentic coding tool。官方文档里它支持安装、交互模式、headless mode、MCP、approval mode、hooks、skills、LSP 和多种配置方式。
安装:
curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh | bash
刷新 shell:
source ~/.zshrc
qwen --version
Qwen Code 默认可以走 Qwen 自己的认证。但如果你想用 MiniMax,可以把 MiniMax 当成 OpenAI-compatible provider。
建议先用 provider 配置,避免把访问凭据写进命令历史。创建或编辑用户级配置:
mkdir -p ~/.qwen
在 ~/.qwen/settings.json 中加入:
{
"modelProviders": {
"openai": [
{
"id": "MiniMax-M2.7",
"name": "MiniMax M2.7",
"envKey": "MINIMAX_CREDENTIAL",
"baseUrl": "https://api.minimaxi.com/v1",
"generationConfig": {
"timeout": 300000,
"maxRetries": 2,
"contextWindowSize": 204800
}
}
]
}
}
然后在当前终端导入凭据并启动:
export MINIMAX_CREDENTIAL="你的 MiniMax 访问凭据"
qwen \
--auth-type openai \
--model MiniMax-M2.7
如果你在中国大陆以外使用 MiniMax 国际站,把 base url 改成:
https://api.minimax.io/v1
在项目里启动:
cd /path/to/project
qwen
Headless 测试:
qwen -p "解释这个项目的目录结构,不要修改文件"
如果你希望长期使用,建议把 MiniMax 作为 Qwen Code 的 modelProviders 写进配置,并通过环境变量引用访问凭据,不要把 credential 明文写进项目仓库。Qwen Code 官方文档明确建议 provider 配置通过 envKey 读取环境变量。
Qwen Code + MiniMax 的优势是生态和扩展性。它对国内用户更友好,也有 MCP、hooks、approval mode、headless 等能力。它的风险是:MiniMax 不是 Qwen Code 默认的一体化路线,实际效果取决于 OpenAI-compatible 适配质量、工具调用表现和你本机配置。
三种方案怎么选
如果你已经能稳定使用 OpenAI,并且主要做代码开发、review、重构、测试修复,优先用 Codex CLI。
如果你在国内,希望快速获得一个类似 Claude Code / Codex CLI 的本地 agent 体验,先试 OpenCode + MiniMax-M2.7。
如果你已经使用 Qwen Code,或者希望接入 Qwen 的 hooks、MCP、headless 和国内生态,再配置 Qwen Code + MiniMax-M2.7。
可以压成一句话:
能稳定用 OpenAI:Codex CLI
想找开放平替:OpenCode + MiniMax
想要国内生态和 Qwen 工作流:Qwen Code + MiniMax
对比表
| 维度 | Codex CLI | OpenCode + MiniMax-M2.7 | Qwen Code + MiniMax-M2.7 |
|---|---|---|---|
| 核心定位 | OpenAI 官方 coding agent | 开源 CLI agent + MiniMax 模型 | Qwen Code agent + MiniMax OpenAI-compatible |
| 国内可用性 | 可能受账号和网络影响 | 相对更容易落地 | 相对更容易落地 |
| 安装门槛 | 低 | 低 | 低 |
| 交互模式 | codex | opencode | qwen |
| 非交互模式 | codex exec | opencode run | qwen -p |
| 模型接入 | OpenAI 体系为主 | 多 provider,含 MiniMax | 多 provider,可用 OpenAI-compatible |
| 项目规则 | AGENTS.md、skills | AGENTS.md、rules、agents | Qwen settings、memory、hooks、skills |
| MCP | 支持 | 支持 | 支持 |
| 权限控制 | sandbox / approval 成熟 | permissions / agent 配置 | approval mode / sandbox |
| 适合人群 | 能稳定使用 OpenAI 的用户 | 想要开放 CLI 平替的用户 | 想要国内生态和 Qwen 工作流的用户 |
本地测试方法
不要一上来就在生产项目里试。先建一个空目录:
mkdir -p ~/ai-cli-bench
cd ~/ai-cli-bench
git init
第一轮测试只让它们解释目录,不允许改文件:
请读取当前项目目录,解释目录结构,并说明如果要在这里做一个简单 Python CLI,你会怎么组织。不要修改任何文件。
第二轮测试让它们创建一个很小的程序:
请实现一个 Python CLI:task_tracker.py。
要求:
1. 支持 add/list/done 三个命令
2. 数据保存到 tasks.json
3. 写 README.md 说明用法
4. 写一个最小测试脚本
5. 完成后运行测试
第三轮测试看它们是否能遵守边界:
请只修改 README.md,总结这个项目现在有什么文件、如何运行测试。不要修改任何 Python 文件。
每轮结束后看:
git diff
评分不要只看回答好不好看。重点看:
- 是否真的完成任务
- 是否乱改无关文件
- 是否主动运行验证
- 是否能解释自己改了什么
- 是否能在失败后恢复
- 是否遵守“不修改文件”的指令
- 中文提示理解是否稳定
常见问题
MiniMax 的国内 endpoint 应该用哪个?
MiniMax 官方文档里对国内用户给出的 OpenAI-compatible base url 是:
https://api.minimaxi.com/v1
国际站常用:
https://api.minimax.io/v1
MiniMax-M2.7 为什么适合试 CLI agent?
MiniMax 官方文档把 M2.7 描述为具备代码理解、多轮对话和推理能力,并且支持工具调用与 interleaved thinking。它的 API overview 里列出 M2.7 和 M2.7-highspeed,context window 为 204,800 tokens。
但这不等于它在每个 CLI agent 里表现都一样。agent harness 是否正确保留工具调用历史、reasoning 字段、上下文和文件操作结果,会影响实际体验。
为什么不直接用 MiniMax 配 Codex CLI?
MiniMax 官方文档确实给了 Codex CLI 接入 MiniMax 的配置示例,但同一页也把 Codex CLI 标为 Not Recommended,并提示较新版本可能有兼容问题。这也是为什么本文把 MiniMax 的主路径放在 OpenCode 和 Qwen Code 上,而不是建议普通用户优先改 Codex CLI 的 provider。
这能完全替代 Claude Code 吗?
不能这么说。
更准确的说法是:OpenCode + MiniMax、Qwen Code + MiniMax 可以替代一部分“本地 CLI agent 工作流”:读项目、改文件、运行命令、做小型开发和文档整理。
但 Claude Code 和 Codex CLI 的产品体验、模型适配、安全策略、上下文工程和生态仍有自己的优势。
我的建议
如果你只是想找一个国内更容易跑起来的 CLI agent,先试:
OpenCode + MiniMax-M2.7
如果你已经装了 Qwen Code,或者想用 Qwen 的 hooks、MCP、headless 能力,再试:
Qwen Code + MiniMax-M2.7
如果你能稳定使用 OpenAI,Codex CLI 仍然值得保留。它不是这两套方案的敌人,而是一个成熟参照物。
真正有价值的做法不是站队,而是把三者放进同一套本地任务里测试。谁能更稳定地理解你的目录、遵守你的边界、完成你的任务,谁就是你当前最合适的工具。
资料依据
- OpenAI Codex CLI 官方文档:https://developers.openai.com/codex/cli
- OpenAI Codex 非交互模式:https://developers.openai.com/codex/noninteractive
- OpenAI Codex
AGENTS.md文档:https://developers.openai.com/codex/guides/agents-md - OpenAI Codex Skills 文档:https://developers.openai.com/codex/skills
- OpenCode 官方文档:https://opencode.ai/docs/
- OpenCode CLI 文档:https://opencode.ai/docs/cli/
- OpenCode Providers 文档:https://opencode.ai/docs/providers/
- MiniMax M2.7 for AI Coding Tools:https://platform.minimax.io/docs/guides/text-ai-coding-tools
- MiniMax API Overview:https://platform.minimax.io/docs/api-reference/api-overview
- MiniMax Tool Use & Interleaved Thinking:https://platform.minimax.io/docs/guides/text-m2-function-call
- Qwen Code Quickstart:https://qwenlm.github.io/qwen-code-docs/en/users/quickstart/
- Qwen Code Headless Mode:https://qwenlm.github.io/qwen-code-docs/en/users/features/headless/
- Qwen Code Model Providers:https://qwenlm.github.io/qwen-code-docs/en/users/configuration/model-providers/
- Qwen Code MCP:https://qwenlm.github.io/qwen-code-docs/en/users/features/mcp/
