如果你已经习惯了 Codex CLI 或 Claude Code,会很快发现一个现实问题:在国内环境里,账号、网络、支付和服务可达性经常比工具本身更先成为门槛。

所以这篇文章不做模型榜单,也不试图证明某个模型“全面超过”另一个模型。它只回答一个更实际的问题:

如果我想在本地项目目录里,用命令行让 AI 读文件、改文件、跑命令、整理资料、完成开发任务,在国内有没有可落地的平替方案?

我的结论是:

  • 如果你能稳定使用 OpenAI,Codex CLI 仍然是最完整的一体化体验。
  • 如果你希望在国内更容易落地,OpenCode + MiniMax-M2.7 是最值得先试的开放组合。
  • 如果你已经在用 Qwen Code,或者更看重国内生态、hooks、MCP、headless 等能力,Qwen Code + MiniMax-M2.7 也值得配置。

这里说的“平替”,替代的是 本地 CLI agent 工作流,不是完全替代 Codex 或 Claude Code 背后的模型能力、产品生态和安全体系。

先理解:我们比较的是 CLI,不只是模型

普通聊天 AI 的核心动作是回答问题。

CLI 型 AI 编程工具的核心动作是进入一个目录,然后围绕真实文件工作:

  • 读取项目结构
  • 搜索代码和文档
  • 修改文件
  • 执行 shell 命令
  • 跑测试或构建
  • 连接 MCP 工具
  • 遵守项目规则
  • 在 git diff 里留下可检查的结果

所以这篇文章比较的是三种“工具 + 模型 + 本地执行环境”的组合:

Codex CLI
OpenCode + MiniMax-M2.7
Qwen Code + MiniMax-M2.7

这三者的差异不只在模型。更大的差异来自 agent harness:谁负责给模型暴露文件系统、shell、MCP、权限、规则、上下文和非交互模式。

方案一:Codex CLI

Codex CLI 是 OpenAI 官方的本地命令行 coding agent。官方文档对它的定位很明确:在终端运行,能检查仓库、编辑文件和运行命令。第一次运行时可以用 ChatGPT 账号或开发者访问凭据登录。

安装:

npm install -g @openai/codex

启动:

cd /path/to/project
codex

非交互模式:

codex exec -C /path/to/project \
  --sandbox workspace-write \
  "解释这个项目的目录结构,不要修改文件"

如果你只是想让它只读分析,可以使用默认的只读模式,或者明确提示不要修改文件。

Codex 的强项是完整度。它有成熟的 sandbox、approval、AGENTS.md、skills、MCP、非交互 codex exec、JSON 输出和项目规则体系。

但在国内,它的问题也很现实:不一定每个人都能稳定访问、登录和持续使用 OpenAI 服务。

方案二:OpenCode + MiniMax-M2.7

OpenCode 是开源的终端 AI coding agent。官方文档说它可以作为 terminal-based interface、desktop app 或 IDE extension 使用。它支持多 provider,并且官方 provider 列表里包含 MiniMax。

MiniMax 官方也提供了 MiniMax-M2.7 接入 OpenCode 的说明:安装 OpenCode,运行认证命令,选择 MiniMax,输入访问凭据,然后开始使用。

安装 OpenCode:

curl -fsSL https://opencode.ai/install | bash

如果当前终端还找不到 opencode,先刷新 shell:

source ~/.zshrc
opencode --version

配置 MiniMax:

opencode auth login

在交互界面里选择 MiniMax,输入你的 MiniMax 访问凭据。

进入项目:

cd /path/to/project
opencode

在 OpenCode TUI 里运行:

/models

选择 MiniMax-M2.7。如果模型列表没有刷新,可以先运行:

opencode models --refresh

非交互测试:

opencode run --dir /path/to/project \
  -m <provider/model> \
  "解释这个项目的目录结构,不要修改文件"

这里的 <provider/model> 不建议凭空猜。用下面命令查看你本机实际可用的模型 ID:

opencode models minimax --refresh

OpenCode + MiniMax 的优势是清晰:OpenCode 提供本地 agent 工作流,MiniMax-M2.7 提供国内更容易接入的模型能力。对想找 Claude Code / Codex CLI 类体验的人,这是最值得先试的组合。

方案三:Qwen Code + MiniMax-M2.7

Qwen Code 是 Qwen 官方的终端 agentic coding tool。官方文档里它支持安装、交互模式、headless mode、MCP、approval mode、hooks、skills、LSP 和多种配置方式。

安装:

curl -fsSL https://qwen-code-assets.oss-cn-hangzhou.aliyuncs.com/installation/install-qwen.sh | bash

刷新 shell:

source ~/.zshrc
qwen --version

Qwen Code 默认可以走 Qwen 自己的认证。但如果你想用 MiniMax,可以把 MiniMax 当成 OpenAI-compatible provider。

建议先用 provider 配置,避免把访问凭据写进命令历史。创建或编辑用户级配置:

mkdir -p ~/.qwen

~/.qwen/settings.json 中加入:

{
  "modelProviders": {
    "openai": [
      {
        "id": "MiniMax-M2.7",
        "name": "MiniMax M2.7",
        "envKey": "MINIMAX_CREDENTIAL",
        "baseUrl": "https://api.minimaxi.com/v1",
        "generationConfig": {
          "timeout": 300000,
          "maxRetries": 2,
          "contextWindowSize": 204800
        }
      }
    ]
  }
}

然后在当前终端导入凭据并启动:

export MINIMAX_CREDENTIAL="你的 MiniMax 访问凭据"

qwen \
  --auth-type openai \
  --model MiniMax-M2.7

如果你在中国大陆以外使用 MiniMax 国际站,把 base url 改成:

https://api.minimax.io/v1

在项目里启动:

cd /path/to/project
qwen

Headless 测试:

qwen -p "解释这个项目的目录结构,不要修改文件"

如果你希望长期使用,建议把 MiniMax 作为 Qwen Code 的 modelProviders 写进配置,并通过环境变量引用访问凭据,不要把 credential 明文写进项目仓库。Qwen Code 官方文档明确建议 provider 配置通过 envKey 读取环境变量。

Qwen Code + MiniMax 的优势是生态和扩展性。它对国内用户更友好,也有 MCP、hooks、approval mode、headless 等能力。它的风险是:MiniMax 不是 Qwen Code 默认的一体化路线,实际效果取决于 OpenAI-compatible 适配质量、工具调用表现和你本机配置。

三种方案怎么选

如果你已经能稳定使用 OpenAI,并且主要做代码开发、review、重构、测试修复,优先用 Codex CLI。

如果你在国内,希望快速获得一个类似 Claude Code / Codex CLI 的本地 agent 体验,先试 OpenCode + MiniMax-M2.7。

如果你已经使用 Qwen Code,或者希望接入 Qwen 的 hooks、MCP、headless 和国内生态,再配置 Qwen Code + MiniMax-M2.7。

可以压成一句话:

能稳定用 OpenAI:Codex CLI
想找开放平替:OpenCode + MiniMax
想要国内生态和 Qwen 工作流:Qwen Code + MiniMax

对比表

维度Codex CLIOpenCode + MiniMax-M2.7Qwen Code + MiniMax-M2.7
核心定位OpenAI 官方 coding agent开源 CLI agent + MiniMax 模型Qwen Code agent + MiniMax OpenAI-compatible
国内可用性可能受账号和网络影响相对更容易落地相对更容易落地
安装门槛
交互模式codexopencodeqwen
非交互模式codex execopencode runqwen -p
模型接入OpenAI 体系为主多 provider,含 MiniMax多 provider,可用 OpenAI-compatible
项目规则AGENTS.md、skillsAGENTS.md、rules、agentsQwen settings、memory、hooks、skills
MCP支持支持支持
权限控制sandbox / approval 成熟permissions / agent 配置approval mode / sandbox
适合人群能稳定使用 OpenAI 的用户想要开放 CLI 平替的用户想要国内生态和 Qwen 工作流的用户

本地测试方法

不要一上来就在生产项目里试。先建一个空目录:

mkdir -p ~/ai-cli-bench
cd ~/ai-cli-bench
git init

第一轮测试只让它们解释目录,不允许改文件:

请读取当前项目目录,解释目录结构,并说明如果要在这里做一个简单 Python CLI,你会怎么组织。不要修改任何文件。

第二轮测试让它们创建一个很小的程序:

请实现一个 Python CLI:task_tracker.py。
要求:
1. 支持 add/list/done 三个命令
2. 数据保存到 tasks.json
3. 写 README.md 说明用法
4. 写一个最小测试脚本
5. 完成后运行测试

第三轮测试看它们是否能遵守边界:

请只修改 README.md,总结这个项目现在有什么文件、如何运行测试。不要修改任何 Python 文件。

每轮结束后看:

git diff

评分不要只看回答好不好看。重点看:

  • 是否真的完成任务
  • 是否乱改无关文件
  • 是否主动运行验证
  • 是否能解释自己改了什么
  • 是否能在失败后恢复
  • 是否遵守“不修改文件”的指令
  • 中文提示理解是否稳定

常见问题

MiniMax 的国内 endpoint 应该用哪个?

MiniMax 官方文档里对国内用户给出的 OpenAI-compatible base url 是:

https://api.minimaxi.com/v1

国际站常用:

https://api.minimax.io/v1

MiniMax-M2.7 为什么适合试 CLI agent?

MiniMax 官方文档把 M2.7 描述为具备代码理解、多轮对话和推理能力,并且支持工具调用与 interleaved thinking。它的 API overview 里列出 M2.7 和 M2.7-highspeed,context window 为 204,800 tokens。

但这不等于它在每个 CLI agent 里表现都一样。agent harness 是否正确保留工具调用历史、reasoning 字段、上下文和文件操作结果,会影响实际体验。

为什么不直接用 MiniMax 配 Codex CLI?

MiniMax 官方文档确实给了 Codex CLI 接入 MiniMax 的配置示例,但同一页也把 Codex CLI 标为 Not Recommended,并提示较新版本可能有兼容问题。这也是为什么本文把 MiniMax 的主路径放在 OpenCode 和 Qwen Code 上,而不是建议普通用户优先改 Codex CLI 的 provider。

这能完全替代 Claude Code 吗?

不能这么说。

更准确的说法是:OpenCode + MiniMax、Qwen Code + MiniMax 可以替代一部分“本地 CLI agent 工作流”:读项目、改文件、运行命令、做小型开发和文档整理。

但 Claude Code 和 Codex CLI 的产品体验、模型适配、安全策略、上下文工程和生态仍有自己的优势。

我的建议

如果你只是想找一个国内更容易跑起来的 CLI agent,先试:

OpenCode + MiniMax-M2.7

如果你已经装了 Qwen Code,或者想用 Qwen 的 hooks、MCP、headless 能力,再试:

Qwen Code + MiniMax-M2.7

如果你能稳定使用 OpenAI,Codex CLI 仍然值得保留。它不是这两套方案的敌人,而是一个成熟参照物。

真正有价值的做法不是站队,而是把三者放进同一套本地任务里测试。谁能更稳定地理解你的目录、遵守你的边界、完成你的任务,谁就是你当前最合适的工具。

资料依据