一,安装codex

codex 命令:npm i -g @openai/codex (前提:安装node.js) windows要先使用一次才有.codex文件(一般在C:\Users\用户名.codex)

进入:codex
退出:/quit
选择模型:/model

二,新建config.toml

内容:

model = "Qwen/Qwen2.5-Coder-32B-Instruct"(模型叫啥改啥)
model_provider = "modelscope"

[model_providers.modelscope]
name = "Modelscope"
base_url = "https://api-inference.modelscope.cn/v1"
#(代码示例里的base_url)
env_key = "MODELSCOPE_API_KEY"#(名字不能写为api_Key)

三,设置环境变量

1.环境变量用户环境变量新建 (变量名写env_key)值写api_key的值

都在魔塔社区,最后重启codex就能使用

四,可能的小bug

模型总是倾向于用shell修改文件,但这样效率低还容易出错,如果出错就打断输入:apply_patch 你用这个修改文件

在魔塔社区(ModelScope)的免费推理 API(Inference API)中,目前写代码(Coding)能力最强、且支持通过 OpenAI 格式调用的模型,毫无疑问是 Qwen2.5-Coder 系列。

你遇到的“有些模型用不了”的问题,通常是因为:

  1. 模型 ID 写错了(比如目前还没有 Qwen3,只有 Qwen2.5)。

  2. 没有选择 Instruct 版本(对话和插件需要指令微调版)。

  3. 该模型未在免费 API 支持列表中(ModelScope 免费 API 仅支持部分热门模型,而非所有上传的模型)。

以下是具体的推荐配置和解决方案:

1. 最佳推荐:Qwen2.5-Coder-32B-Instruct

这是目前开源界公认的“代码之王”,在代码生成能力上媲美甚至超越 GPT-4o。它是专门为编程优化的,非常适合用来替换 Codex。

修改你的配置如下:

model = "Qwen/Qwen2.5-Coder-32B-Instruct"
model_provider = "modelscope"

[model_providers.modelscope]
name = "Modelscope"
base_url = "https://api-inference.modelscope.cn/v1"
env_key = "MODELSCOPE_API_KEY"

如果 32B 版本调用不稳定或超时,可以换用 7B 版本(速度更快,能力也很强):
model = “Qwen/Qwen2.5-Coder-7B-Instruct”

2. 备选推荐:Qwen2.5-72B-Instruct

如果你不仅仅是写代码,还需要它进行复杂的逻辑推理、写文档或解释架构,通用的 Qwen2.5-72B 是目前 ModelScope 上综合最强的模型。

3. 为什么你之前的配置用不了?

你提到的 model = “Qwen/Qwen3-32B” 无法使用,主要原因如下:

  1. 版本号错误:阿里目前发布的最新版本是 Qwen2.5,并没有 Qwen3。

  2. ModelScope API 的机制

    • ModelScope 的 https://api-inference.modelscope.cn/v1 接口并不是如果你填任意一个模型 ID 它就能跑。

    • 它只针对**官方托管(Serverless)**的热门模型提供免费算力支持。

    • 如果你填写了一个冷门模型或者仅仅是上传了权重但没有部署 API 服务的模型 ID,接口会返回 404 或 Error。

4. 如何确认一个模型是否支持 API 调用?

在编写代码配置前,建议按以下步骤确认:

  1. 打开 魔塔社区 (modelscope.cn)

  2. 搜索你想用的模型(例如搜 “Qwen2.5-Coder”)。

  3. 点击进入模型卡片页。

  4. 看右侧(或顶部)是否有 “部署” “API推理”“在线体验” 的入口。

    • 如果页面上有“快速使用”或“API调用”的示例代码,说明该模型支持 API-Inference。
  5. 复制页面上显示的“模型ID”(例如 Qwen/Qwen2.5-Coder-32B-Instruct),不要自己凭感觉拼写。

最后,vscode里面直接下载插件codex,如果你CLI用过,那么vscode里面直接用就可以了

总结

为了在编辑器或工具中获得最好的编程体验,请直接复制使用 Qwen/Qwen2.5-Coder-32B-Instruct。它是目前免费 API 中最接近 Codex/Github Copilot 体验的模型。

model = "glm-4.6"
model_provider = "modelscope"

[model_providers.modelscope]
name = "Modelscope"
base_url = "https://open.bigmodel.cn/api/paas/v4/"
env_key = "MODELSCOPE_API_KEY"
注意更改:model,base_url,ODELSCOPE_API_KEY的值即可```