一,安装codex
codex
命令:npm i -g @openai/codex (前提:安装node.js)
windows要先使用一次才有.codex文件(一般在C:\Users\用户名.codex)
进入:codex
退出:/quit
选择模型:/model
二,新建config.toml
内容:
model = "Qwen/Qwen2.5-Coder-32B-Instruct"(模型叫啥改啥)
model_provider = "modelscope"
[model_providers.modelscope]
name = "Modelscope"
base_url = "https://api-inference.modelscope.cn/v1"
#(代码示例里的base_url)
env_key = "MODELSCOPE_API_KEY"#(名字不能写为api_Key)
三,设置环境变量
1.环境变量→用户环境变量→新建 (变量名写env_key)值写api_key的值
都在魔塔社区,最后重启codex就能使用
四,可能的小bug
模型总是倾向于用shell修改文件,但这样效率低还容易出错,如果出错就打断输入:apply_patch 你用这个修改文件
在魔塔社区(ModelScope)的免费推理 API(Inference API)中,目前写代码(Coding)能力最强、且支持通过 OpenAI 格式调用的模型,毫无疑问是 Qwen2.5-Coder 系列。
你遇到的“有些模型用不了”的问题,通常是因为:
-
模型 ID 写错了(比如目前还没有 Qwen3,只有 Qwen2.5)。
-
没有选择 Instruct 版本(对话和插件需要指令微调版)。
-
该模型未在免费 API 支持列表中(ModelScope 免费 API 仅支持部分热门模型,而非所有上传的模型)。
以下是具体的推荐配置和解决方案:
1. 最佳推荐:Qwen2.5-Coder-32B-Instruct
这是目前开源界公认的“代码之王”,在代码生成能力上媲美甚至超越 GPT-4o。它是专门为编程优化的,非常适合用来替换 Codex。
修改你的配置如下:
model = "Qwen/Qwen2.5-Coder-32B-Instruct"
model_provider = "modelscope"
[model_providers.modelscope]
name = "Modelscope"
base_url = "https://api-inference.modelscope.cn/v1"
env_key = "MODELSCOPE_API_KEY"
如果 32B 版本调用不稳定或超时,可以换用 7B 版本(速度更快,能力也很强):
model = “Qwen/Qwen2.5-Coder-7B-Instruct”
2. 备选推荐:Qwen2.5-72B-Instruct
如果你不仅仅是写代码,还需要它进行复杂的逻辑推理、写文档或解释架构,通用的 Qwen2.5-72B 是目前 ModelScope 上综合最强的模型。
3. 为什么你之前的配置用不了?
你提到的 model = “Qwen/Qwen3-32B” 无法使用,主要原因如下:
-
版本号错误:阿里目前发布的最新版本是 Qwen2.5,并没有 Qwen3。
-
ModelScope API 的机制:
-
ModelScope 的 https://api-inference.modelscope.cn/v1 接口并不是如果你填任意一个模型 ID 它就能跑。
-
它只针对**官方托管(Serverless)**的热门模型提供免费算力支持。
-
如果你填写了一个冷门模型或者仅仅是上传了权重但没有部署 API 服务的模型 ID,接口会返回 404 或 Error。
-
4. 如何确认一个模型是否支持 API 调用?
在编写代码配置前,建议按以下步骤确认:
-
搜索你想用的模型(例如搜 “Qwen2.5-Coder”)。
-
点击进入模型卡片页。
-
看右侧(或顶部)是否有 “部署” → “API推理” 或 “在线体验” 的入口。
- 如果页面上有“快速使用”或“API调用”的示例代码,说明该模型支持 API-Inference。
-
复制页面上显示的“模型ID”(例如 Qwen/Qwen2.5-Coder-32B-Instruct),不要自己凭感觉拼写。
最后,vscode里面直接下载插件codex,如果你CLI用过,那么vscode里面直接用就可以了
总结
为了在编辑器或工具中获得最好的编程体验,请直接复制使用 Qwen/Qwen2.5-Coder-32B-Instruct。它是目前免费 API 中最接近 Codex/Github Copilot 体验的模型。
model = "glm-4.6"
model_provider = "modelscope"
[model_providers.modelscope]
name = "Modelscope"
base_url = "https://open.bigmodel.cn/api/paas/v4/"
env_key = "MODELSCOPE_API_KEY"
注意更改:model,base_url,ODELSCOPE_API_KEY的值即可```