手把手教你在 GitHub Copilot 里解锁 Claude Opus 4.6 Fast 模式
2 月 7 号,GitHub 宣布 Copilot 接入了 Claude Opus 4.6 Fast 模式。这意味着你可以在 VS Code 里同时用到 GPT-5.3 Codex 和 Claude Opus 4.6 Fast,在一个 IDE 里切换两个最强编程模型。
但这个功能藏得有点深,默认没开。下面说说怎么打开,以及打开之后的实际体验。
前置条件
先确认你满足这几个条件:
- Copilot 订阅等级:必须是 Copilot Pro+($39/月)或 Enterprise。普通 Copilot Individual($10/月)和 Copilot Business 不行。
- VS Code 版本:更新到最新版(2026 年 2 月之后的版本)。
- Enterprise 用户额外步骤:管理员需要在 Copilot 设置里手动启用 Fast Mode 策略。
如果你是个人用户,检查一下是不是 Pro+ 计划。如果是 Business 用户,得找你们的 IT 管理员开权限。
开启步骤
个人用户(Pro+)
- 打开 VS Code
- 点击右下角的 Copilot 图标,或者按
Cmd+Shift+P(Mac)/Ctrl+Shift+P(Windows)打开命令面板 - 搜索 "Copilot: Select Model"
- 在模型列表里找到 "Claude Opus 4.6 (Fast)"
- 选中即可
如果列表里没出现这个选项,可能是灰度还没到你。GitHub 说的是"gradual rollout",不是所有人同时开放。等几天再看。
Enterprise 用户
管理员操作:
- 登录 GitHub,进入组织设置
- 找到 Copilot → Policies
- 找到 "Model selection" 或 "Fast mode" 相关策略
- 启用 Claude Opus 4.6 Fast
- 保存
之后组织内的成员就能在 VS Code 里看到这个模型选项了。
Copilot CLI 用户
命令行里也能用:
# 查看可用模型
gh copilot models
# 用 Fast 模式提问
gh copilot suggest --model claude-opus-4.6-fast "写一个 Go 的 HTTP 中间件"
实际体验:和 GPT-5.3 Codex 放一起用
我在同一个项目里分别用 GPT-5.3 Codex(Copilot 默认)和 Claude Opus 4.6 Fast 做了几个任务。
代码补全
这个场景两边差别不大。在写 TypeScript 的时候,两个模型的补全建议质量差不多,都能根据上下文给出合理的补全。
GPT-5.3 Codex 补全速度略快(毕竟是 Copilot 的原配模型,集成更深)。Opus 4.6 Fast 偶尔有零点几秒的额外延迟,日常使用感受不明显。
Chat 模式
在 Copilot Chat 里提问,差异开始显现。
问了一个关于 Next.js 14 App Router 的数据获取最佳实践。GPT-5.3 Codex 给的回答更"课本",结构清晰,覆盖全面,像是在读文档。Opus 4.6 Fast 的回答更"老练",会提到一些实际踩坑的情况,比如 revalidate 设置不当导致的缓存问题。
这不是说谁好谁差。看你需要的是教科书还是经验谈。
Edit 模式
让模型编辑一个已有的 React 组件,把 class component 重构成 hooks。
GPT-5.3 Codex 的重构比较保守,基本是一一对应地把 lifecycle 方法换成 useEffect,结构几乎不变。
Opus 4.6 Fast 会顺手做一些额外优化:把几个相关的 state 合并成一个 reducer,把重复的逻辑抽成自定义 hook。改得更多,但逻辑更清晰。
当然改得多也意味着你需要花更多时间 review。有时候我只想做最小改动,不想让模型擅自重构。这种时候 Codex 更省心。
Agent 模式
Copilot 的 Agent 模式支持多步骤自动编码。这是 Fast 模式优势最明显的场景。
让两个模型分别"给项目添加单元测试覆盖"。Agent 需要扫描项目结构、识别缺少测试的模块、为每个模块写测试。整个过程涉及几十次模型调用。
GPT-5.3 Codex:跑了大约 4 分钟,生成了 12 个测试文件。
Opus 4.6 Fast:跑了大约 2 分 40 秒,生成了 11 个测试文件。
速度差了 30%,文件数量差了 1 个(Opus 漏了一个工具函数的测试)。在 Agent 模式下,速度优势确实能感觉到。
两个模型的切换策略
用了几天之后,我摸出了一套切换方式:
| 场景 | 我用的模型 | 原因 |
|---|---|---|
| 日常代码补全 | GPT-5.3 Codex | 延迟最低,和 VS Code 集成最好 |
| Copilot Chat 问问题 | Opus 4.6 Fast | 回答更有深度 |
| 小范围代码编辑 | GPT-5.3 Codex | 改动最小,不过度重构 |
| 大范围重构 | Opus 4.6 Fast | 重构质量更高 |
| Agent 自动任务 | Opus 4.6 Fast | 速度优势在多步骤任务里放大 |
| Debug 疑难问题 | 看心情切 | 两个都试试,哪个说得对用哪个 |
几个注意事项
切换模型有冷启动。 第一次切到 Opus 4.6 Fast 的时候,首次响应会慢一两秒,后面就正常了。
上下文窗口不同。 GPT-5.3 Codex 的上下文窗口是 256K,Opus 4.6 标准是 200K(1M 在 beta)。大项目里可能会影响模型能"看到"多少代码。
两个模型的 Chat 历史不互通。 你跟 Codex 聊了半天项目背景,切到 Opus 4.6 Fast 它不知道。切模型等于重开对话。
Fast 模式目前是 Research Preview。 随时可能调整行为或暂停服务。如果你在生产环境用 Copilot Agent 做自动化,建议还是用 GPT-5.3 Codex 或标准 Opus 4.6。
值不值得升级到 Pro+
如果你现在是 Copilot Individual($10/月),要用 Fast 模式得升到 Pro+($39/月),月费涨了 $29。
值不值?取决于你的工作强度。如果你每天写代码超过 4 小时,Copilot Chat 和 Agent 模式用得频繁,那多出来的模型选择和 Fast 速度提升确实能提高效率。
如果你只是偶尔用 Copilot 补全几行代码,$10/月的 Individual 足够了。不需要为了一个 Research Preview 的功能多付三倍的钱。
我自己的做法:先用 Pro+ 的试用期体验两周,感觉离不开了再正式订阅。
浙公网安备 33010602011771号