Zed 1.0 vs Cursor:用了一周 AI 代码编辑器,说说真实感受
前几天 Zed 编辑器发布 1.0 正式版,GitHub 上热度一下子起来了。我之前一直用 Cursor,这次专门花了几天时间把 Zed 1.0 拿来认真测了一遍,对比了实际使用体验,记录下来供参考。
直接说结论:Zed 1.0 性能确实很强,但 AI 功能成熟度目前还跟不上 Cursor,要不要迁移得看你的具体需求。
我的测试环境
主要写 Python 和 TypeScript,项目规模中等,每天离不开 AI 辅助写代码。测试环境是 M2 MacBook Pro 16GB,API 用的是 Claude Sonnet 4.6 和 GPT-4o,测了大概一周。
两个工具的基本定位
- Cursor:基于 VS Code 二次开发,主打 AI 编程,有自带的 AI 订阅,也支持自定义 API Key,上手成本极低
- Zed:从头开发的新编辑器,用 Rust 写的,主打高性能,1.0 正式版加入了 AI 功能,支持配置自定义模型
核心维度对比
| 维度 | Cursor | Zed 1.0 |
|---|---|---|
| 启动速度 | 2-3秒(类 VS Code) | <1秒(感人) |
| 内存占用 | ~500-800MB | ~150MB |
| AI 对话(Chat) | ✅ 成熟,上下文长 | ✅ 基础可用 |
| AI 自动补全 | ✅ 很准,几乎离不开 | ✅ 有,但稍逊 |
| 自定义 API | ✅ 支持 base_url | ✅ 支持 |
| 插件生态 | ✅ 继承 VS Code | 🔶 较少 |
| 价格 | $20/月(Pro) | 免费(Beta期) |
| 多文件编辑(Composer) | ✅ 很强 | 🔶 有限 |
| 学习成本 | 低(VS Code 用户直接迁移) | 中(新快捷键体系) |
性能:Zed 赢得彻底
Zed 在性能这块确实没有悬念,秒开,内存占用大概是 Cursor 的三分之一。
我测了一下,开一个中等规模的 Python 项目(约 5 万行代码),Cursor 打开需要 2-3 秒,Zed 基本上是点击图标立即显示,完全感受不到启动过程。
如果你的机器是 8GB 内存,Zed 的优势会更明显。Cursor 开多个标签页加上 AI 功能同时跑,内存经常到 800MB-1GB,再加上 Chrome,机器就开始喘了。
不过日常写代码,启动速度不是核心痛点,打开一次用几个小时,这个差距平时感受不到。
AI 补全:Cursor 还是更顺手
这是我最在意的部分。
Cursor 的补全:用了一年多,说实话已经"肌肉记忆"了。Tab 补全很准,能预测上下文,有时候一整个函数的逻辑直接补出来,准确率体感在 70%+。多文件理解也做得不错,改一个函数签名,它能猜到你接下来要改哪里。
Zed 的补全:有,但明显还在打磨阶段。补全延迟比 Cursor 稍高,遇到比较复杂的逻辑预测就差点意思。日常写简单代码没问题,但重度依赖 AI 补全的话会有落差感。
多文件编辑:Cursor 的 Composer 是杀手锏
这块 Cursor 目前是碾压级的优势。
Cursor 的 Composer(Ctrl+Shift+I)能跨多个文件同时改代码,你描述需求,它自动定位到多个文件并修改,对重构任务非常好用。我经常用它做"把所有 API 调用从 requests 换成 httpx"这种批量改动,几乎不需要手动逐个文件改。
Zed 目前还没有类似的能力,AI 对话主要还是单文件上下文,复杂的多文件任务做不了。这是我目前没有从 Cursor 切走的最大原因。
自定义 API 配置方法
两个工具都支持配置自定义 API 地址,这对于想用自己 Key 或者接其他模型的同学很重要。
Cursor 配置(Settings → Models):
{
"openai.apiKey": "sk-xxx",
"openai.baseUrl": "https://api.ofox.ai/v1"
}
Zed 配置(~/.config/zed/settings.json):
{
"assistant": {
"version": "2",
"default_model": {
"provider": "openai",
"model": "claude-sonnet-4-6"
},
"openai": {
"api_url": "https://api.ofox.ai/v1",
"api_key": "sk-xxx",
"available_models": [
{
"name": "claude-sonnet-4-6",
"max_tokens": 8192
},
{
"name": "gpt-4o",
"max_tokens": 8192
}
]
}
}
}
两个都可以用自定义 base_url,方便统一管理 API Key。
ofox.ai 聚合平台
如果你同时用 Cursor 和 Zed,又不想维护多个 API Key,可以考虑用聚合平台。
ofox.ai 是一个 AI 模型聚合平台,一个 Key 可以调用 Claude Opus 4.7、GPT-4o、Gemini、DeepSeek 等 50+ 模型,兼容 OpenAI SDK 协议,低延迟直连,支持支付宝按量计费。
import openai
client = openai.OpenAI(
base_url="https://api.ofox.ai/v1", # 我用的这个,低延迟直连
api_key="sk-xxx"
)
response = client.chat.completions.create(
model="claude-sonnet-4-6",
messages=[{"role": "user", "content": "帮我写个快速排序"}]
)
print(response.choices[0].message.content)
多供应商冗余备份,某一路挂了自动切换,成功率比只用单一官方接口高不少。
踩坑记录
Zed 配置 API 时 available_models 必须手填
这里有个坑,Zed 的 AI 配置文档还不够完善。我刚开始配了半天发现模型下拉列表是空的,选不了模型。查了很久才发现:available_models 字段必须手动列出你要用的模型,不能省略,否则编辑器里的模型选择界面就是空的。
DeepSeek-R1 在 Zed 里会报解析错误
Zed 对 API 返回格式比较严格,如果你用 DeepSeek-R1,会遇到这个报错:
Error: unexpected field `reasoning_content` in model response
原因是 DeepSeek-R1 在响应里多了一个推理字段,Zed 目前处理不了,Cursor 在这方面容错更好。解决方法是换用 DeepSeek-V3 或其他标准 OpenAI 格式的模型。
Cursor 内存吃多时的缓解方法
开大项目又同时跑 AI 的话,Cursor 内存到 1GB 是常事。可以在 Cursor Settings 里关掉后台代码库索引(Codebase Indexing),能减少 200-300MB 左右,AI 补全功能不受影响。
插件生态
这里 Cursor 完胜,继承了 VS Code 的插件生态,基本所有 VS Code 插件都能用。
Zed 的插件生态目前还比较少。主流语言的语法支持没问题,但像 Prettier、ESLint 之类的工具链集成还不如 VS Code 平滑。如果你重度依赖某些 VS Code 插件,迁移前最好先查一下 Zed 市场有没有替代品,别迁移过去发现某个关键插件没有。
我的建议
根据不同情况给个参考:
- VS Code / Cursor 用户,追求稳定的 AI 编程体验:继续用 Cursor,Composer 功能目前同类产品里最成熟,多文件编辑几乎无可替代
- 在意性能,机器配置一般,日常轻量写代码:可以试试 Zed 1.0,作为主力编辑器问题不大,但 AI 功能别抱太高期望
- Vim 用户:Zed 有 Vim 模式支持,切换成本比 Cursor 低,值得认真试试
- 重度 AI 编程用户:建议等 Zed 再更新几个版本再考虑迁移
我自己的选择是主力继续用 Cursor,Zed 作为备用编辑器放在那,等 Zed 的 AI 功能再打磨一段时间再评估要不要完全切换。
总结
Zed 1.0 的性能确实让人眼前一亮,冷启动速度和内存占用都比 Cursor 强很多。但 AI 功能的成熟度、多文件编辑能力、插件生态,目前还有明显差距。
对大多数开发者来说,现在完全切换的时机还不够成熟,可以持续关注 Zed 的更新节奏,等个半年再评估也不迟。
如果你自己测了有不同体验,欢迎评论区聊聊。
浙公网安备 33010602011771号