# Cursor实战万字经验:从Token优化到决策者思维的AI编程最佳实践

关联知识库:# Cursor实战万字经验:从Token优化到决策者思维的AI编程最佳实践

Cursor实战万字经验:从Token优化到决策者思维的AI编程最佳实践

来源博客园 - 听风是风
作者:echo(听风是风)
实践周期:3个月深度实践 + 多次对比测试
核心观点:AI不是钢铁侠,它是盔甲。接受并穿上盔甲的我们,才是真正的钢铁侠。


为什么这篇文章值得关注?

这不是一篇理论文章,而是一份3个月全 AI 编程实践后的血泪总结:

  • 已验证有效:文中的User Rules已在实际项目中验证
  • 解决痛点:针对"AI越聊越笨"、"代码质量差"、"幻觉频发"等真实问题
  • 思维转变:从"追求自动化"到"成为决策者"的关键突破
  • 工具武装:3个高价值MCP工具的实战应用

目录

  1. 核心发现:Cursor为什么会"听不懂人话"?
  2. 经过验证的8条User Rules
  3. Project Rule优化的5大原则
  4. 渐进式开发vs一次性梭哈
  5. 3个必装的MCP工具
  6. 实际开发流程演示
  7. 决策者思维:AI时代下的程序员价值
  8. 批判性分析与反思

核心发现:Cursor为什么会"听不懂人话"?

Token计算的真相

每次Cursor对话的Token组成:

初始输入 = 用户问题 + Rules + 对话历史
总Token = 初始输入 + 所有工具调用结果

关键洞察

  • 上下文质量 > 数量:清晰的问题描述 > 大量臃肿信息
  • Normal vs Max模型:Normal每次25次tool调用,Max每次200次但消耗恐怖
  • ⚠️ 对话越长越失忆:原始问题在上下文中被不断稀释

优化方向

  1. Rule优化(精简、拆解、明确范围)
  2. 用户问题表达(清晰、具体、有上下文)
  3. 对话历史管理(相同需求一个窗口,不同需求换窗口)

⭐ 经过验证的8条User Rules

注意:这是作者3个月实践后沉淀的核心规则,我本人使用后体验非常好。

1. 如果我要求先讨论方案时不要着急修改代码,直到方案确定才可以修改代码。

2. 方案讨论需要在我们双方都没疑问的情况下才可以输出具体方案文档。

3. 方案评估请主动思考需求边界,合理质疑当下方案的完善性,方案需包含:
   - 重要逻辑的实现思路
   - 需求按技术实现的依赖关系拆解并排序,便于后续渐进式开发
   - 输出修改或新增文件的路径
   - 输出测试要点利于需求完成后的自动化测试

4. 方案讨论或代码编写时,如果遇到了争议或不确定性请主动告知我,请牢记让我决策而不是默认采用一种方案实现,重点强调。

5. 开发项目必须严格按步骤执行,每次只专注当前讨论的步骤,要求:
   - 不允许跨步骤实现功能或"顺便"完成其他步骤任务
   - 实现前必须先确认技术方案和实现细节
   - 每个步骤完成后必须明确汇报,等待Review确认后才能进入下一步

6. 与第五点类似,任何代码修改请始终遵守最小改动原则,除非我主动要求优化或者重构。

7. 代码实现请先思考哪些业务可以参考或复用,尽可能参考现有业务的实现风格,如果你不明确可让我为你提供,避免重复造轮子。

8. 在bug修复时如果超过2次修复失败,请主动添加关键日志后再进行尝试修复,在我反馈修复后主动清除之前的日志信息。

为什么这些规则有效?

规则编号 解决的核心问题 实际效果
1-2 AI急于修改代码,方案没讨论清楚就动手 强制分离"讨论"与"实现"阶段
3 方案不完善,缺少依赖关系分析 输出可执行的渐进式开发计划
4 AI遇到决策点自己瞎猜,导致薛定谔的代码 暂停AI自动化,人类介入决策
5 AI"顺手"修改无关代码,改A连B也改了 严格控制修改范围,便于Code Review
6 AI过度"优化",破坏现有功能 最小改动原则,降低风险
7 AI重复造轮子,风格不一致 保持代码风格统一,复用现有逻辑
8 Bug修复陷入死循环,错误堆错误 添加日志后修复率可达70%

** 其中Rule 4是最核心的突破点**:

  • 错误认知:AI应该全自动化完成需求
  • 正确认知:AI在决策点必须暂停,等待人类决策

Project Rule优化的5大原则

原则1:明确生效范围,不要一股脑Always

Rule Type 适用场景 优化建议
Always 全局通用规则(如编码规范) ⚠️ 慎用,会污染每次对话上下文
Auto Attached 特定目录的规则 ✅ 推荐,用glob匹配目录
Agent Requested AI自主决定是否使用 需提供清晰描述
Manual 特定场景手动引入 ✅ 推荐,冷门规则用Manual

反面案例

❌ 5个子项目的rule都设置为Always
结果:聊notta web需求,cursor把showcase、插件的规则也带进来

正确做法

✅ 使用Auto Attached + glob匹配
示例:packages/notta-web/**  只在访问notta-web时生效

原则2:内容精简,不要重复描述

反面案例

  • 技术栈描述出现3次
  • 插件说明重复添加到多个rule
  • 大量示例代码占用上下文

正确做法

  • 技术栈合并为一段
  • 删除重复的插件说明
  • 示例代码提取为独立rule(Manual模式)

原则3:不要添加假大空的规则

反面案例

❌ "优化LCP、FID性能"
❌ "确保代码可维护性"
❌ "遵循最佳实践"

问题

  • 太宽泛,AI不知道怎么做
  • 实际效果≈0

正确做法

  • 具体可执行的规则
  • 或者拆分为Manual规则,特定场景引入

原则4:必要时提供代码示例,但不要过量

适合加示例的场景

  • ✅ 典型的设计模式
  • ✅ 重要的项目规范
  • ✅ 容易出错的边界情况

不适合加示例

  • ❌ 常见的业务逻辑
  • ❌ 可以通过codebase search找到的代码
  • ❌ 一次性的特殊场景

原则5:冷门但重要的规则,拆成Manual

示例

  • 性能优化规则
  • 特殊的兼容性处理
  • 安全相关的规范

使用方式

@performanceRule 这个组件需要做性能优化

渐进式开发 vs 一次性梭哈

核心结论(作者多次实验验证)

需求越大,一次性生成代码质量越烂,这个结论我可以百分百确定。

对比分析

维度 一次性梭哈 渐进式开发
代码质量 ⭐⭐ 很差,充满bug ⭐⭐⭐⭐⭐ 高质量
调试难度 错误堆错误,越改越烂 小范围易控制
Code Review 一次几百行,漏审风险高 分步骤,易审核
完成度 看起来快实际慢 0→10→50→70→100
AI理解度 越改越失忆 每步都清晰

渐进式开发的核心优势

  1. 任务粒度越小,AI完成度越高
  2. 小范围利于人为监管和把控
  3. 分步骤代码量便于Code Review
  4. 避免错误堆错误的死循环

理想的开发流程

准备需求文档
    ↓
讨论方案设计(含争议确认)
    ↓
输出方案文档(包含步骤拆解)
    ↓
严格按步骤实现
    ↓
分步骤Review确认
    ↓
自动化测试验收
    ↓
输出测试报告

️ 3个必装的MCP工具

1. Review Gate v2 - 让Request翻5倍

核心价值

  • 500次 → 2500次(实测有效)
  • ⏸️ 决策点自动暂停,等待人类介入
  • 对话信息分离(问题在左,回答在右)

原理

  • 拦截每次request,反复消耗tools调用
  • 达到25次tool调用才消耗下一次request额度

安装文档

  • 参考作者的另一篇文章《Review-Gate MCP,让cursor request次数翻5倍》

2. Stagewise - 浏览器与Cursor的桥梁

核心价值

  • 选择页面元素直接提问
  • ⚡ 快速建立问答上下文,指哪打哪
  • 简单bug可实现自动修复

实战案例

  • 词汇表优化需求中的多个逻辑bug
  • 直接选择组件 + 输入bug描述 = 自动修复

注意事项

  • Cursor 1.0后无法自动执行,需手动点击send
  • 已给Stagewise提Issue,等待修复

3. Playwright - 自动化测试神器

核心价值

  • 自动化测试:实现需求 → 测试 → 修复bug → 再次测试
  • 获取控制台信息、接口信息
  • 具备页面视觉能力

配置方式

"playwright": {
  "command": "npx",
  "args": [
    "@playwright/mcp@latest",
    "--browser",
    "chrome",
    "--image-responses",
    "auto"
  ],
  "env": {
    "DEBUG": "pw:*"
  }
}

惊艳时刻

  1. AI自己添加调试日志
  2. AI自己测试并查看日志
  3. 修复bug后自动移除日志
  4. 再次测试并输出报告

使用建议

  • 开发阶段:用Playwright获取信息(比自己截图快)
  • 测试阶段:可以让它自动化测试(喝咖啡时刻)
  • 结合Stagewise:复杂交互用Stagewise,简单场景用Playwright

实际开发流程演示

作者的标准流程

1. 准备给AI阅读的需求文档
   ↓
2. 与AI讨论方案设计(含争议确认)
   ↓
3. AI输出方案文档(包含步骤拆解)
   ↓
4. 严格按步骤实现(渐进式)
   ↓
5. 分步骤Review确认
   ↓
6. 完成开发自动化测试验收
   ↓
7. 输出测试和需求完成度报告

效率提升案例

需求规模:M级,界面交互 + 逻辑对接 + 接口联调

传统开发 AI开发(渐进式)
2天 < 1天

关键成功因素

  1. ✅ 明确的User Rules
  2. ✅ 渐进式步骤拆解
  3. ✅ 人类在关键决策点介入
  4. ✅ MCP工具加速信息获取

决策者思维:AI时代下的程序员价值

核心观点:打破AI编程的第四面墙

AI不是钢铁侠,它是盔甲。接受并穿上盔甲的我们,才是真正的钢铁侠。

从抵触到接纳的心路历程

阶段1:抵触期

  • AI会让我的努力价值清零吗?
  • 非开发人员用AI也能写出漂亮产品?

阶段2:兴奋期

  • AI编程太酷了!全自动化!
  • 喝茶享受AI干活!

阶段3:失望期

  • 代码质量很差
  • 越聊越笨,失忆频发
  • 还不如自己写快

阶段4:突破期

  • 认识到缺少了"决策"环节
  • AI是概率学,人类知道如何提高成功概率
  • 在AI上下文限制下,人类经验帮助AI做出正确决策

人类与AI的本质区别

维度 AI 人类
本质 概率学的问答机器 经验驱动的决策者
优势 快速执行、不知疲倦 理解上下文、做出判断
局限 上下文有限、容易幻觉 编码速度有限
角色 工具/盔甲 使用者/钢铁侠

AI不会淘汰谁?

结论

AI不会淘汰每一个人,但AI必然会淘汰高替代性岗位下不会使用AI的人。

未来趋势

  1. Vibe Coding兴起,一人公司出现
  2. 自然语言编程可能成为现实
  3. 开发者与非开发者边界缩小
  4. ⭐ 会用AI的开发者价值提升

钢铁侠的隐喻

托尼·史塔克的智慧

  • 制造MK战甲(接受AI工具)
  • 主动忽略贾维斯警告探索上限(探索AI边界)
  • ❄️ 发现高空结冰问题(识别AI局限)
  • 利用结冰打败铁霸王(利用经验弥补AI不足)

关键洞察

  • AI是盔甲,赋予我们超能力
  • 但穿着盔甲做决策的,永远是人类

批判性分析与反思

✅ 这篇文章的独特价值

  1. 真实实践数据

    • 3个月全AI编程实践
    • 多次对比测试验证
    • M级需求从2天降到<1天的实际案例
  2. 系统化方法论

    • Token计算原理 → Rule优化 → 开发策略 → 工具武装
    • 8条User Rules可直接复用
    • 完整的开发流程可参考
  3. 思维转变

    • 从"追求自动化"到"增加决策"
    • 打破"AI全能"的迷思
    • 明确人类在AI时代的价值定位

⚠️ 需要注意的局限性

1. 前端偏向性

文章中的MCP工具偏前端

  • Stagewise:浏览器元素选择
  • Playwright:UI自动化测试

对后端开发者的价值

  • Rule优化原则依然适用
  • 渐进式开发思想通用
  • 决策者思维普适

2. 需求规模的适用性

文章主要针对M级需求

  • 渐进式开发对小需求可能过重
  • 一次性生成对简单需求可能够用

建议

  • S级需求:可以一次性生成
  • M级需求:严格渐进式开发
  • L级需求:更细致的步骤拆解

3. 工具的时效性

Review Gate v2的局限

  • 2025年9月Cursor改为token计费后可能失效
  • 作者在评论区已确认:"9.15 cursor改版成token计费了,这个就要废弃了"

建议

  • 关注Cursor计费策略变化
  • Rule优化和开发策略不受影响
  • MCP工具持续关注社区更新

4. 团队协作场景

文章缺少团队协作的讨论

  • 多人如何共享Project Rules?
  • 代码风格如何统一?
  • Code Review流程如何优化?

需要补充

  • Rule版本管理
  • 团队规范同步
  • AI生成代码的审核标准

引发的深度思考

思考1:决策权的边界在哪里?

文章强调人类决策,但哪些决策可以放心交给AI?

决策类型 建议
架构设计 人类决策
技术选型 人类决策
实现细节(常规) AI决策
性能优化方案 人类决策
代码风格 AI决策(基于Rule)
Bug修复路径 协商决策

关键原则

  • 战略级决策:人类主导
  • 战术级执行:AI主导
  • 争议性问题:人类介入

思考2:渐进式开发的成本收益

渐进式开发的隐藏成本

  • 更多的对话轮次
  • 更多的Review时间
  • 更多的心智负担

什么时候值得渐进式?

  • ✅ 复杂需求(M级以上)
  • ✅ 核心业务逻辑
  • ✅ 涉及多个模块的需求
  • ❌ 简单页面(S级)
  • ❌ 独立的小功能
  • ❌ 重复性工作

思考3:Rule的膨胀问题

随着项目发展,Rule会不会越来越多?

潜在问题

  • Rule数量失控
  • Rule之间冲突
  • 维护成本上升

解决方案

  1. 定期Review:每月审查Rule有效性
  2. 版本化管理:Rule也要做版本控制
  3. 分层设计:全局Rule + 模块Rule + 临时Rule
  4. 优先级机制:冲突时明确哪个Rule优先

思考4:AI编程的技能退化风险

过度依赖AI会导致编码能力退化吗?

正反两面

  • ✅ 解放时间关注架构设计
  • ✅ 提升效率完成更多需求
  • ⚠️ 对底层实现理解减弱
  • ⚠️ Debug能力可能下降

平衡策略

  • 核心模块:人类主导,AI辅助
  • 重复工作:AI主导,人类Review
  • 学习场景:禁用AI,锻炼能力
  • 探索场景:全力使用AI

可以进一步探索的方向

  1. Rule的最佳粒度

    • 多细才算合适?
    • 如何衡量Rule的有效性?
  2. 团队Rule的管理

    • 如何在团队中推广?
    • 如何处理个人偏好差异?
  3. AI生成代码的质量标准

    • 什么样的代码可以直接使用?
    • 什么样的代码必须重构?
  4. MCP生态的发展

    • 哪些MCP工具值得关注?
    • 如何评估MCP的安全性?(参考:首个恶意MCP案例)

总结:核心要点速查

立即可用的实践

  1. 复制8条User Rules

    凡是在方案、编码过程遇到任何争议或不确定,
    必须在第一时间主动告知我由我做决策。
    
  2. 优化Project Rule

    • 改Always为Auto Attached
    • 删除重复描述
    • 去掉假大空规则
  3. 采用渐进式开发

    • M级需求必须拆步骤
    • 每步Review后再进行下一步
  4. 安装3个MCP工具

    • Review Gate v2(省Request)
    • Stagewise(指哪打哪)
    • Playwright(自动化测试)

需要转变的思维

  1. 放弃"AI全自动化"幻想

    • AI需要人类决策
    • 过程干预 > 结果修补
  2. 理解Token的重要性

    • 清晰 > 大量
    • 精简 > 全面
  3. 明确自己的价值

    • 不是被AI替代
    • 而是成为AI的决策者

预期收益

  • ⏱️ 效率提升:M级需求从2天→<1天
  • 成本降低:Request使用量减少
  • 质量提升:代码可用度明显改善
  • 心态平和:不再焦虑"AI会不会取代我"

相关资源

文章来源

作者其他文章

  • 《Review-Gate MCP,让cursor request次数翻5倍》

推荐阅读

本知识库相关文档

  • [[ Prompt智能决策与编排系统]]
  • [[ AI注意力机制与Prompt设计原则]]
  • [[⚙️ Cursor Rules配置与维护指南]]
  • [[ Cursor规则系统迁移报告]]
  • [[ MCP工具能力清单]]
  • [[ 首个恶意MCP服务器案例]]

致谢

感谢作者 echo(听风是风) 的无私分享。

这篇文章的价值在于:

  • ✅ 真实的3个月实践数据
  • ✅ 经过验证的User Rules
  • ✅ 系统化的方法论
  • ✅ 深刻的思维转变

AI不是钢铁侠,它是盔甲。接受并穿上盔甲的我们,才是真正的钢铁侠。


本文档由AI助手基于原文整理,加入了批判性分析和深度思考。
最后更新:2025-10-09

posted @ 2025-12-05 23:49  吾以观复  阅读(2)  评论(0)    收藏  举报