团队作业1——团队展示&选题

团队展示

1.队名:DeepMind

2.队员姓名与学号:

姓名 学号
洪徐博(组长) 3123004787
何松 3123004786
康经腾 3123004788
徐云哲 3123004807
彭鑫 3123004277
崔嘉豪 3123004264

3.团队项目描述:

AI驱动的开发者成长平台:智能推荐技术路线 + 实战化框架学习 + 开发者社区互动

4.队员风采:

  1. 洪徐博
    • 擅长的技术:后台java开发,数据库搭建,前端vue框架开发
    • 编程兴趣:喜欢抠细节,尽量在一次编程调试中把业务细节做好
    • 希望的软工角色:全栈开发+PM
    • 宣言:走别人的路,让别人无路可走
  2. 何松
    • 技术栈:Vue+ElementUI,Springboot,MySQL,Redis等
    • 学习方向:后台服务器开发维护
    • 兴趣爱好:台球、篮球、吉他、动画
    • 角色:全能(bushi)
  3. 康经腾
    • 风格:注重用户体验
    • 编程兴趣:测试工具链开发
    • 软工角色:建立CI/CD流程
    • MSF宣言:质量优先
  4. 崔嘉豪
    • 技术风格:追求简洁的架构
    • 擅长技术:java后端开发,数据库优化
    • 编程兴趣:研究数据库底层
    • 角色:开发
    • 宣言:纸上谈兵可不会给你带来优秀的架构
  5. 徐云哲
    • 擅长的技术:语言:掌握C、Python,熟悉C++基础。
    • 编程兴趣:偏爱后端开发和系统设计,同时对AI领域感兴趣。
    • 希望的软工角色:首选后端开发工程师(未来想深耕分布式系统),其次对测试开发(自动化测试方向)或技术型PM(需技术背景的项目管理)也有兴趣。
    • 一句话宣言:“用代码构建世界的齿轮,以热爱驱动技术的边界。”
  6. 彭鑫
    • 擅长的技术:自动化测试:Python+PyTest搭建过接口自动化测试框架。性能测试:了解使用JMeter进行压力测试
    • 编程兴趣:喜欢用Python写测试工具,最近在研究如何用AI生成更智能的测试用例。
    • 希望的软工角色:专职测试开发工程师,同时愿意兼任部分用户体验优化工作。
    • MSF实践宣言:"我的测试用例就是团队的共享愿景说明书——通过持续验证『质量共识』,让每行代码都成为可信赖的承诺!"

5. 团队的特色描述

  • AI深度绑定开发学习——

    • 不依赖静态资料库,而是通过动态AI诊断实时反馈代码质量(风格/性能/规范),模拟真实开发中的Code Review场景。

    • 技术路线推荐系统结合行业趋势与个人学习数据,提供“可进化”的路径规划(如:从Python基础→自动化运维→云架构师)。

  • 无环境依赖的实战训练——

    • 用户无需配置本地环境,纯代码提交+AI流式评阅即可完成框架学习,解决“教程跑通但实际项目不会搭”的痛点。
  • 开发者生态闭环——

    • 学习路线、AI实战、社区反馈三者联动(例如:论坛高频问题可触发AI生成新的训练题,用户贡献的优质内容会被吸纳进官方推荐路线)。
  • 一句话差异点:

    • “用AI模拟真实开发场景的‘动态教练’,而非静态知识库”

团队选题:CodePilot —— AI驱动的开发者实战成长平台

项目github地址:https://github.com/DeepMind-GDUT/CodePilot

1. 项目描述:

CodePilot 是一个面向开发者的智能学习平台,核心功能包括:

  • AI个性化路线推荐:基于用户兴趣、技能水平和行业趋势,动态推荐学习路径(如:前端→全栈→架构师)。

  • AI实战代码评阅:无需搭建环境,提交代码即可获得AI的实时反馈(功能实现、代码规范、性能优化等)。

  • 开发者社区与同好推荐(选做):连接学习目标相似的用户,形成技术交流圈,并支持UGC内容(教程、经验帖)。

2. 目标用户量(初期):

  • Beta阶段(3-6个月):500-800 名对开发学习感兴趣的同学。

3. 项目目标:

  • 真实:解决开发者核心痛点

    • 传统学习平台问题:教程碎片化、环境配置复杂、缺乏真实项目反馈。
  • CodePilot的应对:

    • 动态路线推荐:避免“学完不知道下一步该学什么”的迷茫。
  • 可用:低门槛+高实用性

    • 用户侧:无需配置环境,打开浏览器即可练习框架代码(如Spring Boot、React)。

    • 技术侧:采用流式AI反馈,减少等待时间。 支持多文件代码提交,贴合真实项目结构

  • 有价值:加速开发者成长

    • 对个人:帮助用户从“会写Demo”到“能写工程代码”。

    • 对行业:通过社区反馈机制,推动技术路线与时俱进

  • 有情怀

    • 让技术学习更公平:降低优质教育资源门槛(尤其对非一线城市/转行者)。

    • 反哺开源生态:优秀用户贡献的内容可被整合为开源学习资源

团队计划与任务安排

  • 阶段一:需求分析与规划(2周)

    • 需求调研与优先级划分

      • 任务:PM组织成员学习《构建之法》第8章,通过焦点小组和快速原型调研明确用户核心需求(如AI动态诊断、学习路线推荐等),并应用NABCD模型分析竞争性需求25。
    • 耗时估计:

      • 需求收集(3天):用户调研与利益相关者访谈。

      • 需求评审(2天):使用“分而治之”方法拆解需求,划分优先级。

      • 输出文档:需求规格说明书(含功能性与非功能性需求)

    • 技术选型与架构设计

      • 任务:后端团队确定技术栈(如基于GPT的代码评阅API、推荐算法框架),前端团队设计低交互门槛的界面原型7。

      • 耗时估计:

      • 技术验证(4天):通过快速原型法测试AI接口性能。

      • 架构设计(3天):采用分层架构(前端+后端+AI服务),定义API规范。

  • 阶段二:核心功能开发(3周)

    • AI动态诊断模块

      • 任务:实现用户代码提交→流式AI评阅→实时反馈(支持多文件分析)。

      • 关键点:集成AI模型,优化响应延迟(目标<2秒)。 设计评分维度(代码规范30%、功能完整性50%、性能20%)。

      • 耗时估计:后端开发(1周):API接口与AI交互逻辑。 前端开发(2周):实时反馈界面与错误高亮。

    • 学习路线推荐系统

      • 任务:基于用户画像(技能水平、兴趣)生成动态学习路径。

      • 关键点:数据源:行业趋势数据 + 用户行为分析。 算法:协同过滤推荐 + 路径依赖优化。

      • 耗时估计:后端开发(2周):推荐算法实现与数据接口。 前端开发(1周):可视化路径展示(甘特图形式)。

  • 阶段三:测试与发布(1周)

    • 集成测试与优化

      任务:

      • 单元测试:覆盖核心功能(如AI评分准确性、推荐算法覆盖率)。

      • 性能测试:模拟高并发场景(多用户同时提交代码)。

      耗时估计:

      • 测试用例编写(3天)。

      • Bug修复与调优(5天)。

    • 发布与反馈迭代

      任务:

      • 灰度发布至100名种子用户,收集反馈并优化。

      关键点:

      • 采用渐进发布策略(每周开放10%用户量)。

      • 召开事后诸葛亮会议,总结技术债务与流程问题。

  • 时间表矫正与风险管理

    • 计划估计方法:

      • 使用《构建之法》中的“耗时公式”
        预计时间 = (最乐观时间 + 4×最可能时间 + 最悲观时间)/65。
    • 风险应对:

      • 需求变更:预留10%缓冲时间(如需求分析阶段+2天)。

      • 技术瓶颈:设置“技术探路先锋”(如提前2周验证AI接口可行性)

团队成员绩效评估方法与贡献分分配规则

一、绩效评估框架

  • 总绩效 = 团队项目分(统一基准) + 团队贡献分(个体差异)

  • 团队项目分:由课程组评审后统一赋分,所有成员均分相同。

  • 团队贡献分:根据成员实际贡献差异化分配,总和为 20×N(N为团队人数),每人得分为自然数且唯一

二、贡献分分配规则设计

  1. 贡献分构成

    • 采用“基础分+奖惩分”模式,确保公平性与激励性:

    • 基础分(60%):默认均分,体现基本工作量均衡。

    • 奖惩分(40%):根据质量、准时性、协作度等动态调整

  2. 评估维度与细则

维度 评估标准 加减分规则
工作量 任务复杂度与耗时(参考预估与实际开发时长比例) +1~3分(简单/一般/复杂任务)
代码质量 功能完成度、代码规范、Bug数量(开发组自测+测试组反馈) +5(无Bug)、+2(少量Bug)、-2(较多Bug)、-5(严重Bug)
准时性 任务交付时间(提前/按时/延期) +5(提前)、+2(按时)、-2(延期≤1天)、-5(延期>1天)
协作贡献 协助他人解决问题、共享技术文档、参与跨组沟通 +1~2分/次(由团队投票评定)
态度与规范 例会出勤率、代码提交规范、文档完整性 -1~2分(缺勤/不规范)、+1分(优秀)
  1. 贡献分计算流程

  • 自评与互评:成员提交任务总结(含工作量、难点、协作记录),团队匿名互评。

  • PM审核:结合代码提交记录、会议日志、测试报告,核定基础分与奖惩分。

  • 总分计算

    • 初始总分:个人总分 = 基础分 + ∑奖惩分

    • 归一化调整:按比例分配至总分池(20N),确保自然数且唯一68。

    • 同分处理:总分相同者,参考“协作贡献”得分微调,仍相同则由PM综合决策

posted @ 2025-03-30 16:54  xb2555  阅读(187)  评论(0)    收藏  举报