一、各个成员在 Alpha 阶段认领的任务
| 程炜东 |
模型管理 & 推理接口 |
| 曾子轩 |
视频流处理 & 推流 |
| 黄昌龙 |
环境部署 & Docker 化 |
| 罗锐楚 |
结果存储/异步上报 |
| 阮洪建 |
ONNX/TensorRT 推理管道 |
| 梁子恒 |
模型转换 |
| 刘江浩 |
Vue 控制台界面 |
二、明日各个成员的任务安排
| 程炜东 |
推理接口 REST API 的核心场景,确定接口的请求方式、路径前缀及基础入参,输出接口设计初稿 |
| 曾子轩 |
视频流源接入的技术方案,明确 RTSP 协议与本地文件的接入流程,搭建基础环境并验证流源的基本读取能力。 |
| 黄昌龙 |
推进 3.1 CUDA/cuDNN/TensorRT 环境准备,梳理版本兼容矩阵,下载匹配版本包并执行基础安装 |
| 罗锐楚 |
推进 4.1 推理结果结构定义,梳理基础字段与扩展字段,输出 JSON 结构规范 |
| 阮洪建 |
推进 5.4 前处理 pipeline 实现,梳理输入归一化、格式转换逻辑,编写模块化组件 |
| 梁子恒 |
推进 5.1 PyTorch→ONNX 模型导出脚本,明确模型输入输出静态 shape,编写基础导出代码 |
| 刘江浩 |
调研 ZLMediaKit 拉流在 Vue 中的集成方案,搭建组件基础目录结构 |
三、整个项目预期的任务量
| 成员 |
预期的任务量 |
| 程炜东 |
15% |
| 曾子轩 |
15% |
| 黄昌龙 |
15% |
| 罗锐楚 |
10% |
| 阮洪建 |
10% |
| 梁子恒 |
20% |
| 刘江浩 |
15% |
四、敏捷开发前的感想
我们期待能提升团队协作效率,助力快速响应需求变化,也对迭代节奏把控、任务拆分精准度及跨模块联调的顺畅性存有顾虑;目前已完成初步的任务拆解与准备,将以更聚焦、更灵活的状态投入后续工作,也期望通过实践逐步磨合出适配团队的敏捷节奏。
五、团队期望
对于本次项目,团队期望在敏捷开发过程中,能以高效、务实的协作方式推进:一方面,希望迭代流程清晰聚焦,每日站会与评审会均以解决实际阻塞、对齐目标为核心,避免形式化;另一方面,希望工具与沟通机制能充分支撑开发效率,同时借高频协作与反馈,实现个人技能与团队交付能力的共同提升,最终保障项目高质量落地。