第一次迭代开发心得

基于pytorch图像识别的enas 啥也不会还做机器学习

 

思考总结

 

设想和目标

 

  1. 我们的软件要解决什么问题?是否定义得很清楚?是否对典型用户和典型场景有清晰的描述?
    • 软件功能:借助微信平台搭建一个图像识别的小程序,可以进行实时识别,返回结果,并且收集用户评价。
      • 前端是用小程序web开发者工具。
      • 后台要求:基于pytorch框架搭建CNN模型,其中CNN模型要求是由Google提出的enas(高效神经架构搜索)得到的。
    • 典型用户:微信用户
    • 典型场景:微信小程序
  2. 我们达到目标了么(原计划的功能做到了几个? 按照原计划交付时间交付了么? 原计划达到的用户数量达到了么?)?
    • 原计划功能:实现在微信小程序上对手写体阿拉伯数字的识别。
    • 实现情况:全部完成。
    • 交付和用户:软件功能基本实现,但数据库还未完成,目前CNN模型还非常基础,会根据第二次迭代中通过enas得到的模型结果进行更换,暂时无法投入使用。
  3. 用户量, 用户对重要功能的接受程度和我们事先的预想一致么? 我们离目标更近了么?
    • 暂未投入使用,用户实际接受成度未知
    • 离目标更近了
  4. 有什么经验教训? 如果历史重来一遍, 我们会做什么改进?
    • 项目的重难点是enas,先对论文做复现弄懂模型参数共享,再根据这个思想去搜索出我们需要的CNN模型(论文中做的是RNN)。这个项目跟做普通的web,app项目差别较大,没有那么多页面设计和功能需求,但是对知识深度的要求比较高,实现难度大,重点是它跟我们平时学的知识密切程度低。如果重来一遍,应该会提议降低这个项目在图像识别方面的难度,然后增多一些功能,多一点用户交互之类的。(当然这些只是个人看法...)

 

计划

 

  1. 是否有充足的时间来做计划?
    • 有,老师让我们把前八周重心放在计划需求上
  2. 团队在计划阶段是如何解决同事们对于计划的不同意见的?
    • 计划阶段主要是刚开始我们跟指导老师讨论确定了主要方向,然后后面基本上碰到问题一起讨论解决,很少有不同意见。
  3. 你原计划的工作是否最后都做完了? 如果有没做完的,为什么?
    • 团队整体项目推进很顺利,alpha版本的计划都做完了
  4. 有没有发现你做了一些事后看来没必要或没多大价值的事?
    • 目前没有。
  5. 是否每一项任务都有清楚定义和衡量的交付件?
    • 是的,尤其在模块对接时,大家会提前说明自己需要接收或者传出什么样的接口或者数据。
  6. 是否项目的整个过程都按照计划进行,项目出了什么意外?有什么风险是当时没有估计到的,为什么没有估计到?
    • 完全按照计划进行,但是最重的模块在了第二次迭代,现在大家心里压力有点大。
  7. 在计划中有没有留下缓冲区,缓冲区有作用么?
  8. 将来的计划会做什么修改?(例如:缓冲区的定义,加班)
    • 可能加班时间会增多
  9. 我们学到了什么? 如果历史重来一遍, 我们会做什么改进?
    • 感觉学到了挺多的...深度学习方面补了很多基础知识(eg:pytorch基础,线性、Logistic回归模型,优化算法(SGD,Adam),神经网络(CNN,RNN)搭建,训练...),基础的图像处理,微信小程序也了解了基础的页面制作和API接口使用。刚开始学习具有盲目性,网上资料、视频太多了,前两周学得不扎实,重来一次的话,应该会先去找一本适合自己的书做指导,把书上的例子都敲敲代码体会一下,然后结合几个比较官方的视频学习。

 

资源

 

  1. 我们有足够的资源来完成各项任务么?
    • 我们完成了任务,但资源明显不够,后面会提到
  2. 各项任务所需的时间和其他资源是如何估计的,精度如何?
    • 时间一般按实际情况决定(有些周其他学习任务轻,可能效率高,有些周比较忙,效率肯定有影响)
    • 精度还不错吧...大家做事都不会拖拉,能力也挺强的
  3. 测试的时间,人力和软件/硬件资源是否足够? 对于那些不需要编程的资源 (美工设计/文案)是否低估难度?
    • 测试没有详细的安排,一般是自己做完自己的会进行测试,然后最后拼接完,再一起进行测试
    • 没有合适的数据集,目前用的都是网上公开的
    • 我们自己买的服务器比较简陋,应该不会用于训练模型
    • 平时训练模型大家都用的是自己的笔记本(性能不够好,大部分没法安GPU,对于复杂的网络结构计算慢,爆内存)
  4. 你有没有感到你做的事情可以让别人来做(更有效率)?
    • 这个问题很奇怪...
  5. 有什么经验教训? 如果历史重来一遍, 我们会做什么改进?
    • 资源上有些尴尬,下阶段可能会向老师寻求帮助,或者借助于某些可以进行GPU计算的平台进行模型搜索和训练

 

变更管理

 

  1. 每个相关的员工都及时知道了变更的消息?
    • 是的,一般有变动都会在群里或者开会的时候说
  2. 我们采用了什么办法决定“推迟”和“必须实现”的功能?
    • 一开始就决定了主体功能,主体功能必须实现,目前没有推迟什么功能,都按照计划实行
  3. 项目的出口条件(Exit Criteria – 什么叫“做好了”)有清晰的定义么?
    • 能识别用户图片,并且识别准确率较高,用户可接受范围
    • 实现方法是基于项目需求
    • (个人理解)
  4. 对于可能的变更是否能制定应急计划?
    • 没有提前制定应急计划,但有变更时会及时做出反应和调整
  5. 员工是否能够有效地处理意料之外的工作请求?
    • 大家的及时调整都很好,对于意外情况能较快找出原因,找到解决方案
  6. 我们学到了什么? 如果历史重来一遍, 我们会做什么改进?
    • 项目的团体协作比较重要,做模块之前要沟通好,中途发现困难相互帮助,测试时发现问题应该与组员商议后再做出调整

 

设计/实现

 

  1. 设计工作在什么时候,由谁来完成的?是合适的时间,合适的人么?
    • 整个模式的设计是在项目初期,全组人员和老师沟通商定的
  2. 设计工作有没有碰到模棱两可的情况,团队是如何解决的?
    • 没有
  3. 团队是否运用单元测试(unit test),测试驱动的开发(TDD)、UML, 或者其他工具来帮助设计和实现?这些工具有效么?
    • 有UML图来帮助设计
  4. 比较项目开始的 UML 文档和现在的状态有什么区别?这些区别如何产生的?是否要更新 UML 文档?
    • 目前没有进行需求调整,
  5. 什么功能产生的Bug最多,为什么?在发布之后发现了什么重要的bug? 为什么我们在设计/开发的时候没有想到这些情况?
    • 目前好像没bug,瑕疵的话会有一点,实际图片上传后,会在后台压缩成28*28的大小,这样图片精度会有损失,这个受限于数据集
  6. 代码复审(Code Review)是如何进行的,是否严格执行了代码规范?
    • 代码比较规范,但是跟老师文档中提出的要求会有些出入

 

测试/发布

 

  1. 团队是否有一个测试计划?为什么没有?
    • 没有详细的测试计划
    • 原因:项目的功能模块较少,大家在做自己模块时,都会边做边测试,最后模块对接好,会一起进行测试
  2. 是否进行了正式的验收测试?
    • 第一次迭代验收完成
  3. 团队是否有测试工具来帮助测试?
    • 暂未考虑,一般是先看该模型在数据集中的准确率,在比较满意情况下,大家再进行手写数字上传进行测试
  4. 团队是如何测量并跟踪软件的效能的?从软件实际运行的结果来看,这些测试工作有用么?应该有哪些改进?
    • 暂未考虑
  5. 在发布的过程中发现了哪些意外问题?
    • 还未发布
  6. 我们学到了什么? 如果历史重来一遍, 我们会做什么改进?
    • 项目做的过程中就会有很多次测试,如果第二次迭代开发有剩余时间,大家可能会制定比较详细的测试方案

 

团队的角色,管理,合作

 

  1. 团队的每个角色是如何确定的,是不是人尽其才?
    • 大家都挺努力地在学,项目功能模块少,难度大,分工可能有点尬,有没有人尽其才不清楚...
  2. 团队成员之间有互相帮助么?
    • 当然,大家一起帮忙解决的问题还挺多的
  3. 当出现项目管理、合作方面的问题时,团队成员如何解决问题?
    • 很少出现这些问题,大家都很有合作精神,做事效率也不错,遇到困难都会相互帮忙解决

总结

 1.你觉得团队目前的状态属于 CMM/CMMI 中的哪个档次?

  • 属于CMMI一级,完成级

  2. 你觉得团队目前处于 萌芽/磨合/规范/创造 阶段的哪一个阶段?

  • 规范

  3.你觉得团队在这个里程碑相比前一个里程碑有什么改进? 

  • 相互配合的效率会更高

  4.你觉得目前最需要改进的一个方面是什么?

  • 编码规范

  5.对照敏捷开发的原则, 你觉得你们小组做得最好的是哪几个原则? 请列出具体的事例。 

  • 每周都会进行例会,进行总结和发布新任务
  • 消息传递及时,遇到问题或者需要改动的部分,都会面对面沟通或者QQ交流

posted on 2018-12-11 23:13  颜岑  阅读(219)  评论(1)    收藏  举报

导航